KR20060126819A - 캐시형 네트워크 환경에서의 다운로딩 스케줄링 시스템 및방법 - Google Patents

캐시형 네트워크 환경에서의 다운로딩 스케줄링 시스템 및방법 Download PDF

Info

Publication number
KR20060126819A
KR20060126819A KR1020067018690A KR20067018690A KR20060126819A KR 20060126819 A KR20060126819 A KR 20060126819A KR 1020067018690 A KR1020067018690 A KR 1020067018690A KR 20067018690 A KR20067018690 A KR 20067018690A KR 20060126819 A KR20060126819 A KR 20060126819A
Authority
KR
South Korea
Prior art keywords
request
cache server
content
content file
scheduling
Prior art date
Application number
KR1020067018690A
Other languages
English (en)
Inventor
준 리
준비아오 장
스니그드하 베르마
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Priority to KR1020067018690A priority Critical patent/KR20060126819A/ko
Publication of KR20060126819A publication Critical patent/KR20060126819A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9574Browsing optimisation, e.g. caching or content distillation of access to content, e.g. by caching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 시스템 및 방법은 콘텐츠 서버로부터 캐시 서버를 통해 클라이언트에게 콘텐츠 파일을 다운로드하는 것을 스케줄링한다. 사용자는, 핫 스폿과 같은 어떤 위치에서 어떤 서비스 시각에 콘텐츠 파일을 미래에 전달해 줄 것을 요청할 수 있다. 캐시 서버는 이러한 리퀘스트를 수신하고, 관련된 서비스 시각에 따른 순서대로 정렬하며, 캐시 서버에 이미 저장되어 있지 않은 콘텐츠 파일을 단지 다운로딩함으로써 리던던시를 제거한다. 스케줄링 알고리즘은 캐시 저장 용량의 제약하에 지연의 인스턴스를 최소화한다.
콘텐츠 서버, 캐시 서버, 콘텐츠 파일, 다운로드, 핫 스폿

Description

캐시형 네트워크 환경에서의 다운로딩 스케줄링 시스템 및 방법{SYSTEM AND METHOD FOR SCHEDULING DOWNLOADING IN A CACHED NETWORK ENVIRONMENT}
본 발명은 일반적으로는 데이터 통신 및 콘텐츠 전송 네트워크 분야에 관한 것으로서, 특히 콘텐츠 전송 네트워크에서의 파일 다운로딩을 스케줄링하기 위한 시스템 및 방법에 관한 것이다.
영화와 같은 대용량 콘텐츠의 경우, 일반적으로 콘텐츠 클라이언트는 전송에서의 약간의 지연은 더 좋은 품질을 위해 참을 수 있다. 때때로, 클라이언트는 동시적인 저 품질의 스트리밍 비디오를 보기보다는 고 품질의 다운로드된 비디오를 예정된 시각에 보기를 선택한다. 예를 들어, 모바일 사용자는 셀룰러 모바일 네트워크상에 있으면서 비디오를 미리 주문할 수 있고, 그 사용자가 무선 LAN 핫 스폿을 액세스하면서 나중에 그 영화를 다운로드할 수 있다. 이 방식으로, 모바일 사용자는 높은 대역폭과 저 비용으로 콘텐츠를 즐길 수 있다.
최근에는 콘텐츠 전송 네트워크(CDN: content delivery network) 기술이 인터넷에 확산되어 웹 페이지의 다운로딩을 개선한다. CDN은 상이한 지리적 위치에 있는 복수의 캐시 서버를 포함한다. CDN 기술의 기본 전제는 저 비용과, 캐시 서버와 클라이언트 간의 높은 대역폭 링크에 좌우된다. 클라이언트가 웹 페이지를 요청하는 시각에, 그 요청된 웹 페이지가 캐시 서버 근처의 캐시에 존재하면, 다운로딩은 신속하게 이루어진다. 그렇지 않으면, 클라이언트는 지연을 경험할 수도 있다.
통상적으로, 콘텐츠 클라이언트가 콘텐츠 파일을 검색하는 시간으로서 지명한 예상 서비스 시간을 초과하지 않는 지연이면, 클라이언트는 대용량 콘텐츠 파일의 다운로딩 시의 지연을 참을 수 있다. 따라서, 요청된 콘텐츠 파일이 클라이언트에게 가까운 캐시 서버에 지금 존재하지 않더라도, 다운로딩 시스템이 그 콘텐츠 파일을 예상 서비스 시간 이전에 캐시 서버에 전송하는 한, 클라이언트는 지연을 경험하지 않는다. 그러나 콘텐츠 서버가 수많은 클라이언트 리퀘스트(request)를 수신하여 콘텐츠 파일을 특정 캐시 서버에 다운로드할 때, 스케줄링 알고리즘을 이용하여 콘텐츠 서버, 네트워크 링크 및 캐시 서버의 리소스를 최적화해야 한다.
무선 기술의 발달과 원격지 다운로딩의 도입으로 인하여 콘텐츠 서버, 네트워크 링크 및 캐시 서버의 리소스를 최적화하는 스케줄링 알고리즘에 대한 필요성이 커진다. 단지 예시적인 목적을 설명하면, 이러한 스케줄링 과제는 무선 및 원격지 다운로딩 기술을 이용하는 CDN과 관련하여 논의되고, 이러한 과제는 모든 타입의 CDN에 존재하며, 본 발명은 이에 한정하지 않는다는 점을 이해하는 것이다.
무선 기술의 발달로 인하여 PDA, 셀룰러폰-PDA 하이브리드 및 랩톱 컴퓨터와 같은 모바일/무선 디바이스는 셀룰러 모바일 네트워크를 이용하여 이메일을 송수신하고, 웹 서비스를 받으며, 멀티미디어 파일을 다운로드할 수 있다. 그러나 그와 같은 셀룰러 네트워크는 영화, 음악, 텔레비전 프로그램 또는 다른 멀티미디어 파 일과 같은 대용량 콘텐츠 파일을 다운로딩 또는 스트리밍하기에는 충분하지 않다. 전송되는 멀티미디어 비트당 비용 및 속도에 따라, 광대역 케이블, DSL, 전화 모뎀과 같은 더 높은 대역폭 접속을 이용하거나, 그와 같은 콘텐츠 파일을 콘텐츠 웹 서버로부터 다운로드하는 하드웨어 내장형 네트워크 접속을 이용하는 것이 모바일 디바이스 사용자에게는 더욱 비용 효율적이다.
여행할 때, 모바일 디바이스 사용자는 셀룰러 네트워크와 같은 비용 효율이 낮은 네트워크(즉, 저 대역폭 네트워크)에만 때때로 액세스한다. 셀룰러 네트워크를 통해 대용량의 콘텐츠 파일을 다운로딩할 때의 문제점 및 제약을 완화하기 위하여, 콘텐츠 전송 네트워크("CDN")로서 알려진 캐시형 서버 네트워크가 더욱 대중화되고 있다. CDN은 웹 사이트 운영자와 계약을 맺어 그 웹 사이트의 콘텐츠 파일을 캐시 서버로부터 이용가능하게 하여, 그 웹 사이트 콘텐츠 서버에 대한 사용자 리퀘스트는 CDN 내의 캐시 서버로부터 더욱 빠르고, 능률적이며, 지리적으로도 가깝게 이행 또는 전송될 수 있다. 예를 들어, 다운로딩 시스템으로 인하여 사용자는 제1 시각에 제1 네트워크상의 한 위치에 있는 동안 콘텐츠 서버로부터 콘텐츠 파일을 요청할 수 있고, 미래의 제2 시각에 제2 네트워크상의 제2 위치에서 그 콘텐츠 파일을 다운로드할 수 있다. 이는 원격지 다운로딩 기능으로서 알려져 있다. 원격지 다운로딩 기능은 CDN 또는 콘텐츠 서버에 의해 제공될 수도 있다.
이러한 요구를 충족하기 위하여, "핫 스폿"으로서 알려져 있고, 캐시 서버를 통해 비용 효율적인 다운로딩을 용이하게 하는 공중 액세스 포인트가 개발되어왔다. 본 명세서에서는, 핫 스폿은 WLAN(Wireless Local Area Network), 예컨대 공 공 장소 내 무선 광대역 컴퓨터 네트워크가 배치되는 위치이다. 현재, 핫 스폿은 IEEE 802.11b("Wi-Fi") 표준을 이용하여 초당 11 메가비트의 접속 속도 또는 IEEE 802.11g를 이용하여 초당 55 메가비트의 접속 속도를 제공하고, 예를 들어 커피숍, 레스토랑, 호텔, 공항, 서점, 카피 숍, 컨벤션 센터 및 다른 공중 액세스 가능한 위치에 배치할 수도 있다. 핫 스폿에서, 예를 들어 PDA, 랩톱 컴퓨터, 셀룰러폰 또는 하이브리드 PDA-셀 폰과 같은 Wi Fi 가능 모바일 디바이스를 구비한 사용자는 인터넷을 액세스할 수 있고, 대용량 콘텐츠 파일을 매우 비용 효율적으로 다운로드 또는 스트리밍할 수 있다.
핫 스폿에서의 인터넷 액세스는 무선 카드가 있는 모바일 디바이스와 통신하는 무선 송수신기를 구비한 무선 라우터에 의해 사용자의 모바일 디바이스에 일반적으로 제공된다. Wi Fi 가능하지 않은 모바일 사용자는 유선 접속을 구비한 경우에는 핫 스폿 인터넷 서버에 접속할 수도 있지만, 미래에는 모든 모바일 디바이스가 Wi Fi 가능하게 된다고 예상된다.
현재, 무선 모바일 디바이스 사용자는 핫 스폿에서 인터넷을 접속하여, 원격 콘텐츠 웹 서버로부터 콘텐츠 파일을 선택, 요청 및 비용을 지급하여 즉시 다운로드할 수 있다. 그러나 모바일 사용자는 셀룰러 또는 다른 저속 네트워크를 통해 콘텐츠 공급자 웹 사이트로부터 콘텐츠 파일을 선택하고, 핫 스폿을 방문하였을 때 신속한 액세스를 위해 콘텐츠 파일이 미리 다운로드 되게 하며, 모바일 사용자가 콘텐츠 파일을 얻기 위해 핫 스폿을 방문하는 동안에는 콘텐츠 서버 웹 사이트에 접속하지 않는 것이 편리하다는 점을 때때로 알게 된다. 이 상황에서, 모바일 사 용자는 자신의 모바일/무선 디바이스를 통해 콘텐츠 파일을 요청하고, 그 콘텐츠가 송신되는 핫 스폿/캐시 서버 및 그 콘텐츠를 액세스 및 수신하고 싶어하는 예상 시간(즉, 서비스 시간)을 지정한다.
핫 스폿 캐시 서버에 다운로딩하기 위한 파일을 요청하는 것에 장점이 있지만, 사용자는 현재의 네트워크로는 수많은 문제점과 조우하게 되는데, 그 중 하나는 지정된 캐시 서버에 도착하는 요청된 콘텐츠 파일의 지연이다. 때때로 사용자는 요청한 콘텐츠를 캐시 서버상에서 액세스할 수 있을 때까지 예상 시간 이상을 기다려야만 한다. 이 문제점은 캐시형 네트워크 다운로딩의 인기가 높아짐에 따라 더욱 나빠지게 된다.
대부분의 인터넷 서비스에서의 다운로딩 프로세스는 서버, 네트워크 및 클라이언트 상태와는 무관하게 일반적으로는 거의 즉시 발생한다. 스케줄링 문제점이 인스턴트 다운로딩 시스템에 존재하는 경우는 거의 없다. 그와 같은 시스템의 스케줄러는 콘텐츠 서버의 처리 용량에 기초하여 작동하고, 파일에 대한 리퀘스트 처리는 리퀘스트가 수신되는 순서대로 발생한다. 그러나 서비스 시간 정보가 있는 선 리퀘스트가 더욱 많아짐에 따라, 콘텐츠 파일을 다운로딩하기 위한 스케줄러를 캐시형 네트워크(CDN) 환경에 설계하여 그와 같은 네트워크에 현존하는 특별한 제약을 고려할 필요가 있다.
본 발명의 목적은 다운로딩 시스템을 위한 다운로딩 작업을 스케줄링하기 위한 방법 및 시스템을 제공하는 것이다.
다른 목적은 서비스 시간에 관한 다운로딩 지연의 인스턴스를 감소시키는 다운로딩 시스템에서의 다운로드를 스케줄링하기 위한 방법 및 네트워크를 제공하는 것이다.
또 다른 목적은 캐서 서버 이용을 최대화하는 다운로딩 시스템에서의 다운로드를 스케줄링하기 위한 방법 및 네트워크를 제공하는 것이다.
본 발명의 또 다른 목적은 콘텐츠 서버 및 캐시 서버 용량 둘 다를 고려하는 다운로딩 시스템에서의 다운로딩을 스케줄링하기 위한 방법 및 네트워크를 제공하는 것이다.
본 발명은 이러한 목적 및 다른 목적을 충족시킨다. 다운로딩 시스템에서는, 콘텐츠 파일을 다운로딩하기 위한 리퀘스트는 콘텐츠 서비스 시간(즉, 콘텐츠 소비 시간)보다 미리 이루어지므로, 시스템의 처리량을 개선하는 다운로딩을 스케줄링하기 위한 방법 및 네트워크를 발명할 수 있다는 점을 발견하게 된다. 본 목적은 서버, 네트워크 및 캐시 용량의 제약에 따른 네트워크 처리량을 최대화하는 것이다. 본 발명은 유선 및 무선 네트워크 환경 둘 다에 사용할 수 있다.
본 발명의 양상은, 서비스 시간을 갖는 콘텐츠 파일에 대한 리퀘스트를 지정된 캐시 서버에서 수신하는 단계와, 리퀘스트를 서비스 시간에 다른 연대순으로 작업 리스트에 열거하는 단계를 포함하는 다운로딩 시스템 환경을 위한 다운로딩을 스케줄링하는 방법이다. 리퀘스트는 콘텐츠 파일 URL의 데이터 세트 및 콘텐츠 파일 크기를 또한 포함할 수 있다. 리스트의 상부에 초기화되는 스케줄링 포인터가 존재한다. 콘텐츠 파일에 대한 새로운 리퀘스트가 수신되고, 새로운 리퀘스트가 스케줄링 포인터에 의해 현재 지명되는 리퀘스트 앞에 삽입되면, 스케줄링 포인터가 뒤쪽으로 이동됨에 따라, 작업 리스트는 바람직하게는 동적으로 업데이트된다. 작업 리스트가 생성 및 정렬되면, 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 지정된 캐시 서버에 이미 저장되어 있는지 여부를 판정한다. 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 지정된 캐시 서버에 저장되어 있지 않다고 판정되면, 여유 공간이 이용가능할 때 그 콘텐츠 파일을 그 캐시 서버에 다운로드하도록 요청한다. 이 다운로딩이 완료되면, 다운로드된 콘텐츠는 스케줄링 포인터가 가리키는 리퀘스트에 링크되고, 스케줄링 포인터는 작업 리스트의 그 다음 리퀘스트 앞쪽으로 이동한다.
그러나 스케줄링 포인터에 의해 식별된 리퀘스트에 의해 요구되는 콘텐츠 파일이 캐시 서버에 존재하면, 그 리퀘스트는 바람직하게는 저장된 콘텐츠와 링크되고, 스케줄링 포인터는 작업 리스트의 그 다음 리퀘스트 앞쪽으로 이동한다. 이는 동일한 캐시 서버에 복사하여 저장되는 콘텐츠 파일을 제거하고, 캐시 서버 저장을 최대한으로 이용한다.
본 발명은 콘텐츠 서버 처리 용량을 고려할 뿐만 아니라, 저장 공간과 같은 캐시 서버 용량을 고려한다. 캐시 서버에 파일을 저장하는 여유 공간이 없으면, 캐시 서버는 그 다음 작업(즉, 요청된 콘텐츠 파일을 다운로드)을 처리할 수 없다. 캐시 서버 여유 공간은 리퀘스트의 예상 서비스 시간보다는 클라이언트의 랜덤한 픽업에 좌우되기 때문에, 캐시 서버 여유 공간을 계속해서 모니터하는 것이 바람직하다. 본 발명은 서버 및 캐시 요양의 제약하의 처리량을 최대화한다.
바람직하게도, 콘텐츠 파일은 콘텐츠 소스로부터 지정된 캐시 서버에 다운로드된다. 본 명세서에서는, 콘텐츠 소스는 콘텐츠 웹 서버, 또는 원하는 콘텐츠 파일을 포함하는 지정되지 않은 캐시 서버를 포함한다. 작업 리스트는 지정된 캐시 서버에 저장될 수 있고, 지정된 캐시 서버에 의해 실행될 수 있다. 지정된 캐시 서버는 핫 스폿 캐시 서버인 것이 더욱 바람직하다. 리퀘스트는, PDA, 셀폰, 랩톱과 같은 모바일 전자 디바이스, 또는 데스크톱 컴퓨터와 같은 고정된 디바이스와 같은 무선 또는 유선 사용자 디바이스에 의해 생성될 수 있다.
본 발명의 또 다른 양상은, 작업 리스트 및 콘텐츠 저장 공간을 갖는 캐시 서버와, 캐시 서버에서 입수할 수 있는 콘텐츠 파일에 대한 리퀘스트-상기 리퀘스트는 서비스 시간을 포함함-를 생성하는 사용자 디바이스와, 리퀘스트를 작업 리스트-상기 작업 리스트는 서비스 시간에 따른 연대순으로 정렬되고, 작업 리스트의 상부에 초기화되는 스케줄링 포인터를 포함함-에 추가하는 수단과, 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 캐시 서버에 저장되어 있는지 여부를 판정하는 수단과, 여유 공간이 캐시 서버에서 검출될 때, 그리고 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 캐시 서버에 저장되어 있지 않다고 판정될 때, 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일을 캐시 서버에 다운로드하는 수단을 포함하는 시스템이다.
바람직하게도, 본 시스템은, 스케줄링 포인터에 의해 식별된 리퀘스트에 의해 요구되는 콘텐츠가 다운로드될 때, 스케줄링 포인터를 작업 리스트의 그 다음 리퀘스트 앞쪽으로 이동시키는 수단을 포함해야 한다. 또한, 본 시스템은, 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 캐시 서버에 존재할 때, 스케줄링 포인터를 작업 리스트의 그 다음 리퀘스트 앞쪽으로 이동시키는 수단을 포함하는 것이 바람직하다. 양 환경에 있어서, 본 시스템은 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일을 스케줄링 포인터가 작업 리스트의 그 다음 리퀘스트에 이동하기 전의 리퀘스트와 링크시키는 수단을 포함할 수 있다.
본 발명에 따른 시스템은 캐시 서버에 콘텐츠 파일을 다운로딩하기 위한 콘텐츠 소스를 더 포함할 수 있다. 콘텐츠 소스는 콘텐츠 서버 또는 또 다른 캐시 서버일 수 있다.
도 1은 본 발명의 실시예에 따라 콘텐츠 요청 및 콘텐츠 다운로딩에 서로 다른 네트워크를 이용하는 다운로딩 시스템의 개략도.
도 2는 본 발명의 실시예에 따른 원격 다운로딩 시스템의 다운로딩을 스케줄링하기 위한 방법의 플로차트.
도 1은 다운로딩 시스템(100)을 나타낸다. 다운로딩 시스템(100)은 사용자 디바이스(10)(일반적으로는 직사각형으로 도시함), 콘텐츠 서버(20) 및 캐시 서버(30)를 포함한다. 사용자 디바이스(10)는 상대적으로 저속(즉, 낮은 대역폭)으로 작동하는 무선 셀룰러 네트워크를 포함하는 제1 네트워크(a)를 통해 콘텐츠 서버(20)와 통신하고, 콘텐츠 서버(20)에/로부터 데이터를 전송 및 수신한다. 콘텐 츠 서버(20)는 고속(즉, 높은 대역폭) 인터넷과 같은 제2 네트워크(b)를 통해 캐시 서버(30)와 통신하고, 캐시 서버(30)에/로부터 데이터를 전송 및 수신한다. 캐시 서버(30)와 사용자 디바이스(10)는, 예를 들어 커피숍 또는 공항에서 무선 또는 하드웨어 내장형 접속을 제공할 수 있는 핫 스폿(c)에서 서로 통신하고, 데이터를 로컬하게 전송 및 수신한다.
이 예에서 사용자 디바이스(10)는 웹 가능 PDA 또는 셀룰러폰과 같은 무선 디바이스를 포함한다. 이 예에서 콘텐츠 서버(20)는 영화를 구입 또는 다운로드할 수 있는 웹 사이트를 포함한다. 이 예에서 캐시 서버(30)는 복수의 사용자가 액세스할 수 있는 핫 스폿 캐시 서버를 포함한다.
도 2는 본 발명의 실시예에 따라 다운로딩 시스템(100)이 작동하는 플로차트를 나타낸다. 도 2는 도 1의 다운로딩 시스템(100)에 관련하여 설명하지만, 다양한 실시예 및 하드웨어로 대체할 수 있음을 이해하게 된다.
사용자가 콘텐츠 파일을 나중에 받지만, 그 콘텐츠 파일을 즉시 요청하고 싶어할 때, 사용자는 제1 원격 위치에서 사용자 디바이스(10)를 통해 원하는 콘텐츠 파일에 대한 리퀘스트(request)를 생성한다. 리퀘스트는 사용자가 파일을 받고 싶어하는 서비스 시간을 포함한다. 또한, 리퀘스트는 사용자가 콘텐츠 파일을 직접 또는 간접적으로 검색하고 싶어하는 캐시 서버를 지정한다. 대안으로, 리퀘스트는 다운로딩 시스템(100)에 의한 검색을 위해 특정 캐시 서버에 할당된다. 사용자 디바이스(10)로 리퀘스트를 생성하면, 그 리퀘스트는 캐시 서버(30)에 직접 또는 콘텐츠 서버(20)를 통해 간접적으로 전달된다.
캐시 서버(30)는 도 2의 단계(200)에서 콘텐츠 파일에 대한 리퀘스트를 수신한다. 리퀘스트를 수신하면, 캐시 서버(30)는 리퀘스트와 관련된 서비스 시간을 결정하고, 단계(210)에서 그 리퀘스트를 이전의 리퀘스트를 포함하는 작업 리스트에 추가한다. 작업 리스트는 처리를 위해 캐시 서버(30)가 수신한 콘텐츠 파일에 대한 모든 리퀘스트의 리스트를 포함한다. 캐시 서버(30)는 작업 리스트를 정렬하여, 단계(220)에서 서비스 시간에 따른 연대 순서대로 리퀘스트를 나타낸다. 캐시 서버(30)는 초기화된 스케줄링 포인터를 작업 리스트의 상부에 구비한다. 새로운 리퀘스트가 캐시 서버에 빈번하게 수신되기 때문에, 캐시 서버는 작업 리스트를 동적으로 업데이트하고, 스케줄링 포인터에 의해 식별된 리퀘스트 앞에 새로운 리퀘스트를 삽입 시 뒤쪽으로 움직인 스케줄링 포인터를 이동시킨다. 적절하게 프로그램된 프로세서 및 종래의 하드웨어(도시하지 않음)는 모든 프로세스 단계 및 결정을 실행한다.
작업 리스트가 업데이트 및 정렬될 때마다, 스케줄링 포인터는 작업 리스트의 리퀘스트, 즉 스케줄링된 리퀘스트를 가리킨다. 단계(230)에서, 캐시 서버(30)는 작업 리스트의 스케줄링 포인터에 의해 현재 식별되는 리퀘스트가 캐시 서버(30)의 메모리 내에 이미 저장된 콘텐츠 파일을 요청하는지 여부를 판정한다. 요청한다면, 캐시 서버(30)는 단계(240)로 진행한다. 단계(240)에서, 캐시 서버는 이 콘텐츠 파일을 스케줄링 포인터에 의해 식별된 리퀘스트에 링크하고, 해당 사용자는 핫 스폿 위치에 도착한 후 사용자 디바이스(10)로 캐시 서버를 액세스하여 원하는 콘텐츠 파일을 검색할 수 있다. 단계(240)의 종료 시, 단계(250)에서 스케줄 링 포인터는 작업 리스트의 그 다음 리퀘스트 앞쪽으로 이동한다. 이는 캐서 서버(30)의 메모리 내에 복사된 콘텐츠 파일을 저장하는 것을 방지하여, 캐시 서버의 한정된 메모리 공간을 절약 및 최대화한다.
그러나 단계(230)에서 캐시 서버(30)의 체크 시, 요청된 콘텐츠 파일이 존재하지 않으면, 단계(260)로 진행하고, 스케줄링 포인터에 의해 식별되는 리퀘스트에 지정된 콘텐츠 파일을 다운로드할 여유 공간이 캐시 서버(30)에 존재하는지 여부를 판정한다. 본 명세서에서는, 링크된 콘텐츠 파일을 중첩하지 않으면서, 스케줄링 포인터가 가리키는 리퀘스트와 관련된 콘텐츠 파일을 저장하는 적절한 메모리 공간이 캐시 서버(30)에 있을 때 여유 공간이 존재한다. 이 상황은 캐시 서버 메모리에 빈 공간이 충분할 때 또는 메모리에 저장되는 콘텐츠 파일이 교체될 수 있을 때 발생한다. 메모리에 저장된 콘텐츠 파일은 그 파일에 대한 어떤 리퀘스트에도 링크되지 않을 때 교체될 수 있다. 리퀘스트에 대한 링크는 그 리퀘스트에 대한 해당 사용자가 콘텐츠 파일을 사용자 디바이스(10)에 픽업(즉, 다운로드)할 때 또는 그 리퀘스트가 만료될 때(즉, 예상 서비스 시간 이상으로 시간이 지날 때) 삭제된다.
단계(260)의 실행 시 충분한 공간이 존재하지 않으면, 단계(270)에서 캐시 서버(30)는 여유 공간이 이용가능해질 때까지 현존하는 링크된 작업을 처리한 다음 단계(260)를 재실행한다.
단계(260)에서 충분한 공간이 존재할 때, 단계(280)로 진행하고, 캐시 서버(30)는 콘텐츠 서버(20)에 신호를 송신하여, 스케줄링 포인터에 의해 작업 리스 트에서 식별된 리퀘스트가 요구하는 콘텐츠 파일을 요청한다. 콘텐츠 서버(20)는 그 신호에 응답하여 캐시 서버가 스케줄링 포인터에 의해 식별된 리퀘스트에 의해 요구되는 콘텐츠 파일을 다운로드하는 것을 허용하고, 단계(280)에서 콘텐츠 파일은 저장이 허용된 시간에 캐시 서버(30)에 다운로드된다. 다운로딩의 완료 시, 단계(290)에서 스케줄링 포인터가 가리키는 리퀘스트는 다운로드된 파일에 링크된다. 그 후, 스케줄링 포인터는 단계(300)에서 작업 리스트의 그 다음 리퀘스트 앞쪽으로 이동하고, 단계(220)가 다시 진행한다.
본 발명의 목적 중 하나는 다운로딩 시스템에 대한 지연 페널티(tardiness penalty)로서 간주하는 예상 서비스 시간 후의 연장되는 작업의 수를 최소화하는 것이다. 보통의 컴퓨터 클라이언트는 서버의 소위 조기완료 페널티(earliness penalty)가 없는 용량만큼 빠르게 다운로딩을 요청할 수 있는 반면, CDN에서는 캐시 서버는 그 서버의 용량만큼 빠르게 다운로딩을 요청할 수 없다. 이는 조기완료 페널티를 암시한다. 캐시 서버에 저장하는 것이 조기완료의 페널티이다. 주어진 콘텐츠가 길수록 캐시에는 더 큰 비용 또는 페널티가 요구된다. 전체 캐시 서버 저장은 고정된 저장 용량을 갖는다는 가정은 그 문제점을 간소화시킨다. 그러므로 조기완료 페널티는 조기완료 제약이 된다. 본 발명의 한 목적은 고정된 조기완료 제약으로 지연 페널티의 수를 최소화하는 것이다.
새로운 리퀘스트의 등장을 처리하는 리퀘스트(예컨대, 다운로딩을 위해)는 리퀘스트 처리를 구동시킬 필요가 없음을 알아야 한다. 리퀘스트 등장 및 리퀘스트 처리는 서로 직교하여 존재하는데, 새로운 등장의 삽입은 리퀘스트 등장과 리퀘 스트 처리 사이에 발생하는 접속만으로 구성하는 리퀘스트 리스트에 삽입된다.
설명의 편의상, 도 2에 나타낸 스케줄링 알고리즘은 전술한 목적 및 제약에 기초한 ETSO(Earliest Transmission in Service Order)라고 부른다. ETSO 스케줄링 알고리즘은 캐시 서버 제약에 영향을 받기 쉬운 콘텐츠 파일을 가능한 빨리 전송하여 전송 용량 및 캐시 서버 용량 둘 다를 최대한 이용하려고 한다. ETSO 알고리즘은 실시간뿐만 아니라 오프라인 둘 다에서 작동할 수 있다. 실시간의 경우는 리퀘스트 처리가 진행됨에 따라 새로운 리퀘스트가 등장할 때 발생한다. 오프라인의 경우는, 예상 서비스 시간을 갖는 모든 리퀘스트는 리퀘스트 처리가 시작되기 전에 이용가능하다는 점을 가정한다. 오프라인의 경우, ETSO 알고리즘은 콘텐츠 크기가 일정한 경우에는 최적의 알고리즘으로서 증명된다. 콘텐츠 크기가 변하는 경우, 최적화 목적은 지연된 작업의 수 또는 지연율, 즉 작업 기한을 지키지 못하는 것뿐만 아니라 지연된 작업에 대한 콘텐츠의 전체 크기도 관련된다. 그러한 목적 기능은 예상 서비스 시간 순서가 아닌 전송을 때때로 요구할 수 있는데, 이는, 서버가 그 목적을 충족하기 위하여 더 늦은 예상 서비스 시간을 갖는 더 크거나 더 작은 콘텐츠를 처리할 필요가 있기 때문이다. 이는 예상 서비스 시간에 근접한 작업이 처리될 때 발생한다. 시스템 설계가 낮은 지연율을 제공할 수 있다면, 이는 매우 흔하게 발생하지는 않는다. 그러므로 서비스 순서(ETSO) 알고리즘의 가장 빠른 전송이 더 이상 최적이 아니더라도, 캐시 제약이 갖고 있는 가장 빠른 전송의 원칙은 여전히 유효하고, 가변형 콘텐츠 크기 시스템에 이용할 수 있다.
본 발명에서의 스케줄링 과제는 다음과 같이 정의할 수 있다. 콘텐츠 서버 에는 K개의 상이한 콘텐츠 파일이 존재한다. 모든 콘텐츠 파일은 동일한 크기를 갖고, 동일한 시간 양 p로 캐시 서버에 다운로드되어야 한다. 캐시 서버에는 시간 주기 T 동안 크기 N을 갖는 리퀘스트의 세트 R={ri}가 존재한다. 캐시 크기는 C이다. 각 리퀘스트는 콘텐츠 ki에 대해 ri=(ki,di)이고, 예상 서비스 시간 di를 갖는다. 일반적으로 손실이 없으면, N개 리퀘스트에 대한 예상 서비스 시간의 순서는, i<j이면, di<dj이다. 스케줄링 과제는 시간의 시퀀스 S={si}를 발견하는 것인데, si는 리퀘스트 i가 스케줄링되는 시간이다. 본 발명자들은 "스케줄링되는"을 요청된 콘텐츠가 캐시 서버에 다운로드되는 시간, 즉 전송의 시작 대신 전송의 종료로서 정의할 수 있다. 본 발명자들은 서비스 지연의 최소한의 수, 즉 si>di가 나타나는 수를 산출하는 스케줄 S를 찾고 있다.
적당한 ETSO 스케줄 SETSO는 다음의 단계를 따른다.
1. 리퀘스트 r1는 s1=d1에 스케줄링되고, d1'=d1이라고 하고, di'은 ki가 캐시에 있어야만 할 때까지의 시간이다. 현재 스케줄 시간 t=s1라고 한다.
2. For i=2, to N, (number of request)
A. if content file ki is in cache, let si=t, dj'=t-p, where j is the last request for the content file ki, else
B. wait until t'≥ t, so that GS(t')<C/p, if di≥t'+p, let si=t'+p, di'=di, and t=t'+p, else
C. si=∞ (failure to schedule, tardiness++).
GS(t)=Σip[Θ(t-si+p)-Θ(t-di')]은 현재 시각 t에서 캐시에 유지되어야 하는 콘텐츠의 전체 크기이고, Θ(x)는 단위 계단 함수로서, x>0이면 Θ(x)=1이고, x>0이 아니면 Θ(x)=0이며, Θ(t-si+p)-Θ(t-di')은 리퀘스트의 전송 시작(si-p)부터 리퀘스트의 서비스 시간(di) 또는 그 다음의 동일한 콘텐츠 리퀘스트의 전송 시작(di')까지의 리퀘스트 i의 캐시 필요조건을 의미한다.
제1 단계는 초기화이고, 제2 단계는 모든 리퀘스트를 rN까지 스케줄링하는 루프이다. 루프 단계는 다음과 같이 설명할 수 있다.
단계 2A: 요청된 콘텐츠는 캐시에 있다. 리퀘스트 ri를 현재 시각에서 스케줄링한다. 리퀘스트 ri는, j<i에 대해, di≥dj일 때까지 콘텐츠 ki를 캐시에 저장하도록 요구하기 때문에, 리퀘스트 rj가 si-p 보다 크게 저장되는 콘텐츠 ki(=kj)를 요구할 필요가 없다. d'을 도입하여 캐시 저장을 과도하게 카운트하는 것을 방지하고, 즉 GS(t)에 d'을 이용하면, 동일한 콘텐츠를 중첩하여 캐시하는 주기를 갖지 않는다.
단계 2B: 캐시가 가득 차면, 모든 스케줄링된 리퀘스트를 갖는 적어도 하나의 콘텐츠가 서비스되는 때인 t'까지 대기할 필요가 있다. 여전히 다운로드할 시 간이 있다면, 즉 di≥t'+p이면, si=t'+p에서 리퀘스트 ri를 스케줄링한다. 새롭게 캐시되는 콘텐츠이므로, ki는 di'=di일 때까지 저장되어야 한다. 시간은 t=t'+p로 진행한다.
단계 2C: 다운로드할 시간이 없으면, si=∞라고 한다. 스케줄링이 실패한다.
ETSO 스케줄링 알고리즘은 캐시 제약에 영향을 받는 리퀘스트를 가능한 빨리 전송하려고 한다. 그 알고리즘은 전송 용량 및 캐시 용량 둘 다를 최대한 이용한다. ETSO 알고리즘은 주어진 목적 기능, 즉 지연이 발생하는 수를 최소화하는 것에 대한 최적의 알고리즘이라는 점이 증명될 수 있다. i개 리퀘스트의 경우, 최적의 스케줄은 (1) 최소한의 수의 지연을 갖고 (2) 마지막 스케줄 si에 대한 가장 빠른 스케줄 시간을 갖는 스케줄이다.
본 발명자들은 제1 리퀘스트는 고정된 스케줄 s1=d1을 갖고, 시간은 t=d1-p에서 시작됨을 의미한다고 가정한다. 제2 리퀘스트는 ETSO에 따른 최적으로서 증명될 수 있다. 즉, 가장 빠른 시간은 t+p이다. t+p>d2이면, s2=t+p는 지연이 되므로, 제3 리퀘스트 등을 스케줄링할 필요가 있다. 일반적인 손실이 없으면, 본 발명자들은 d2≥d1+p를 가정한다. S2={s1=d1, s2=d1+p}는 전술한 2개 부류에 의한 최적의 스케줄이다.
귀납적 방법을 사용하여, 본 발명자들은 리퀘스트 ri까지는 ETSO 알고리즘이 스케줄 Si={s1......si}를 갖는 최적이라고 가정한다. 리퀘스트 ri +l에 대한 콘텐츠 ki+1은 현재 시각 t=si에 캐시에 있으면, t'=t=si이다. 이 경우, Si +l*는 동일한 지연 및 동일한 최종 스케줄 시간을 갖는다. 그래서 Si +1={Si, si +1=si}는 최적이다. 리퀘스트 ri +1에 대한 콘텐츠 ki +1이 캐시에 있지 않고, ri +1이 이전의 리퀘스트 후에 스케줄링되면, ETSO 알고리즘에 따르면, Si +1*={Si, si +1=t'+p}는 ri +1에 대해 가장 빠른 스케줄이고, t'≥si는 GSi(t')<C/p를 만족하는 가장 작은 값이다. 캐시 상태 GSi(t)는 t'까지는 영향을 미치지 않는다. ETSO 알고리즘은 si 후 가장 빠른 가능한 si +1을 선택한다. 이 경우, 스케줄 Si +1*={s1,...,si +1}은 최적이어야 한다.
그러나 본 발명자들이 이전의 i개 스케줄 간의 리퀘스트 ri +1을 스케줄링할 수 있을까? 스케줄 Si +1={sa,..., si +1=t1, sb=t2,..., sl=tm}이 존재한다고 가정하면, 모든 가능한 Si +1에 대한 지연의 수는 Si +1* 이상이다.
di +1≥dl≥sl이므로, 유효한 스케줄 Si +1은 캐시 제약 GS(t)를 만족시켜야 한다. 리퀘스트 rb 및 ri +1에 대한 스케줄 S를 교환하는 스케줄 S'i +1={sa,...,sb=t1, si+1=t2,...,sl=tm}을 고려한다. 그러면, 리퀘스트 rb의 경우, 캐시 점유 시간의 차는 [Θ(t-t1+p)-Θ(t-d'b)]-[Θ(t-t2+p)-Θ(t-d'b)]=[Θ(t-t1+p)-Θ(t-t2+p)]이다. 리퀘스트 ri +1의 경우, 캐시 점유 시간의 차는 [Θ(t-t2+p)-Θ(t-di +1)]-[Θ(t-t1+p)-Θ(t-di+1)]=[Θ(t-t2+p)-Θ(t-t1+p)]이다. 그러므로 GS'(t)=GS(t)≤C/p이다.
sb에 대한 캐시 증가는 si +1에 대한 캐시 감소에 의해 삭제된다. 리퀘스트 rb는 더 빠르게 스케줄링되므로, 도입되는 지연은 없다. si +1=t2<sl≤dl≤di +1이기 때문에, 리퀘스트 ri +1에 대한 지연도 없다. 최종 스케줄은 여전히 sl=tm이다. 이는 Si+1'이 Si +1만큼 양호하다는 점을 증명한다. 동일한 방식으로, 본 발명자들은, Si +1에서의 최종 스케줄로 교환할 때까지, 리퀘스트 ri +1을 리퀘스트 rb 후의 그 다음 스케줄링된 리퀘스트로 교환할 수 있다. 이는, 이전 i개 리퀘스트의 최종 스케줄 후의 리퀘스트 ri +1을 스케줄링하는 것은 i개 리퀘스트에 대한 이전 스케줄 간의 스케줄만큼 적어도 양호하다는 점을 증명한다.
리퀘스트 ri +1이 이전의 i개 리퀘스트의 최종 스케줄 후에 스케줄링되면, ETSO 알고리즘은 가장 빠른 가능한 si +1을 제공한다는 점을 이전에 나타냈다.
본 발명자들은 S2는 i=1,2일 때 최적임을 보인다. Si는 처음의 i개 리퀘스트에 대해 최적이라고 가정하면, 본 발명자는 Si +1*={Si, si +1=t'}은 처음의 (i+1)개 리퀘스트에 대해 최적임을 보인다. 이는, ETSO 알고리즘에 기초한 스케줄은 다른 스케줄만큼 적어도 양호하다는 점, 즉 최적의 스케줄임을 증명한다.
본 기술분야의 숙련자가 본 발명을 용이하게 구현 및 사용할 수 있게 본 발 명을 상세하게 설명하지만, 본 발명의 사상 및 범위를 벗어나지 않는 다양한 대안, 변경 및 개선이 용이하게 이루어진다는 점은 명백하다. 구체적으로, 본 발명은 원격지 다운로딩 기능을 이용하는 CDN에 한정하지 않는다. 본 발명은 모든 캐시형 네트워크 환경에 적용가능하다.

Claims (18)

  1. 다운로딩 시스템을 위한 다운로딩 스케줄링 방법으로서,
    콘텐츠 파일에 대한 리퀘스트-상기 리퀘스트는 서비스 시간 및 지정된 캐시 서버를 포함함-를 수신하는 단계,
    상기 리퀘스트를 서비스 시간에 따른 연대순으로 작업 리스트-상기 작업 리스트는 콘텐츠 파일에 대한 리퀘스트에 초기화되는 스케줄링 포인터를 상기 작업 리스트의 상부에 포함함-에 열거하는 단계,
    상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 상기 지정된 캐시 서버에 저장되어 있는지 여부를 판정하는 단계, 및
    상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 상기 지정된 캐시 서버에 저장되어 있지 않다고 판정되면, 상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일을 상기 지정된 캐시 서버에 여유 공간이 존재할 때 상기 지정된 캐시 서버에 다운로드하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 다운로드 단계가 완료되면, 상기 스케줄링 포인터를 상기 작업 리스트의 그 다음 리퀘스트에 이동시키는 단계를 더 포함하는 방법.
  3. 제1항에 있어서,
    상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 상기 지정된 캐시 서버에 저장되어 있다고 판정되면, 상기 스케줄링 포인터가 가리키는 리퀘스트를 상기 저장된 콘텐츠 파일과 링크하고, 상기 스케줄링 포인터를 상기 작업 리스트의 그 다음 리퀘스트에 이동시키는 단계를 더 포함하는 방법.
  4. 제1항에 있어서,
    상기 콘텐츠 파일은 콘텐츠 서버로부터 상기 지정된 캐시 서버에 다운로드되는 방법.
  5. 제1항에 있어서,
    상기 작업 리스트는 상기 지정된 캐시 서버에 저장되고, 상기 지정된 캐시 서버에 의해 실행되는 방법.
  6. 제1항에 있어서,
    상기 작업 리스트는 새로운 리퀘스트의 수신에 따라 동적으로 업데이트되는 방법.
  7. 제1항에 있어서,
    상기 작업 리스트의 다른 모든 리퀘스트보다 더 빠른 서비스 시간을 갖는 새 로운 리퀘스트를 수신하면, 상기 새로운 리퀘스트를 상기 스케줄링 포인터가 가리키는 리퀘스트 앞의 작업 리스트에 삽입하는 단계, 및
    상기 스케줄링 포인터를 상기 새로운 리퀘스트 뒤쪽으로 이동시키는 단계
    를 더 포함하는 방법.
  8. 제1항에 있어서,
    상기 지정된 캐시 서버는 핫 스폿 캐시 서버인 방법.
  9. 제1항에 있어서,
    상기 리퀘스트는 사용자 디바이스에 의해 생성되는 방법.
  10. 제1항에 있어서,
    상기 리퀘스트는 콘텐츠 서버에 의해 수신되고, 상기 지정된 캐시 서버에 전달되는 방법.
  11. 시스템으로서,
    작업 리스트를 구비한 캐시 서버,
    서비스 시간에 상기 캐시 서버에서 콘텐츠 파일을 이용할 수 있도록 사용자 리퀘스트를 처리하는 수단,
    상기 리퀘스트를 작업 리스트에 추가하고, 상기 작업 리스트-상기 작업 리스 트는 콘텐츠 파일에 대한 리퀘스트에 초기화되는 스케줄링 포인터를 상기 작업 리스트의 상부에 포함함-를 서비스 시간에 따른 연대순으로 정렬하는 수단,
    상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 상기 캐시 서버에 저장되어 있는지 여부를 판정하는 수단,
    상기 캐시 서버에 여유 공간이 존재할 때, 그리고 상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 상기 캐시 서버에 저장되어 있지 않을 때, 콘텐츠 소스에 리퀘스트를 송신하여 상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일을 상기 캐시 서버에 다운로드하는 수단, 및
    상기 캐시 서버로부터의 다운로딩 리퀘스트를 허용하는 수단
    을 포함하는 시스템.
  12. 제11항에 있어서,
    상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 다운로드될 때 상기 스케줄링 포인터를 상기 작업 리스트의 앞쪽으로 이동시키는 수단을 더 포함하는 시스템.
  13. 제12항에 있어서,
    상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 상기 캐시 서버에 저장되어 있을 때 상기 스케줄링 포인터를 상기 작업 리스트의 앞쪽으로 이동시키는 수단을 더 포함하는 시스템.
  14. 제11항에 있어서,
    상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일이 상기 캐시 서버에 저장되어 있다고 판정되면, 상기 스케줄링 포인터가 가리키는 리퀘스트에 의해 요구되는 콘텐츠 파일을 상기 스케줄링 포인터가 가리키는 리퀘스트와 링크시키는 수단을 더 포함하는 시스템.
  15. 제11항에 있어서,
    상기 캐시 서버에 다운로드되는 콘텐츠 파일의 콘텐츠 소스를 더 포함하는 시스템.
  16. 제11항에 있어서,
    새로운 리퀘스트가 수신되면, 상기 작업 리스트를 동적으로 업데이트하는 수단을 더 포함하고, 상기 작업 리스트의 다른 모든 리퀘스트보다 빠른 서비스 시간을 갖는 새로운 리퀘스트가 수신될 때, 상기 새로운 리퀘스트는 상기 스케줄링 포인터가 가리키는 리퀘스트 앞에 삽입되고, 상기 스케줄링 포인터는 상기 새로운 리퀘스트 뒤쪽으로 이동하는 시스템.
  17. 제11항에 있어서,
    상기 캐시 서버는 핫 스폿 캐시 서버인 시스템.
  18. 제11항에 있어서,
    상기 콘텐츠 소스는 콘텐츠 서버이거나, 상기 콘텐츠 파일이 저장되는 또 다른 캐시 서버인 시스템.
KR1020067018690A 2006-09-12 2004-03-12 캐시형 네트워크 환경에서의 다운로딩 스케줄링 시스템 및방법 KR20060126819A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020067018690A KR20060126819A (ko) 2006-09-12 2004-03-12 캐시형 네트워크 환경에서의 다운로딩 스케줄링 시스템 및방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020067018690A KR20060126819A (ko) 2006-09-12 2004-03-12 캐시형 네트워크 환경에서의 다운로딩 스케줄링 시스템 및방법

Publications (1)

Publication Number Publication Date
KR20060126819A true KR20060126819A (ko) 2006-12-08

Family

ID=37730345

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067018690A KR20060126819A (ko) 2006-09-12 2004-03-12 캐시형 네트워크 환경에서의 다운로딩 스케줄링 시스템 및방법

Country Status (1)

Country Link
KR (1) KR20060126819A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101282992B1 (ko) * 2011-11-22 2013-07-04 건국대학교 산학협력단 클라우드 컴퓨팅 환경에서의 개인화된 콘텐츠 복제 시스템 및 그 방법
KR20150070016A (ko) * 2013-12-13 2015-06-24 (주)토탈소프트뱅크 컨테이너 터미널 내 장비들의 스케줄 조정 시스템 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101282992B1 (ko) * 2011-11-22 2013-07-04 건국대학교 산학협력단 클라우드 컴퓨팅 환경에서의 개인화된 콘텐츠 복제 시스템 및 그 방법
KR20150070016A (ko) * 2013-12-13 2015-06-24 (주)토탈소프트뱅크 컨테이너 터미널 내 장비들의 스케줄 조정 시스템 및 방법

Similar Documents

Publication Publication Date Title
US20080235360A1 (en) System and Method for Scheduling Downloading in a Cached Network Environment
US20070208737A1 (en) Cache Server Network And Method Of Scheduling The Distribution Of Content Files Within The Same
US7814483B2 (en) Cache server at hotspots for downloading services
US6854018B1 (en) System and method for intelligent web content fetch and delivery of any whole and partial undelivered objects in ascending order of object size
US6708213B1 (en) Method for streaming multimedia information over public networks
US6377972B1 (en) High quality streaming multimedia
US6757796B1 (en) Method and system for caching streaming live broadcasts transmitted over a network
US9015335B1 (en) Server side stream switching
US6324182B1 (en) Pull based, intelligent caching system and method
US7899886B2 (en) Apparatus and methods for information transfer using a cached server
JP2004535631A (ja) 通信ネットワークからユーザへ情報を送る時間を減らすシステムと方法
US20050027788A1 (en) Method and system for dynamic interleaving
CN102056333A (zh) Wap网关及其业务处理方法和wap代理服务器
CN105227535A (zh) Cdn缩小
JP2005513615A (ja) ネットワークで情報を遅延転送するための装置と方法
EP1735992A1 (en) Satellite anticipatory bandwidth acceleration
CN106453461A (zh) 资源缓存方法及装置
KR20060126819A (ko) 캐시형 네트워크 환경에서의 다운로딩 스케줄링 시스템 및방법
US8606876B2 (en) Method and system for accelerating data communication that is using multipart
KR20070003920A (ko) 캐시 서버 네트워크 및 콘텐츠 파일의 분배를 스케쥴링하는방법
KR20070076831A (ko) 다중 망에서의 컨텐츠 전달 방법 및 시스템
Park et al. MTCP: A transmission control protocol for multi-provider environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application