KR20130093506A - 캐쉬 메모리 관리의 최적화 방법 및 대응하는 장치 - Google Patents

캐쉬 메모리 관리의 최적화 방법 및 대응하는 장치 Download PDF

Info

Publication number
KR20130093506A
KR20130093506A KR1020127030138A KR20127030138A KR20130093506A KR 20130093506 A KR20130093506 A KR 20130093506A KR 1020127030138 A KR1020127030138 A KR 1020127030138A KR 20127030138 A KR20127030138 A KR 20127030138A KR 20130093506 A KR20130093506 A KR 20130093506A
Authority
KR
South Korea
Prior art keywords
cache memory
data
fullness level
stage
list
Prior art date
Application number
KR1020127030138A
Other languages
English (en)
Other versions
KR101859239B1 (ko
Inventor
띠리 께르
르노 리갈
플로렁 프레나예
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20130093506A publication Critical patent/KR20130093506A/ko
Application granted granted Critical
Publication of KR101859239B1 publication Critical patent/KR101859239B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0813Multiuser, multiprocessor or multiprocessing cache systems with a network or matrix configuration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0888Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using selective caching, e.g. bypass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Circuits Of Receivers In General (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

캐쉬 메모리 관리를 최적화하기 위하여, 본 발명은 데이터 근원 및 아마도 데이터 타입에 따라 상이한 캐쉬 메모리 관리 정책의 적용과, 캐쉬로의 데이터의 추가에 대한 증가하는 레벨의 배제를 이용을 포함하는 방법 및 대응하는 장치를 제안하며, 여기서, 배제 레벨은, 캐쉬 메모리 충만 레벨이 증가함에 따라 캐쉬로의 데이터의 추가에 관하여 점증적으로 제약적이다. 이 방법과 장치는, 무엇보다도, 중요한 정보를 캐쉬 메모리 내에 유지하고, 캐쉬 메모리 내로의 또는 캐쉬 메모리 밖으로의 정보 교환에 있어서 시간을 줄이는 것을 허용한다.

Description

캐쉬 메모리 관리의 최적화 방법 및 대응하는 장치{METHOD OF OPTIMIZATION OF CACHE MEMORY MANAGEMENT AND CORRESPONDING APPARATUS}
본 발명은 대체로 통신 네트워크로부터 수신된 디지털 데이터로의 액세스에 관한 것으로, 더 구체적으로는, 그러한 데이터로의 액세스를 최적화하기 위한 방법 및 장치에 관한 것이다.
시청각 서비스의 렌더링을 위한 인터넷 프로토콜 셋탑 박스(예를 들어, IPTV-STB)와 같은 디지털 데이터 서비스에 액세스하기 위한 전용 장치는 제조 비용을 낮추고 경쟁력있는 시장 가격을 보장하기 위하여 최소한의 하드웨어 자원을 가진다. 특히, 처리 및 메모리 자원은 엄격히 필요한 정도로 조정된다. 그러나 지속 향상되는 서비스 공여 및 개선된 그래픽 서비스 공여 프리젠테이션과 더불어, 서비스 공여에 액세스하는 진입점이 되는 서비스 포탈은 더욱 더 복잡해져 가고 있으며, 전용 장치의 제한된 자원에 관하여 더욱 더 요구하고 있다. 서비스 포탈은 통상, 텍스트 뿐만 아니라 실행되어야 하는 방대한 화상과 스크립트를 포함하는 메뉴 및 페이지의 계층구조를 포함한다. 이들 정보 모두는, 렌더링되기 이전에 네트워크 내의 원격 서버로부터 다운로드되어야 하며, 이것은 장치의 반응 시간을 느리게 한다. 사용자를 위한 장치의 충분한 반응성을 보장하기 위해서는, 중요한 처리 및 메모리 자원이 요구되며, 이것은 장치의 제조 비용을 낮게 유지해야 하는 요건과 상충된다. 종래 기술 해결책에 따르면, 메뉴 및 페이지의 렌더링을 가속하기 위해 로컬 캐쉬 메모리(local cache memory)가 이용되어, 필요한 정보로서 이미 한 번 다운로드된 정보는 필요시에 매번 다운로드되는 것 대신에 로컬 캐쉬 메모리로부터 가져오게 된다. 그러나, 서비스 공여가 지속적으로 향상되고, 그 결과, 사용자가 서비스 공여 액세스 포탈의 페이지들 사이를 네비게이트할 때 캐쉬 메모리가 매우 빨리 충만(filling)된다. 종래 기술의 캐쉬 관리에 따라 관리되는 완전 충만된 캐쉬의 작동은, 바람직하지 못한 지연을 도입하기 때문에 문제가 많다; 새로운 데이터가 충만된 캐쉬에 추가될 때마다, 장치의 반응성을 너무 많이 불리하게 하지 않으면서 캐쉬로부터 제거되어야 하는 소위 '최상의 후보'가 발견되어야 한다. 종래 기술의 해결책은, 캐쉬에 저장된 데이터의 마지막 이용의 타임 스탬핑에 관련된 상이한 캐쉬 관리 정책들을 적용하고 비교적 '오래된' 정보를 캐쉬로부터 제거함으로써, '최상의 후보'에 대한 이러한 탐색을 최적화하려고 시도하고 있다. 그러나 캐쉬 관리도 역시 지연을 도입한다. 일부 상황에서는, 캐쉬 관리에 필요한 지연이, 요구되는 데이터를 네트워크로부터 직접 다운로드함으로써 야기되는 지연보다 크며; 이것은 미리 평가하기 어려운 상황이다. 또한, 특정한 캐쉬 관리 정책에 따라 선택된 '최상의 후보'가 항상 최상의 선택인 것은 아니다; 예를 들어, 메인 서비스 공여 액세스 포탈에 관련된 데이터가 캐쉬에서 '가장 오래된' 데이터이더라도, 사용자가 서비스 공여자에 액세스하기 위한 진입점으로서 기능하는 메인 서비스 공여 액세스 포탈 애플리케이션의 페이지와 자원을 캐쉬 메모리로부터 제거하는 것은 바람직하지 않다.
따라서, 충만된 캐쉬 메모리의 관리에 의해 도입되는 지연이 회피되고 캐쉬 메모리로부터 중요한 정보의 제거가 회피되는 최적화된 캐쉬 메모리 관리 방법에 대한 필요성이 존재한다.
본 발명은 종래 기술의 불편함 중 일부를 완화하는 것을 목표로 한다.
본 발명은, 무엇보다도 종래 기술의 캐쉬 메모리 관리의 전술된 단점들을 피하는 캐쉬 메모리 관리에 대한 해결책을 제안한다.  본 발명은 데이터 근원(data origin)에 따라 상이한 캐쉬 메모리 관리 정책들의 적용을 포함한다.
캐쉬 메모리 관리를 최적화하기 위하여, 본 발명은, 아마도 시청각 서비스의 수신용으로서 아마도 네트워크에 접속된 사용자 수신기 장치에 구현된 캐쉬 메모리 관리의 최적화 방법을 제안하며, 이 방법은 캐쉬 메모리 충만 레벨이 증가함에 따라 상기 캐쉬 메모리로의 데이터의 추가의 스테이지별 배제를 포함하며, 상기 추가의 배제는, 각각의 연속된 스테이지의 캐쉬 메모리 충만 레벨에 대해, 데이터의 근원과 타입의 함수로서 점증적으로 제약적인 상기 캐쉬 메모리로의 데이터의 추가의 배제 규칙에 따라 결정된다.
본 발명의 변형 실시예에 따르면, 이 방법은, 캐쉬 메모리 충만 레벨이, 최대 스테이지의 캐쉬 메모리 충만 레벨보다 낮은 제1 스테이지의 캐쉬 메모리 충만 레벨보다 높다면, 캐쉬 메모리로의 데이터의 추가를 배제하는 단계를 더 포함한다.
본 발명의 변형 실시예에 따르면, 이 방법은, 선호 서비스 공여 제공자 목록을 상기 수신기 장치에 유지하는 단계; 상기 추가할 데이터의 발생 근원지인 서비스 제공자가 상기 목록 내에 있는지를 판정하는 단계; 및 서비스 공여 제공자가 목록 내에 있지 않고 캐쉬 메모리 충만 레벨이 제1 스테이지의 캐쉬 메모리 충만 레벨보다 낮은 제2 스테이지의 캐쉬 메모리 충만 레벨 아래에 있다고 판정되고, 데이터의 타입이 선호 데이터 타입 목록 ―이 선호 데이터 타입 목록은 상기 수신기 장치에 존재함― 내에 있다고 판정되면, 데이터를 캐쉬 메모리에 추가하는 단계를 더 포함한다.
본 발명의 변형 실시예에 따르면, 이 방법은, 캐쉬 메모리 충만 레벨이 제2 스테이지의 캐쉬 메모리 충만 레벨보다 낮은 제3 스테이지의 캐쉬 메모리 충만 레벨 아래에 있으면, 데이터를 캐쉬 메모리에 추가하는 단계를 더 포함한다.
본 발명의 변형 실시예에 따르면, 선호 데이터 타입 목록은 화상 타입(image type)을 포함한다.
본 발명의 변형 실시예에 따르면, 선호 데이터 타입 목록은 실행가능한 스크립트 타입(script type)을 포함한다.
본 발명의 변형 실시예에 따르면, 데이터의 발생 근원지인 서비스 공여 제공자가 선호 서비스 공여 제공자 목록 내에 있는지에 대한 판정은, 요청 내에 존재하는 URL(Unified Resource Locator)과, 선호 서비스 공여 제공자 목록 내의 선호 서비스 공여 제공자의 URL과의 비교에 기초한다.
본 발명의 변형 실시예에 따르면, 데이터의 발생 근원지인 서비스 공여 제공자가 선호 서비스 공여 제공자 목록 내에 있는지에 대한 판정은, 데이터의 근원을 가리키는 요청 내에 존재하는 인터넷 프로토콜 주소와, 선호 서비스 공여 제공자 목록 내의 선호 서비스 공여 제공자의 인터넷 프로토콜 주소와의 비교에 기초한다.
본 발명은 또한 캐쉬 메모리의 관리를 위한 장치에 관한 것으로, 이 장치는 캐쉬 메모리 충만 레벨이 증가함에 따라 캐쉬 메모리로의 데이터의 추가의 스테이지별 배제를 위한 제어기(111, 120)를 포함하고, 추가의 배제는, 제어기(111, 120)에 의해, 각각의 연속된 스테이지의 캐쉬 메모리 충만 레벨에 대해, 데이터의 근원과 타입의 함수로서 점증적으로 제약적인 상기 캐쉬 메모리로의 데이터의 추가의 배제 규칙에 따라 결정된다.
이 장치의 변형 실시예에 따르면, 제어기는 또한, 캐쉬 메모리 충만 레벨이, 최대 스테이지의 캐쉬 메모리 충만 레벨보다 낮은 제1 스테이지의 캐쉬 메모리 충만 레벨보다 높다면, 캐쉬 메모리로의 데이터의 추가의 배제를 결정한다.
이 장치의 변형 실시예에 따르면, 제어기는, 선호 서비스 공여 제공자 목록을 유지하는 수단, 추가할 데이터의 발생 근원지인 서비스 제공자가 목록에 있는지를 판정하기 위한 수단, 및 추가할 데이터의 발생 근원지인 서비스 공여 제공자가 목록 내에 있지 않으며 캐쉬 메모리 충만 레벨이 제1 스테이지의 캐쉬 메모리 충만 레벨보다 낮은 제2 스테이지의 캐쉬 메모리 충만 레벨 아래에 있는지를 판정하기 위한 수단을 더 포함하고, 제어기에 의해 데이터의 타입이 선호 데이터 타입 목록 ― 이 선호 데이터 타입 목록은 상기 수신기 장치에 존재함 ― 내에 있다고 판정되면, 긍정일 경우, 제어기는 그 데이터를 캐쉬 메모리에 추가한다.
이 장치의 변형 실시예에 따르면, 제어기는, 캐쉬 메모리 충만 레벨이 제2 스테이지의 캐쉬 메모리 충만 레벨보다 낮은 제3 스테이지의 캐쉬 메모리 충만 레벨 아래에 있는지를 판정하는 수단을 더 포함하고, 긍정일 경우, 제어기는 데이터를 캐쉬 메모리에 추가한다.
본 발명의 더 많은 이점들은 본 발명의 특정의 비제한적인 실시예의 설명을 통해 드러날 것이다.
이하의 도면들을 참조하여 실시예를 설명한다.
도 1은 네트워크-접속된 장치로 예시되어 있는 본 발명의 특정 실시예를 도시한다.
도 2는 도 1의 사용자 수신기 장치와는 상이한 아키텍쳐를 갖는 사용자 수신기 장치에서의 본 발명의 변형 실시예를 도시한다.
도 3은 본 발명의 다양한 변형 실시예에 따라 다양한 파라미터의 함수로서 캐쉬 메모리로의 데이터 추가의 점진적 배제를 도시적으로 나타낸다.
도 4는, 예를 들어 도 1의 사용자 수신기 장치에 의해 또는 도 2의 사용자 수신기 장치에 의해 구현된, 본 발명의 방법의 특정 실시예를 구현하는 알고리즘을 도시한다.
도 1은, 라이브(1004) 및 주문형(VoD, 1005) 시청각 서비스를 포함한 단일의 시청각 서비스 공여를 사용자 수신기 장치(12)에 제공하는 네트워크(11)에 접속(1010)을 통해 접속되어 있는 시청각 사용자 수신기 장치(12)에서의 본 발명의 특정 실시예를 도시한다.
전송기측(10)은 라이브 오디오 및/또는 비디오 인코더(100), VoD 서버(101), 및 서비스 공여 프리젠테이션 애플리케이션 서버(102), 예를 들어, 서비스 공여로의 액세스를 부여하는 웹 페이지를 보여주는 HTML(Hypertext Markup Language)-기반의 웹 애플리케이션을 제공하는 웹 애플리케이션 서버를 포함한다. 이들은 내부 네트워크(104)에 접속되며, 라이브 A/V 인코더(100)는 접속(1001)을 통해 접속되고, VoD 서버(101)는 접속(1002)을 통해 접속되고, 서비스 공여 프리젠테이션 애플리케이션 서버(102)는 접속(1003)을 통해 접속된다. 라이브 A/V 인코더(100)는 접속(1000)을 통해 외부 장치(미도시)로부터 그 입력 스트림을 수신한다. 이것은 수신기(12)에 의해 수신되어 디코드될 수 있는 인코딩 및 트랜스포트 포멧(예를 들어, MPEG2TS for Motion Picture Expert Group 2, Transport Stream)의 수신된 라이브 전송을 인코딩한다. 이들 라이브 전송은 접속(1004)을 통해 네트워크(11)를 거쳐 A/V 디코더(100)에 의해 제공된다. VoD 서버(101)는 접속(1005)을 통해 네트워크(1005)를 거쳐 수신기(12)에 주문형 비디오 서비스를 제공한다. 서비스 공여 프리젠테이션 애플리케이션 서버(102)는 네트워크(11)로의 접속(1006)을 통해 수신기(12)에 사용자 인터페이스(UI) 애플리케이션(이하 '데이터'라 함)을 제공하며, 이것은 서비스 공여를 열거하고 시청각 렌더링을 위한 특정의 라이브 또는 VoD 서비스를 선택할 가능성을 수신기(12)에게 부여한다.
수신기측(12)에서, 수신기(12)는 사용자가 수신기와 상호작용하는 것을 허용하는 입력 장치(미도시)를 포함한다. 이것은 접속(1010)을 통해 네트워크(11)에 접속된 네트워크 인터페이스(110)를 더 포함한다. A/V 디코더(116)는, 접속(1020)을 통해 네트워크 인터페이스(110)로부터 수신된 시청각 서비스를 수신기(12)가 디코드하는 것을 허용한다. A/V 디코더(116)의 출력은 접속(1016)을 통해 디스플레이 메모리(114)에 접속되고, 디스플레이 메모리(114)는, 차례로, 접속(1018)을 통해 그래픽 렌더러(115)에 접속되며, 그래픽 렌더러(115)는 그 콘텐츠를 접속(1019)을 통해 시청각 렌더링 장치(미도시)에 출력한다. 수신기(12)는 캐쉬 메모리 제어기(111), 캐쉬 메모리(112), 및 스위치(113)를 더 포함한다.
캐쉬 메모리 제어기는, 네트워크 인터페이스(110)로의 접속(1011)을 통해 네트워크(11)로부터 직접 수신되거나, 데이터가 이미 수신되어 캐쉬 메모리에 저장된 경우 캐쉬 메모리(112)로부터의 데이터를 접속(1017)을 통해 디스플레이 메모리(114)에 제공하기 위하여 접속(1015)을 통해 스위치(113)를 작동한다. 이 목적을 위해, 캐쉬 메모리 제어기는 접속(1012)을 통해 네트워크 인터페이스(110)에 접속되고, 접속(1021)을 통해 캐쉬 메모리에 접속된다. 캐쉬 메모리 제어기(111)는 접속(1023) 상에서 데이터 요청을 수신한다. 캐쉬 메모리 제어기(111)는 접속(1022)을 통해 네트워크 인터페이스(110)에도 접속되고, 이것은 캐쉬 메모리 제어기가 접속 명령을 네트워크 인터페이스(110)에 전송하여 캐쉬 메모리(112)에서 이용가능하지 않은 데이터를 다운로드하는 것을 허용한다. 캐쉬 메모리(112)는 접속(1013)을 통해 네트워크 인터페이스(110)에 접속되고, 접속(1014)을 통해 스위치(113)에 접속된다.
가독성의 이유 때문에, 수신기(12)의 기능에 필요할 수도 있는 일부 컴포넌트들이 자발적으로 도시되지 않는다. 이러한 것들로는, 예를 들어, 선호 서비스 공여 제공자 목록을 저장하는 메모리, 예를 들어, 장치를 켜거나 끄고, 채널을 변경하며, 오디오 볼륨을 변경하는 등등의, 장치의 동작을 제어하기 위한 장치 제어기가 포함된다. 도시되지 않은 특정의 컴포넌트들은, 접속(1023)을 통해 캐쉬 제어기(111)에 의해 수신되는 데이터 요청을 제공한다.
도 1은 단 하나의 서비스 제공자와 단 하나의 수신기 장치만으로 예시되어 있다. 물론, 본 발명은 하나보다 많은 서비스 제공자 및/또는 하나보다 많은 수신기 장치가 이용되는 환경에도 적용가능하다.
본 발명의 변형 실시예에 따르면, 캐쉬에 저장되는 데이터는, 네트워크(11) 및 서비스 공여 프리젠테이션 애플리케이션 서버로부터 수신기 장치(12)에 의해 다운로드되는 서비스 공여 프리젠테이션 애플리케이션의 일부이다. 예를 들어, 본 발명이 인터넷 프로토콜 기반의 환경에서 이용된다면, 캐쉬 메모리에 저장되는 데이터는, 수신기 장치(12)의 사용자에게 시청각 서비스의 공여로의 액세스를 부여하는 서비스 공여 액세스 포탈의 일부가 되는 웹 애플리케이션 페이지의 일부이다.
본 발명의 변형 실시예에 따르면, 하나보다 많은 서비스 제공자가 본 발명에 따른 수신기 장치에 시청각 서비스의 공여를 제공한다. 이들 서비스 제공자들 중 하나는, 그 서비스 제공자가 특권 서비스 공여 제공자 목록 내에 있다는 판정 후에 특권 시청각 서비스 공여 제공자인 것으로 간주될 수도 있다. 그러면, 본 발명은, 데이터의 발생 근원지인 시청각 서비스 공여 제공자에 따라 상이한 캐슁 정책(caching policy), 즉, 캐쉬로의 데이터의 추가에 대한 상이한 배제 규칙을 적용한다. 변형 실시예에 따르면, 특권 시청각 서비스 공여 제공자의 판정은 데이터를 검색하는데 이용되는 주소, 예를 들어, IP 주소에 기초한다. 변형 실시예에 다르면, 시청각 서비스 공여 제공자가 특권 시청각 서비스 공여 제공자 목록 내에 있는지의 판정은, URL(Uniform Resource Locator)과 같은 데이터를 검색하는데 이용되는 자원 로케이터(resource locator)의 비교에 기초한다. 예로서, URL은 특권 시청각 서비스 공여 제공자의 이름, 또는 특권 시청각 서비스 공여 제공자를 식별하는 기타 임의의 식별자를 포함한다. 본 발명의 또 다른 변형 실시예에 따르면, 추가할 데이터와 추가하지 않을 데이터간의 구분은, 데이터가 관련되어 있는 서비스의 타입, 예를 들어, 라이브 또는 주문형 비디오 타입 서비스에 기초한다. 예로서, 라이브 서비스를 제공하는 서비스 공여 제공자에 관련된 데이터를 선호 제공자로부터 발생하는 데이터로서 간주하는 것은, 사용자가 특히 이러한 타입의 서비스를 수신하기 위해 그의 수신기를 이용할 때, 유익할 수 있다. 반면, 오히려 주문형 비디오 서비스를 제공하는 서비스 공여 제공자에 관련된 데이터를 선호 제공자로부터 발생하는 데이터로서 간주하는 것은, 사용자가 특히 주문형 비디오 서비스를 수신하기 위해 그의 수신기를 이용할 때, 유익할 수 있다. 본 발명의 특정 실시예에 따르면, 이전의 변형들이 결합되고, 이것은, 소정의 이용 상황, 예를 들어, 사용자가 주로 제1 시청각 서비스 공여 제공자로부터 라이브 서비스를 수신하고, 제2 시청각 서비스 공여 제공자로부터 주문형 비디오 서비스를 수신하기 위해 그의 수신기를 이용할 때, 유익하다. 본 발명의 변형 실시예에 따르면, 수신기가 이용되고 있는 방식에 맞추어 선호 제공자와 비선호 제공자간의 구분을 조정하는 것이 가능하다. 변형 실시예에 따르면, 수신기에 의해 비선호 제공자로부터 발생하는 것으로 간주되는 데이터와 선호 제공자로부터 발생하는 것으로 간주되는 데이터 간의 이러한 구분은, 제조자에 의해 또는 서비스 공여 가입을 포함한 패키지의 일부로서 그 수신기를 판매 또는 임차한 시청각 서비스 공여 제공자에 의해 수신기 내에서 고정된다. 이것은, 시청각 서비스 공여 제공자가 수신기의 캐쉬 메모리 관리가 그의 선호 시청각 서비스 공여 제공자로부터 발생하는 데이터를 저장하는데 최적화되는 것을 보장하는데 있어서 이점을 가지므로, 결과적으로 가입자가 그의 선호 시청각 서비스 공여 제공자의 액세스 포탈을 네비게이트할 때 수신기의 반응성이 높아진다. 본 발명의 변형 실시예에 따르면, 선호 시청각 데이터 공여 제공자로부터 발생한다고 간주되는 것인지 또는 비선호 시청각 데이터 공여 제공자로부터 발생한다고 간주되는 것인지 간의 이러한 구분은, 수신기의 이용의 자체-분석에 기초하여, 수신기 자체에 의해 결정된다.
본 발명의 변형 실시예에 따르면, 본 발명은 캐쉬로의 데이터의 추가를 스테이지별로 배제하는 단계, 예를 들어, 한 스테이지의 캐쉬 충만 상태에서, 비선호 시청각 서비스 공여 제공자로부터 발생하는 적어도 하나의 데이터 타입의 데이터는 캐쉬 메모리에 추가되는 것이 배제되는 단계(도 3, 구역 311 참조)를 포함한다. 이러한 특징은 무엇보다도, 방대한 데이터에 의한 캐쉬 메모리의 매우 빠른 충만을 피할 수 있게 한다. 통상적으로, 이러한 상황은, 사용자가, JavaScript와 같은 방대한 실행가능한 스크립트를 동반할 수도 있는 많은 방대한 화상, 영화 트레일러 및 홍보물을 통상 포함하는 VoD 서비스 공여 프리젠테이션 애플리케이션에서 네비게이팅하고 있을 때 발생한다. 따라서 이 특징은, 어떤 캐쉬 메모리 충만 레벨 임계치 또는 스테이지를 초과할 때 이러한 데이터 타입들 중 하나 이상이 캐쉬 메모리에 저장되는 것을 배제하는 것을 허용하므로, 캐쉬 메모리의 공간이 더 '유용한' 데이터를 저장하도록 유지한다.
본 발명을 구현하는 장치는 도 1의 유선 네트워크(11)와 같은 유선 네트워크나 무선 네트워크(미도시)에 차별없이 접속될 수 있다. 유선 네트워크 또는 무선 네트워크는, 예를 들어, Ethernet, WiFi, WiMAX, 또는 IEEE 1394 FireWire에 기초한, 차별없이 임의의 타입일 수 있다.
특정 변형예에 따르면, 캐쉬 메모리 충만 레벨이 본 발명에 따라 정의된 임계치들이나 스테이지들 중 하나를 초과한다는 판정시에 저장될 데이터의 양을 고려한다.
도 2는 본 발명의 실시예를 포함하는 수신기 장치(13)의 대안적 실시예를 도시한다.
사용자 수신기 장치(13)는, 중앙 처리 유닛(CPU)(220), 클록(230), 네트워크 인터페이스(240), 그래픽 인터페이스(250), 사용자 인터페이스(260), 판독-전용 메모리(ROM)(200), 및 랜덤 액세스 메모리(RAM)(210)를 포함한다. 이들 컴포넌트들 모두는 데이터 및 통신 버스(270)를 통해 상호접속된다. CPU(220)는 메모리 구역(201) 내의 ROM(200)에 저장된 프로그램에 따라 장치(13)를 제어한다. 클록 장치(230)는 수신기(13)의 컴포넌트들의 동작을 순서화하고 동기화하기 위해 수신기(13)의 컴포넌트들에게 공통의 타이밍을 제공한다. 네트워크 인터페이스(240)는 접속(1010)을 통해 외부 장치와 데이터를 주고 받는다. 그래픽 인터페이스(250)는 접속(1019)을 통해 외부 렌더링 장치에 접속된다. 사용자 인터페이스(2010)는 접속(2010)을 통해 사용자로부터의 입력 명령을 수신한다. 메모리 구역(201)은 또한, 본 발명의 방법을 구현하는 명령어들을 포함한다. 장치(13)의 전원투입 시, CPU(220)는 ROM 메모리 구역(201)로부터 RAM 메모리(210)의 메모리 구역(211)으로 프로그램 'Prog'를 복사하고, 복사된 프로그램을 실행한다. 복사된 프로그램의 실행 시에, 프로그램은 그 실행에 필요한 변수들에 대한 메모리 공간을 메모리 구역(214)에 할당하고 캐쉬 메모리로서 이용될 메모리 구역(212)을 예약한다. 이제 장치(13)가 개시되고 시청각 서비스 애플리케이션 데이터 요청의 수신 시에, 본 발명의 방법이 작동된다. ROM 메모리(200)의 메모리 구역(202)은, 장치(13)의 사용자에게 시청각 서비스 공여에 액세스하기 위한 마지막으로 방문된 액세스 포탈로의 액세스를 제공하는, 서비스 포탈의 주소를 포함한다. 메모리 구역(203)은 선호 서비스 공여 제공자 목록을 포함한다.
대안으로서, 장치(13)는 '표준' 메모리(210)보다 더 빠른 액세스를 제공하는 캐쉬 메모리를 위한 특정의 메모리 구역을 포함한다.
대안으로서, 장치(13)의 CPU(220)는, 컴포넌트들(230, 240, 250, 260, 200 및 210) 사이에서 공유되는 데이터 및 통신 버스(270)를 이용하지 않고 CPU에 의해 직접 액세스될 수 있는 특정 메모리라는 이점을 갖는 캐쉬 메모리를 위한 특정의 메모리 구역을 포함함으로써, 유익하게도 빠른 액세스를 제공한다.
도 3은, 본 발명의 다양한 특정 실시예에 따라, 선호 제공자, 데이터의 타입 및 캐쉬 메모리 충만 레벨과 같은 다양한 파라미터들의 함수로서 캐쉬 메모리로의 데이터의 추가의 점진적 또는 스테이지별 배제를 도시적으로 나타내며, 각각의 연속적 스테이지는 캐쉬 메모리 충만 레벨의 임계치를 나타내며, 그 임계치 위에서는 캐쉬 충만 레벨이 증가함에 따라 캐쉬 메모리로의 데이터의 추가가 더욱 제한적이다.
라인(305)은 최대 캐쉬 메모리 충만 레벨 임계치 또는 스테이지를 나타낸다. 라인(300)은 캐쉬 메모리 내의 제로 데이터를 나타낸다. 304, 303, 및 302는 각각 캐쉬 메모리 충만 레벨의 제1, 제2, 및 제3 캐쉬 메모리 충만 레벨 임계치 또는 스테이지를 나타낸다. 본 발명의 변형 실시예에 따르면, 캐쉬 메모리 충만 레벨이 제로와 제3 임계치(302) 사이인 경우, 캐쉬 메모리로의 데이터의 추가의 배제는 없다(310). 본 발명의 변형 실시예에 따르면, 캐쉬 메모리 충만 레벨이 제3 충만 레벨(302)과 제2 충만 레벨(303) 사이인 경우, 비선호 제공자로부터의 소정 타입의 데이터의 추가가 배제된다. 본 발명의 변형 실시예에 따르면, 캐쉬 메모리 충만 레벨이 제2 충만 레벨(303)과 제1 충만 레벨(304) 사이인 경우, 비선호 제공자로부터의 데이터의 추가가 배제된다. 본 발명의 변형 실시예에 따르면, 캐쉬 메모리 충만 레벨이 제1 충만 레벨(304) 위에 도달하면, 모든 데이터 추가가 배제됨으로써, 캐쉬 충만 레벨이 최대 캐쉬 충만 레벨에 결코 도달하지 못한다. 본 발명은 특히 그 자신만의 기존 캐쉬 관리를 갖춘 기존 캐쉬에 대한 '상위(on top of)', '피기백(piggyback)' 또는 '전단부(front end)' 애플리케이션으로서 흥미로우며, 충만된 캐쉬에 도달하는 것을 피하여 기존 캐쉬 자신만의 캐쉬 관리를 트리거링하는 것을 피하는 것, 캐쉬로의 데이터 추가에 대한 높은 지연 시간을 피하는 것, 및 캐쉬 메모리로부터 데이터의 제거에 관한 제어 소실을 피하는 것(예를 들어, 기존 캐쉬 관리는 특권 제공자에 관련된 데이터를 '오래된 데이터'로 간주된다는 이유로 아주 쉽게 제거할 수도 있다)과 같은, 본 발명의 모든 이점들을 제공한다. 이러한 본 발명의 응용에 따르면, 본 발명에 따른 이러한 피기백 캐쉬 관리자는, 각 데이터 추가-삭제 동작을 모니터링하여, 캐쉬 내에 얼마나 많은 데이터가 있는지를 정확히 알고, 본 발명에 따라 캐쉬를 관리할 수 있는 제어기를 포함한다.
데이터의 '추가'는 데이터의 '교체' 또는 '업데이트' 또는 '리프레쉬'와는 상이하다는 점에 유의한다. 예를 들어, 구역(312)에서 비선호 제공자로부터의 데이터의 추가는 배제되더라도, 기존 데이터의 교체는 여전히 허용된다. 이것은, 예를 들어, 쓸모 없는 버전의 데이터가 새로운 버전의 데이터로 교체되는 상황에서 유용하다.
도 4는, 예를 들어 도 1의 수신기 장치에 의해 또는 도 2의 수신기 장치에 의해 구현된, 본 발명의 방법의 특정 실시예를 구현하는 알고리즘을 도시한다.
제1 단계(400)에서, 이 알고리즘에 의해 이용되는 변수 및 속성들이 초기화된다. 이들 변수들은, 예를 들어, 도 2의 장치(13)의 메모리 구역(214)에 저장되거나, 도 1의 메모리 제어기(111)의 레지스터에 저장된다. 다음 단계(401)에서, 캐쉬 메모리로의 데이터의 추가 요청이 수신된다. 이 요청은, 예를 들어, 접속(1023)을 통해 도 1의 장치(12)의 캐쉬 메모리 제어기(111)에 의해, 또는 통신 버스(270)를 통해 도 2의 장치(13)의 CPU(220)에 의해 수신된다. 이 요청의 근원지는, 예를 들어, 사용자가 시청각 서비스로의 액세스를 사용자에게 부여하는 서비스 공여 프리젠테이션 포탈에서 네비게이팅하는 동안의 사용자 개시된 동작이다. 그 다음 이러한 사용자 개시된 동작은, 예를 들어, 도 1의 수신기(12)의 입력 장치(입력 장치는 미도시)를 통해, 또는 도 2의 장치(13)의 접속(2010) 및 사용자 인터페이스(260)를 통해 수신된다. 다음 단계(403)에서, 데이터의 발생 근원지인 서비스 제공자가 선호 서비스 공여 제공자 목록 내에 있는지가 판정되며, 상기 목록은 예를 들어 장치(13)의 ROM 메모리 구역(203)에 존재한다. 단계(403)에서 데이터의 발생 근원지인 서비스 제공자가 선호 서비스 공여 제공자 목록 내에 있다고 판정되면, 캐쉬 메모리로의 데이터의 추가가 배제되지 않는 한, 그 데이터는 캐쉬 메모리에 추가되고, 그 후 알고리즘은 단계(307)로 진행한다. 긍정시에, 알고리즘은 데이터의 추가가 배제되지 않는 한 데이터를 추가하는 단계(405)로 진행한다. 그러나 만일 데이터의 발생 근원지인 서비스 제공자가 선호 서비스 공여 제공자 목록 내에 있지 않다고 단계(403)에서 판정되면, 그 데이터는 추가되지 않고, 알고리즘은 데이터 추가 요청의 수신을 기다리는 단계(401)로 진행한다.
본 발명의 상이한 변형들에 따라 상이한 임계치들에 관하여 캐쉬 충만 레벨의 초과에 관한 판정 단계는, 예를 들어, 접속(1021)을 통해 캐쉬 메모리(111)의 캐쉬 충만 레벨을 판정하는 도 1의 캐쉬 제어기(111)에 의해, 또는 도 2를 참조하여, 데이터 및 통신 버스(270) 상에서 교환되는 신호를 통해 캐쉬 메모리 구역(212)의 충만 레벨을 판정하는 CPU(220)에 의해 이루어진다.
본 발명의 특정 실시예에 따르면, 상이한 임계치들, 최대 캐쉬 메모리 충만 레벨, 및 캐쉬 메모리 크기는 수신기 장치 제조자에 의해 미리 결정되며, 수신기 장치의 비휘발성 메모리 구역, 예를 들어, 도 2의 장치(13)의 ROM 메모리(200)에 저장된다. 변형 실시예에 따르면, 임계치, 최대 캐쉬 메모리 충만 레벨, 및 캐쉬 메모리 크기는 절대값(예를 들어, 제1 임계치는 7.9 Mbyte로 명시되고, 최대 캐쉬 메모리 충만 레벨은 9.9 Mbyte로서 명시된다)으로서 명시되거나, 상이한 변형에 따르면, 상이한 임계치들 및 최대 캐쉬 메모리 충만 레벨은 캐쉬 메모리 크기에 관한 상대값(즉, 제1 임계치는 캐쉬 메모리 크기의 79%인 것으로 명시된다)으로서 명시된다.
본 발명의 변형 실시예에 따르면, 상이한 임계치들 및 선택사항적인 캐쉬 메모리 크기는, 원격 구성 장치, 예를 들어, 서비스 공여 제공자의 구성 서버에 의해, SNMP(Simple Network Management Protocol) 또는 TR-069(Technical Report 069)와 같은 원격 구성 프로토콜을 통해 변경가능하다. 이것은 특별히 유익한데, 서비스 공여 제공자가, 예를 들어 시청각 서비스 공여 프리젠테이션 애플리케이션(소위 액세스 포탈)에 관련된 모든 데이터의 추가된 크기에 대응하는 데이터 크기로 캐쉬 메모리의 크기를 원격 조정할 수 있어서, 캐쉬 메모리가 그 애플리케이션의 데이터 모두를 포함하기에 충분한 크기가 되고 캐쉬 메모리 내에 데이터가 확실히 저장되기 때문에 수신기 장치가 동일한 데이터를 두 번씩 다운로드하지 않아도 되기 때문이다, 즉, 상기 애플리케이션의 전체 애플리케이션 트리가 한 번 완전히 순회되고 나면, 캐쉬 메모리로부터의 데이터에 의해 모든 후속된 순회가 충족될 수 있기 때문이다. 서비스 공여 제공자가 액세스 포탈을 갱신할 때, 전용 구성 명령을 수신기 장치에 전송함으로써 갱신된 액세스 포탈의 전체 크기에 맞게 캐쉬 메모리의 크기를 조정할 수 있다.
본 발명의 특정 실시예에 따르면, 임계치 최대 캐쉬 메모리 충만 레벨 및 캐쉬 메모리 크기는 경험칙(rule of thumb)에 따라 결정된다. 예를 들어, 캐쉬 메모리 크기는, 전형적인 크기의 최대 1백개의 웹 페이지를 포함하는 것을 허용하는 값으로 고정되고, 제1 임계치는 캐쉬 메모리 크기의 69 퍼센트로 고정되며, 각각의 후속하는 임계치들은, 제1 임계치에 대한 고정값에 10 퍼센트를 추가하여, 제2 임계치에 대해서는 최대 캐쉬 메모리 크기의 79 퍼센트, 제3 임계치에 대해서는 캐쉬 메모리 크기의 89 퍼센트, 제4 임계치에 대해서는 캐쉬 메모리의 크기의 99 퍼센트가 된다.
본 발명의 변형 실시예에 따르면, 임계치들 및 아마도 캐쉬 메모리 크기는 캐쉬 메모리에 저장되는 데이터의 타입과 크기에 맞게 조정된다. 예를 들어, 캐쉬 메모리가 VoD 트레일러를 저장할 수 있어야 한다면, 캐쉬 메모리 크기는 비교적 크고, 임계치들은, 2개의 연속한 임계치들 사이의 캐쉬 메모리 공간이 주문형 비디오 화상과 같은 특정 데이터 타입의 적어도 수개의 항목들을 유지하기에 충분하도록 이격된다. 변형 실시예에 따르면, 비특권 제공자들로부터의 데이터의 다양한 타입들은 캐쉬 메모리 정책에 상이하게 영향을 미친다. 예를 들어, 캐쉬 메모리가 VoD 트레일러를 저장하기에 충분히 크다면, 제3 임계치와 제2 임계치 사이에 놓인 특정 임계치가 만족될 시에 덜 방대한 VoD 화상 데이터의 캐쉬 메모리로의 추가를 배제하기 이전에, 캐쉬 메모리 충만 레벨이 제3 임계치보다는 우월하고 제2 임계치보다는 열등할 경우 이러한 데이터의 타입의 캐쉬 메모리로의 추가는 디스에이블될 것이다. 변형 실시예에 따르면, 임계치 및 선택사항으로서의 캐쉬 메모리 크기는, 본 발명을 구현하는 수신기 장치의 전형적인 이용에 기초하여, 실험적 방식으로 결정된다. 이것은 수신기 장치의 전형적인 이용에 맞게 캐쉬 메모리가 조정되도록 캐쉬 메모리의 최적화를 허용하는 이점을 가진다.
특정 실시예에 따르면, 본 발명은, 전적으로 하드웨어, 예를 들어, 전용 컴포넌트(예를 들어, ASIC, FPGA, 또는 VLSI)(각각, <<Application Specific Integrated Circuit>>, <<Field-Programmable Gate Array>> 및 <<Very Large Scale Integration>>)로 구현되거나, 또는 장치에 통합된 별개의 전자 장치로서, 또는 하드웨어와 소프트웨어의 혼합 형태로 구현된다.

Claims (12)

  1. 사용자 수신기 장치에 구현되는 캐쉬 메모리 관리의 최적화 방법으로서,
    - 캐쉬 메모리 충만 레벨이 증가함에 따라 상기 캐쉬 메모리로의 데이터 추가를 스테이지별로 배제하는 단계 ― 상기 추가의 배제는, 각각의 연속된 스테이지의 캐쉬 메모리 충만 레벨에 대해, 데이터의 근원 및 타입의 함수로서 점증적으로 제약적인 상기 캐쉬 메모리로의 데이터의 추가의 배제 규칙들에 따라 결정됨 ―
    를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서, 상기 방법은,
    - 캐쉬 메모리 충만 레벨이, 최대 스테이지의 캐쉬 메모리 충만 레벨(305)보다 낮은 제1 스테이지의 캐쉬 메모리 충만 레벨(304)보다 높다면, 상기 캐쉬 메모리로의 상기 데이터의 추가를 배제(313)하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  3. 제1항 또는 제2항에 있어서, 상기 방법은,
    - 선호 서비스 공여 제공자 목록을 상기 사용자 수신기 장치에 유지하고, 상기 추가할 데이터의 발생 근원지인 서비스 제공자가 상기 목록 내에 있는지를 판정하는 단계; 및
    - 상기 서비스 공여 제공자가 상기 목록 내에 있지 않고 캐쉬 메모리 충만 레벨이 상기 제1 스테이지의 캐쉬 메모리 충만 레벨(304)보다 낮은 제2 스테이지의 캐쉬 메모리 충만 레벨(303) 아래에 있다고 판정되고, 상기 테이터의 타입이 선호 데이터 타입 목록 ― 상기 선호 데이터 타입 목록은 상기 수신기 장치에 존재함 ― 내에 있다고 판정되면, 상기 캐쉬 메모리에 상기 데이터를 추가하는 단계
    를 더 포함하는 것을 특징으로 하는 방법.
  4. 제3항에 있어서, 상기 방법은,
    - 상기 캐쉬 메모리 충만 레벨이 상기 제2 스테이지의 캐쉬 메모리 충만 레벨(303)보다 낮은 제3 스테이지의 캐쉬 메모리 충만 레벨(302) 아래에 있다면, 상기 캐쉬 메모리에 상기 데이터를 추가하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  5. 제3항 또는 제4항에 있어서, 상기 선호 데이터 타입 목록은 화상 타입(image type)을 포함하는 것을 특징으로 하는 방법.
  6. 제3항 내지 제5항 중 어느 한 항에 있어서, 상기 선호 데이터 타입 목록은 실행가능한 스크립트 타입(executable script type)을 포함하는 것을 특징으로 하는 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 데이터의 발생 근원지인 상기 서비스 공여 제공자가 상기 선호 서비스 공여 제공자 목록 내에 있는지에 대한 상기 판정은, 상기 요청 내에 존재하는 URL(Unified Resource Locator)과, 상기 선호 서비스 공여 제공자 목록 내의 상기 선호 서비스 공여 제공자의 상기 URL과의 비교에 기초하는 것을 특징으로 하는 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서, 상기 데이터의 발생 근원지인 상기 서비스 공여 제공자가 상기 선호 서비스 공여 제공자 목록 내에 있는지에 대한 상기 판정은, 상기 데이터의 근원을 가리키는 상기 요청 내에 존재하는 인터넷 프로토콜(Internet Protocol) 주소와, 상기 선호 서비스 공여 제공자 목록 내의 상기 선호 서비스 공여 제공자의 인터넷 프로토콜 주소와의 비교에 기초하는 것을 특징으로 하는 방법.
  9. 캐쉬 메모리 관리 장치로서,
    - 캐쉬 메모리 충만 레벨이 증가함에 따라 상기 캐쉬 메모리로의 데이터 추가를 스테이지별로 배제하기 위한 제어기(111, 120) ― 상기 추가의 배제는, 각각의 연속된 스테이지의 캐쉬 메모리 충만 레벨에 대해, 데이터의 근원 및 타입의 함수로서 점증적으로 제약적인 상기 캐쉬 메모리로의 데이터의 추가의 배제 규칙들에 따라 상기 제어기(111, 120)에 의해 결정됨 ―
    를 포함하는 것을 특징으로 하는 캐쉬 메모리 관리 장치.
  10. 제9항에 있어서, 상기 제어기(111, 120)는 또한, 캐쉬 메모리 충만 레벨이, 최대 스테이지의 캐쉬 메모리 충만 레벨(305)보다 낮은 제1 스테이지의 캐쉬 메모리 충만 레벨(304)보다 높다면, 상기 캐쉬 메모리로의 상기 데이터의 추가의 배제를 결정하는 것을 특징으로 하는 캐쉬 메모리 관리 장치.
  11. 제9항 또는 제10항에 있어서, 상기 제어기(111, 120)는,
    - 선호 서비스 공여 제공자 목록을 유지하기 위한 수단과, 상기 추가할 데이터의 발생 근원지인 서비스 제공자가 상기 목록 내에 있는지를 판정하기 위한 수단; 및
    - 상기 추가할 데이터의 발생 근원지인 상기 서비스 공여 제공자가 상기 목록 내에 있지 않고 캐쉬 메모리 충만 레벨이 상기 제1 스테이지의 캐쉬 메모리 충만 레벨(304)보다 낮은 제2 스테이지의 캐쉬 메모리 충만 레벨(303) 아래에 있는지를 판정하기 위한 수단
    을 포함하고,
    상기 제어기에 의해 상기 테이터의 타입이 선호 데이터 타입 목록 ― 상기 선호 데이터 타입 목록은 상기 장치에 존재함 ― 내에 있다고 판정되면, 상기 제어기는 상기 캐쉬 메모리에 상기 데이터를 추가하는 것을 특징으로 하는 캐쉬 메모리 관리 장치.
  12. 제11항에 있어서, 상기 제어기(111, 120)는, 상기 캐쉬 메모리 충만 레벨이 제2 스테이지의 캐쉬 메모리 충만 레벨(303)보다 낮은 제3 스테이지의 캐쉬 메모리 충만 레벨(302) 아래에 있는지를 판정하는 수단을 더 포함하고, 상기 제어기는 상기 캐쉬 메모리에 상기 데이터를 추가하는 것을 특징으로 하는 캐쉬 메모리 관리 장치.
KR1020127030138A 2010-05-17 2011-05-16 캐쉬 메모리 관리의 최적화 방법 및 대응하는 장치 KR101859239B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10305518.2 2010-05-17
EP10305518A EP2388704A1 (en) 2010-05-17 2010-05-17 Method of optimization of cache memory management and corresponding apparatus
PCT/EP2011/057899 WO2011144576A1 (en) 2010-05-17 2011-05-16 Method of optimization of cache memory management and corresponding apparatus

Publications (2)

Publication Number Publication Date
KR20130093506A true KR20130093506A (ko) 2013-08-22
KR101859239B1 KR101859239B1 (ko) 2018-05-18

Family

ID=43259777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127030138A KR101859239B1 (ko) 2010-05-17 2011-05-16 캐쉬 메모리 관리의 최적화 방법 및 대응하는 장치

Country Status (11)

Country Link
US (1) US10691598B2 (ko)
EP (2) EP2388704A1 (ko)
JP (1) JP5680188B2 (ko)
KR (1) KR101859239B1 (ko)
CN (1) CN102906715B (ko)
CA (1) CA2797435C (ko)
MX (1) MX2012013168A (ko)
MY (1) MY156708A (ko)
PT (1) PT2572284E (ko)
RU (1) RU2599537C2 (ko)
WO (1) WO2011144576A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10303588B2 (en) 2015-05-26 2019-05-28 Samsung Electronics Co., Ltd. Systems and methods for test booting a device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8887217B2 (en) * 2013-03-13 2014-11-11 Futurewei Technologies, Inc. Systems and methods for quality of experience aware joint scheduling of buffered video on demand and best effort flows
JP6327959B2 (ja) * 2014-06-04 2018-05-23 キヤノン株式会社 情報処理端末、キャッシュ制御方法及びウェブシステム
CN106997351B (zh) 2016-01-22 2021-03-02 斑马智行网络(香港)有限公司 一种资源缓存管理方法及系统和装置
US10129360B2 (en) * 2016-03-28 2018-11-13 The Boeing Company Unified data networking across heterogeneous networks
US11907091B2 (en) 2018-02-16 2024-02-20 Microsoft Technology Licensing, Llc Trace recording by logging influxes to an upper-layer shared cache, plus cache coherence protocol transitions among lower-layer caches
CN115061654B (zh) * 2022-08-11 2022-11-22 歌尔股份有限公司 穿戴产品消息显示方法、装置、设备及可读存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6223256B1 (en) 1997-07-22 2001-04-24 Hewlett-Packard Company Computer cache memory with classes and dynamic selection of replacement algorithms
JP4105260B2 (ja) 1997-08-25 2008-06-25 富士通株式会社 情報処理装置
JP2000137642A (ja) 1998-10-30 2000-05-16 Toshiba Corp キャッシュ管理装置及びプログラムを記録したコンピュータ読み取り可能な記録媒体
US6349363B2 (en) 1998-12-08 2002-02-19 Intel Corporation Multi-section cache with different attributes for each section
US6807550B1 (en) 1999-12-01 2004-10-19 Microsoft Corporation Methods and systems for providing random access to structured media content
US6742033B1 (en) 2000-06-12 2004-05-25 Gateway, Inc. System, method and computer program product that pre-caches content to provide timely information to a user
US6651141B2 (en) * 2000-12-29 2003-11-18 Intel Corporation System and method for populating cache servers with popular media contents
US6957212B2 (en) 2001-04-24 2005-10-18 Innopath Software, Inc. Apparatus and methods for intelligently caching applications and data on a gateway
JP2003044346A (ja) 2001-07-30 2003-02-14 Hitachi Ltd コンテンツ提供方法およびネットワーク接続装置
JP2003196144A (ja) 2001-12-27 2003-07-11 Fuji Electric Co Ltd キャッシュサーバのキャッシュ制御方法
RU2238584C2 (ru) 2002-07-31 2004-10-20 Муратшин Борис Фрилевич Способ организации персистентной кэш памяти для многозадачных, в том числе симметричных многопроцессорных компьютерных систем и устройство для его осуществления
US7076500B2 (en) 2003-06-30 2006-07-11 David Gallant Selective file caching method
US7120749B2 (en) 2004-03-18 2006-10-10 Intel Corporation Cache mechanism
US7330938B2 (en) * 2004-05-18 2008-02-12 Sap Ag Hybrid-cache having static and dynamic portions
GB2418108B (en) 2004-09-09 2007-06-27 Surfcontrol Plc System, method and apparatus for use in monitoring or controlling internet access
US7590803B2 (en) * 2004-09-23 2009-09-15 Sap Ag Cache eviction
CN100465955C (zh) 2004-10-12 2009-03-04 国际商业机器公司 用于高速缓存万维网内容的方法和系统
US20060085519A1 (en) 2004-10-14 2006-04-20 Brian Goode Method and apparatus providing domain-based cache storage for a mobile internet browser
KR100609211B1 (ko) 2005-02-01 2006-08-02 주식회사 팬택 이동통신 단말기 및 이의 인터넷 페이지 관리방법
US20060230234A1 (en) 2005-03-30 2006-10-12 Sap Ag. Browser cache management
CN101595458A (zh) 2005-10-25 2009-12-02 泰克莱克公司 媒体内容递送审核和验证服务
US7685367B2 (en) * 2006-03-08 2010-03-23 Microsoft Corporation Multi-cache cooperation for response output caching
JP5119616B2 (ja) 2006-06-28 2013-01-16 日本電気株式会社 電子機器におけるキャッシュ管理方法及び電子機器及びネットワークシステム
US8537659B2 (en) * 2006-12-20 2013-09-17 Apple Inc. Method and system for reducing service interruptions to mobile communication devices
US8805949B2 (en) 2008-01-16 2014-08-12 Netapp, Inc. System and method for populating a cache using behavioral adaptive policies
CN101499073B (zh) * 2008-01-29 2011-10-12 国际商业机器公司 基于访问频率的连续存储数据的存储管理方法和系统
US8407421B2 (en) * 2009-12-16 2013-03-26 Intel Corporation Cache spill management techniques using cache spill prediction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10303588B2 (en) 2015-05-26 2019-05-28 Samsung Electronics Co., Ltd. Systems and methods for test booting a device

Also Published As

Publication number Publication date
CN102906715B (zh) 2016-05-25
JP2013526743A (ja) 2013-06-24
CN102906715A (zh) 2013-01-30
US10691598B2 (en) 2020-06-23
EP2388704A1 (en) 2011-11-23
CA2797435A1 (en) 2011-11-24
WO2011144576A1 (en) 2011-11-24
MX2012013168A (es) 2013-01-17
PT2572284E (pt) 2015-03-04
EP2572284A1 (en) 2013-03-27
KR101859239B1 (ko) 2018-05-18
RU2012154297A (ru) 2014-06-27
CA2797435C (en) 2018-06-05
EP2572284B1 (en) 2015-01-28
RU2599537C2 (ru) 2016-10-10
JP5680188B2 (ja) 2015-03-04
MY156708A (en) 2016-03-15
US20130198314A1 (en) 2013-08-01

Similar Documents

Publication Publication Date Title
KR101859239B1 (ko) 캐쉬 메모리 관리의 최적화 방법 및 대응하는 장치
US8473688B2 (en) Anticipatory response pre-caching
US10291738B1 (en) Speculative prefetch of resources across page loads
JP6630735B2 (ja) ブロードキャスト環境におけるウォーターマーク入りデータのための許可管理
US8725947B2 (en) Cache control for adaptive stream player
KR20140126328A (ko) 애플리케이션 캐시를 사용하여 설치된 애플리케이션의 리소스를 업데이트하는 기법
KR20110010052A (ko) 방송 네트워크 및 인터넷 네트워크에 접속 가능한 클라이언트의 어플리케이션을 수신하는 방법 및 장치
CN110933517A (zh) 码率切换方法、客户端和计算机可读存储介质
CA2745981C (en) A computer-implemented method, a computer program product and an embedded system for increasing the speed of data retrieval by a client on the embedded system
JP6532764B2 (ja) クライアント端末と少なくとも1つのサーバとの間の伝送路に配置されたキャッシュを操作する方法、および対応するキャッシュ
US11089379B2 (en) Preload hinting for low latency HTTP live streaming system
CN106464738B (zh) 用于操作网络设备的方法及相应的网络设备
US11656746B2 (en) Intercepted loading of web applications
TWI634789B (zh) 提供多媒體內容之內容部分至用戶端之方法及對應之快取
CN105359485B (zh) 由客户终端获得多媒体内容的内容部分的方法
CN113438313B (zh) 视频续播处理方法、相关装置及可读存储介质

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)