JP2015130135A - データ配信装置、及びデータ配信方法 - Google Patents
データ配信装置、及びデータ配信方法 Download PDFInfo
- Publication number
- JP2015130135A JP2015130135A JP2014002296A JP2014002296A JP2015130135A JP 2015130135 A JP2015130135 A JP 2015130135A JP 2014002296 A JP2014002296 A JP 2014002296A JP 2014002296 A JP2014002296 A JP 2014002296A JP 2015130135 A JP2015130135 A JP 2015130135A
- Authority
- JP
- Japan
- Prior art keywords
- data
- read
- unit
- file
- data distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0688—Non-volatile semiconductor memory arrays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
- G06F3/0613—Improving I/O performance in relation to throughput
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
- G06F3/0659—Command handling arrangements, e.g. command buffers, queues, command scheduling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0673—Single storage device
- G06F3/0679—Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Debugging And Monitoring (AREA)
Abstract
【課題】配信のためにストレージから読み出したデータの転送処理効率を向上させることができるデータ配信装置、及びデータ配信方法を提供する。【解決手段】データ配信装置1は、記憶部4と、監視制御部322と、読出制御部321と、バッファ部5と、配信部33とを持つ。記憶部は、ファイルを記憶する。監視制御部は、配信対象のファイルの読み出し指示を受信したときに、記憶部に記憶され、読み出しが指示されたファイルのフラグメントの状態を判断し、フラグメントの状態が所定よりも大きいと判断した場合に記憶部に記憶されているファイルのデフラグメントを行う。読出制御部は、監視制御部によるデフラグメントの終了後に配信対象のファイルのデータをエクステント単位で読み出す。バッファ部は、読出制御部が読み出したデータをバッファリングする。配信部は、バッファ部からデータを読み出して配信する。【選択図】図1
Description
本発明の実施形態は、データ配信装置、及びデータ配信方法に関する。
ユーザにデータを配信するデータ配信装置として、ビデオコンテンツなどのデータを配信するコンテンツ配信サーバーがある。コンテンツ配信サーバーは、コンテンツデータを一旦内部のストレージに保存し、保存したコンテンツデータをストレージから読み出して大多数のユーザに同時配信する。コンテンツデータの高速な配信を実現するため、ストレージには、高速読み出しが可能なSSD(Solid State Drive)が用いられる。コンテンツ配信サーバーは、このSSDにRAID(Redundant Array of Independent Disks)を適用してストライピングを行うことによっても高速な読み出しを実現している。また、コンテンツ配信サーバーは、配信の為のネットワーク処理を、FPGA(field-programmable gate array)によるハードウェアベースのプロトコル処理によって高速化している。さらに、コンテンツ配信サーバーは、ダイレクトストレージアクセス(DSA)制御により、SSDからFPGAへのコンテンツデータの転送処理を、CPU(central processing unit)を介さずに行うことによってCPU負荷を抑えている。
しかし、従来のコンテンツ配信サーバーでは、コンテンツデータのフラグメント(断片化)が大きく、データが記憶されている領域の分断の状態が大きな場合、SSDからFPGAへのデータ転送処理の効率が悪くなるという問題があった。
しかし、従来のコンテンツ配信サーバーでは、コンテンツデータのフラグメント(断片化)が大きく、データが記憶されている領域の分断の状態が大きな場合、SSDからFPGAへのデータ転送処理の効率が悪くなるという問題があった。
本発明が解決しようとする課題は、配信のためにストレージから読み出したデータの転送処理効率を向上させることができるデータ配信装置、及びデータ配信方法を提供することである。
実施形態のデータ配信装置は、記憶部と、監視制御部と、読出制御部と、バッファ部と、配信部とを持つ。記憶部は、ファイルを記憶する。監視制御部は、配信対象のファイルの読み出し指示を受信したときに、記憶部に記憶され、読み出しが指示されたファイルのフラグメントの状態を判断し、フラグメントの状態が所定よりも大きいと判断した場合に記憶部に記憶されているファイルのデフラグメントを行う。読出制御部は、監視制御部によるデフラグメントの終了後に配信対象のファイルのデータをエクステント単位で読み出す。バッファ部は、読出制御部が読み出したデータをバッファリングする。配信部は、バッファ部からデータを読み出して配信する。
以下、実施形態のデータ配信装置、及びデータ配信方法を、図面を参照して説明する。以下では、配信対象のファイルがコンテンツデータであり、データ配信装置がコンテンツデータを配信するコンテンツ配信サーバーである場合について説明する。
まず、本実施形態のデータ配信装置の技術的な特徴を明確にするために、従来のデータ配信装置について説明する。
図5は従来のデータ配信装置9の構成を示すブロック図である。データ配信装置9は、ホストCPU(Central Processing Unit)2と、FPGA(field-programmable gate array)8と、SSD(Solid State Drive:ソリッドステートドライブ)4と、SDRAM(Synchronous Dynamic Random Access Memory:シンクロナスランダムアクセスメモリ)5とを備えて構成される。
図5は従来のデータ配信装置9の構成を示すブロック図である。データ配信装置9は、ホストCPU(Central Processing Unit)2と、FPGA(field-programmable gate array)8と、SSD(Solid State Drive:ソリッドステートドライブ)4と、SDRAM(Synchronous Dynamic Random Access Memory:シンクロナスランダムアクセスメモリ)5とを備えて構成される。
ホストCPU2は、FPGA8を制御する。SSD4は、RAID(Redundant Array of Independent Disks)0によりコンテンツデータを格納するストレージである。SSD4は、セクタ単位でデータを記憶する。SDRAM5は、配信するコンテンツデータを一時的にバッファリングするバッファである。
FPGA8は、DSA(Direct Storage Access)31、SATA(Serial Advanced Technology Attachment) IP(Intellectual Property)コア82、TOE(TCP/IP Offload Engine)33、及びMAC(Medium Access Control)処理部34を備えて構成される配信処理部である。DSA31は、SSD4から読み出されたデータをSDRAM5へ転送する。SATA IPコア82は、SSD4へのアクセス制御を行う。SATA IPコア82が備えるRAIDコントローラ321は、RAID0によりSSD4にアクセスする。TOE33は、TCP/IP(Transmission Control Protocol/Internet Protocol)のプロトコル処理を行う。TOE33は、コンテンツデータを設定したTCP/IPのフレームを生成し、MAC処理部34に転送する。MAC処理部34は、メディアアクセス制御を行い、例えばイーサネット(登録商標)などのネットワークによりユーザの端末装置へコンテンツデータを配信する。
図6は、従来のデータ配信装置9の動作フローを示す図であり、図7は、従来のデータ配信装置9のデータ転送処理フローを示す図である。ホストCPU2は、配信対象のコンテンツデータのSDRAM転送指示をFPGA8に出力する。このSDRAM転送指示の出力は、例えば、ホストCPU2が実行しているアプリケーション(APL)がsendfile()システムコールをコールすることに相当する(図6のステップS81)。SDRAM転送指示には、読み出し対象のコンテンツデータのエクステントが記憶されている先頭の論理アドレスとその先頭の論理アドレスからのサイズが含まれている。
DSA31は、SDRAM転送指示を受けると、SATA IPコア82に対して、SDRAM転送指示により要求されたコンテンツデータをSSD4から読み出すようエクステント毎に指示する。RAIDコントローラ321は、読み出しの指示を受けると、DSA31から読み出しが指示されたエクステントの先頭の論理アドレス及びその先頭の論理アドレスからのサイズに基づいて、データの読み出し対象となるSSD4のセクタの物理アドレスを得る。RAIDコントローラ321は、得られた物理アドレスを用いてSSD4からセクタ単位でデータを読み出し、DSA31に出力する。DSA31は、RAIDコントローラ321が読み出したデータから1エクステント分のコンテンツデータを抽出し、SDRAM5へ転送する(図6のステップS82、図7のステップS91)。
SDRAM5は、DSA31から転送されたコンテンツデータをバッファリングする。TOE33は、SDRAM5からバッファリングされたコンテンツデータを読み出してTCP/IPのフレームに設定し、MAC処理部34に出力する。MAC処理部34は、TOE33から受信したフレームにMAC処理を行った後、ユーザの端末を宛先としてネットワーク配信する(図6のステップS83、図7のステップS92)。
上述した従来のデータ配信装置9は、ホストCPU2が実行するアプリケーションがコンテンツデータの転送や読み出しを指示するシステムコールをコールする度に、エクステント単位でSSD4からFPGA8へのデータ転送処理を行っている。そのため、コンテンツデータのフラグメントが大きく、エクステントの数が多い場合、SSD4からFPGA8へのデータ転送処理の効率が低下する。そこで、本実施形態のデータ配信装置は、SSDからコンテンツデータを読み出す際に、フラグメントが大きい場合はデフラグメント処理を行ってからSDRAMへのデータ転送処理を行う。このデフラグメントの処理によりコンテンツデータのフラグメントが大きくならない様に抑制し、データ転送処理を効率化する。
図1は、実施形態のデータ配信装置1の構成を示すブロック図である。同図において、図5に示す従来のデータ配信装置9と同一の部分には同一の符号を付し、その説明を省略する。同図に示すように、データ配信装置1がデータ配信装置9と異なる点は、FPGA8に代えてFPGA3を備える点である。
FPGA3は、DSA31、SATA IPコア32、TOE33、及びMAC処理部34を備えて構成される配信処理部である。このように、FPGA3が、図5に示すFPGA8と異なる点は、SATA IPコア82に代えてSATA IPコア32を備える点である。SATA IPコア32は、RAIDコントローラ321と監視制御部322を備えて構成される。つまり、SATA IPコア32は、図5に示すSATA IPコア82の構成に追加して、監視制御部322を備える。監視制御部322は、SSD4に格納されたコンテンツデータのフラグメント状態を監視する。例えば、監視制御部322は、アプリケーションから要求された転送サイズの半分よりも小さくフラグメントされていた場合や、フラグメント数が所定よりも多い場合などに、フラグメントが大きいと判断する。監視制御部322は、フラグメントが所定の基準よりも大きく、データ記憶領域の分断の状態が激しいと判断した場合、デフラグメントを実行してフラグメントを解消する。
図2は、フラグメントとデフラグメントの概要を表す図である。同図では、論理アドレスで示される記憶領域にファイルが記憶された状態を示している。
記憶領域にデータが記憶されておらず、空白のまっさらな状態でファイルF1−F5を順次記録した場合、図2(a)に示すように、各ファイルF1−F5を構成するデータは記憶領域の連続するブロックにファイル毎にきれいに並んだ形で記録される。
その後、ファイルの内容変更に伴うファイルのサイズ増減や、ファイルの追加削除が発生すると、適正なサイズで連続したブロックを確保できず、飛び飛びのブロックにファイルが記録される。このように、ファイルが断片化された状態がフラグメントであり、データが連続して記憶されている各ブロックがエクステントである。
記憶領域にデータが記憶されておらず、空白のまっさらな状態でファイルF1−F5を順次記録した場合、図2(a)に示すように、各ファイルF1−F5を構成するデータは記憶領域の連続するブロックにファイル毎にきれいに並んだ形で記録される。
その後、ファイルの内容変更に伴うファイルのサイズ増減や、ファイルの追加削除が発生すると、適正なサイズで連続したブロックを確保できず、飛び飛びのブロックにファイルが記録される。このように、ファイルが断片化された状態がフラグメントであり、データが連続して記憶されている各ブロックがエクステントである。
図2(b)は、図2(a)の状態からファイルF2、F4を削除した状態を示している。図2(b)に示す状態のときに、新規のファイルF6を記憶領域に書込むと、図2(c)に示すように、ファイルF6はデータF6−1、F6−2、F6−3に断片化され、3つのエクステントに分かれて記憶される。
フラグメントしてしまったファイルが連続した領域となるようにデフラグメントを行い、空いている記憶領域を利用してデータの並べ替えを行うと、図2(d)に示すように、連続した記憶領域に各ファイルのデータが書き込まれた状態となる。図2(d)では、各ファイルF1、F3、F5、F6ともエクステントは1である。論理ファイルが連続したデータは、SSD4においても連続したセクタに記憶される。
フラグメントしてしまったファイルが連続した領域となるようにデフラグメントを行い、空いている記憶領域を利用してデータの並べ替えを行うと、図2(d)に示すように、連続した記憶領域に各ファイルのデータが書き込まれた状態となる。図2(d)では、各ファイルF1、F3、F5、F6ともエクステントは1である。論理ファイルが連続したデータは、SSD4においても連続したセクタに記憶される。
図3は、データ配信装置1の動作フローを示す図であり、図4は、データ配信装置1のデータ転送処理フローを示す図である。ホストCPU2は、配信対象のコンテンツデータのSDRAM転送指示をFPGA3に出力する。このSDRAM転送指示の出力は、例えば、ホストCPU2が実行しているアプリケーション(APL)がsendfile()システムコールをコールすることに相当する(図3のステップS11)。SDRAM転送指示には、読み出し対象のコンテンツデータを構成するエクステントが記憶されている先頭の論理アドレスとその先頭の論理アドレスからのサイズが含まれている。
DSA31は、SDRAM転送指示を受けると、SATA IPコア32に対して、SDRAM転送指示により要求されたコンテンツデータをSSD4から読み出すようエクステント毎に指示する。SATA IPコア32の監視制御部322は、1エクステント分の読み出しの指示を受けると、論理アドレスによるコンテンツデータのフラグメント状態を判断する(図3のステップS12、図4のステップS21)。例えば、監視制御部322は、コンテンツデータのファイルエクステントマッピングを得るためのfiemapシステムコールをコールする。監視制御部322は、fiemapシステムコールの応答に含まれる構造体メンバによりエクステント数を得る。また、応答には各エクステントのバイト単位の長さが含まれる。監視制御部322は、エクステント数や各エクステントの長さによりフラグメント状態を判断する。監視制御部322は、フラグメントが所定の基準よりも大きいと判断した場合(図4のステップS21:YES)、1ファイル(1コンテンツデータ)のデータがなるべく連続した論理アドレスに割り付けられるようにデフラグメントを行う(図4のステップS22)。
監視制御部322は、デフラグメント後の各ファイルのエクステントの先頭の論理アドレスと先頭の論理アドレスからのサイズをホストCPU2に出力する。ホストCPU2は、デフラグメント後のエクステント状態に基づいて、新たに配信対象のコンテンツデータのSDRAM転送指示をFPGA3に出力する。DSA31は、SDRAM転送指示を受けると、SATA IPコア32に対して、SDRAM転送指示により要求されたコンテンツデータをSSD4から読み出すようエクステント毎に指示する。
フラグメント状態が所定の基準以下であると判断された場合(図4のステップS21:NO)、あるいは、ステップS22の処理の後、RAIDコントローラ321は、読み出しの指示に従ってコンテンツデータをSSD4から読み出す。ステップS22の処理の後の読み出しは、デフラグメント後のエクステントに基づく。RAIDコントローラ321は、DSA31から読み出しが指示されたエクステントの先頭の論理アドレス及びその先頭の論理アドレスからのサイズに基づいて、データの読み出し対象となるSSD4のセクタの物理アドレスを得る。RAIDコントローラ321は、得られた物理アドレスを用いてSSD4からセクタ単位でデータを読み出し、DSA31に出力する。DSA31は、RAIDコントローラ321が読み出したデータから1エクステント分のコンテンツデータを抽出し、SDRAM5へ転送する(図3のステップS13、図4のステップS23)。
SDRAM5は、DSA31から転送されたコンテンツデータをバッファリングする。TOE33は、SDRAM5からバッファリングされたコンテンツデータを読み出してTCP/IPのフレームに設定し、MAC処理部34に出力する。MAC処理部34は、TOE33から受信したフレームにMAC処理を行った後、ユーザの端末を宛先としてネットワーク配信する(図3のステップS14、図4のステップS24)。
本実施形態のデータ配信装置は、ストレージであるSSDからファイルのデータを読み出す際に、ファイルのフラグメントが大きい場合、デフラグメントの処理を行ってからデータ送信用のバッファであるSDRAMへのデータ転送処理を行う。これによりフラグメントが大きくならない様に抑制し、データ転送処理の効率が低下しないようにすることができる。また、デフラグメントの処理は負荷が高い場合がある。そこで、監視制御部322は、一旦デフラグメントを行ってから所定時間が経過するまでは、図4のステップS21及びステップS22の処理を実行しないようにしてもよい。
上記のように、データ配信装置は、定期的にデフラグメントを行い、フラグメントの影響をなくすことでストレージから転送用バッファへのデータ転送処理を効率化することができる。
上記のように、データ配信装置は、定期的にデフラグメントを行い、フラグメントの影響をなくすことでストレージから転送用バッファへのデータ転送処理を効率化することができる。
なお、上述したデータ配信装置1は、コンテンツデータのストレージとしてSSD4を用いているが、HDD(Hard disk drive:ハードディスクドライブ)など他の記憶装置を用いてもよい。
なお、上記実施形態のFPGA3と同様の機能を有する配信処理部の一部または全てを、ソフトウェア機能部により実現してもよい。
以上説明した少なくともひとつの実施形態によれば、監視制御部を持つことにより、ストレージに記憶されているファイルのフラグメントが大きくならない様に抑制し、ストレージからデータ配信のためのバッファへのデータ転送処理を効率化することができる。
さらに、監視制御部は、一旦デフラグメントを行ってから所定時間が経過するまでは、フラグメントの状態を判断しないようにすることで、デフラグメントの実行頻度を抑え、データ転送処理の効率が低下しないようにすることができる。
さらに、監視制御部は、一旦デフラグメントを行ってから所定時間が経過するまでは、フラグメントの状態を判断しないようにすることで、デフラグメントの実行頻度を抑え、データ転送処理の効率が低下しないようにすることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1…データ配信装置、2…ホストCPU、3…FPGA、4…SSD(記憶部)、5…SDRAM(バッファ部)、8…FPGA、9…データ配信装置、31…DSA、32…SATA IPコア、33…TOE(配信部)、34…MAC処理部、82…SATA IPコア、321…RAIDコントローラ(読出制御部)、322…監視制御部
Claims (4)
- ファイルを記憶する記憶部と、
配信対象のファイルの読み出し指示を受信したときに、前記記憶部に記憶され、読み出しが指示された前記ファイルのフラグメントの状態を判断し、フラグメントの状態が所定よりも大きいと判断した場合に前記記憶部に記憶されている前記ファイルのデフラグメントを行う監視制御部と、
前記監視制御部によるデフラグメントの終了後に配信対象の前記ファイルのデータをエクステント単位で読み出す読出制御部と、
前記読出制御部が読み出した前記データをバッファリングするバッファ部と、
前記バッファ部から前記データを読み出して配信する配信部と、
を備えるデータ配信装置。 - 前記監視制御部は、デフラグメントの終了から所定時間経過後に、配信対象のファイルの読み出し指示を受信したときに、前記記憶部に記憶されている前記ファイルのフラグメントの状態を判断する、
ことを特徴とする請求項1に記載のデータ配信装置。 - 前記記憶部は、ソリッドステートドライブまたはハードディスクであり、
前記バッファ部は、シンクロナスランダムアクセスメモリである、
ことを特徴とする請求項1または請求項2に記載のデータ配信装置。 - データ配信装置が実行するデータ配信方法であって、
配信対象のファイルの読み出し指示を受信したときに、記憶部に記憶され、読み出しが指示された前記ファイルのフラグメントの状態を判断し、フラグメントの状態が所定よりも大きいと判断した場合に前記記憶部に記憶されている前記ファイルのデフラグメントを行う監視制御過程と、
前記監視制御過程におけるデフラグメントの終了後に配信対象の前記ファイルのデータをエクステント単位で読み出す読出制御過程と、
前記読出制御過程において読み出された前記データをバッファ部にバッファリングするバッファリング過程と、
前記バッファリング過程により前記バッファ部にバッファリングされた前記データを読み出して配信する配信過程と、
を有することを特徴とするデータ配信方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014002296A JP2015130135A (ja) | 2014-01-09 | 2014-01-09 | データ配信装置、及びデータ配信方法 |
PCT/JP2014/063641 WO2015104858A1 (ja) | 2014-01-09 | 2014-05-23 | データ配信装置、及びデータ配信方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014002296A JP2015130135A (ja) | 2014-01-09 | 2014-01-09 | データ配信装置、及びデータ配信方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015130135A true JP2015130135A (ja) | 2015-07-16 |
Family
ID=53523701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014002296A Pending JP2015130135A (ja) | 2014-01-09 | 2014-01-09 | データ配信装置、及びデータ配信方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015130135A (ja) |
WO (1) | WO2015104858A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172365A1 (ja) * | 2021-02-10 | 2022-08-18 | 日本電信電話株式会社 | リソース制御装置、リソース制御システム、および、リソース制御方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3629216B2 (ja) * | 2001-03-08 | 2005-03-16 | 株式会社東芝 | デフラグメンテーション機能を有するディスク記憶システム、及び同システムにおけるデフラグメンテーション方法 |
JP5221332B2 (ja) * | 2008-12-27 | 2013-06-26 | 株式会社東芝 | メモリシステム |
JP5298982B2 (ja) * | 2009-03-17 | 2013-09-25 | 日本電気株式会社 | ストレージシステム |
US20120059976A1 (en) * | 2010-09-07 | 2012-03-08 | Daniel L. Rosenband | Storage array controller for solid-state storage devices |
JP5514245B2 (ja) * | 2012-03-15 | 2014-06-04 | 株式会社東芝 | ビデオ配信サーバ及びビデオ配信方法 |
-
2014
- 2014-01-09 JP JP2014002296A patent/JP2015130135A/ja active Pending
- 2014-05-23 WO PCT/JP2014/063641 patent/WO2015104858A1/ja active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172365A1 (ja) * | 2021-02-10 | 2022-08-18 | 日本電信電話株式会社 | リソース制御装置、リソース制御システム、および、リソース制御方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2015104858A1 (ja) | 2015-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210382625A1 (en) | Writing Data Using References To Previously Stored Data | |
WO2018231293A1 (en) | Multi-device platform | |
US10037161B2 (en) | Tiered storage system, storage controller, and method for deduplication and storage tiering | |
US10216448B2 (en) | Storage system with read request accelerator having dynamic internal data memory allocation | |
US10466935B2 (en) | Methods for sharing NVM SSD across a cluster group and devices thereof | |
US20180203637A1 (en) | Storage control apparatus and storage control program medium | |
US9182912B2 (en) | Method to allow storage cache acceleration when the slow tier is on independent controller | |
US9569135B2 (en) | Virtual accounting container for supporting small volumes of data | |
WO2017042978A1 (ja) | 計算機システム、ストレージ装置、及びデータの管理方法 | |
JP2017041076A (ja) | ストレージ制御装置、ストレージ制御方法、およびストレージ制御プログラム | |
AU2015408284A1 (en) | Adjusting storage capacity in a computing system | |
JP7075067B2 (ja) | ストレージ装置 | |
WO2014153931A1 (zh) | 文件存储方法、装置、访问客户端及元数据服务器系统 | |
JP2021514502A (ja) | データ・ストレージ間でのデータ移行を管理する方法、そのデータ・ストレージ・システムおよびコンピュータ・プログラム | |
JP4838054B2 (ja) | ディスクアレイ装置及びその負荷分散方法 | |
WO2015104858A1 (ja) | データ配信装置、及びデータ配信方法 | |
US8473643B2 (en) | Method and apparatus of tier storage management awareness networking | |
JP2022546690A (ja) | 大容量エクステント・ストレージ・プールの小容量エクステント・ストレージ・プールへのインプレースでの変換 | |
US10437478B1 (en) | Replication based on a differential multiple write command | |
JP2018504689A5 (ja) | ||
WO2017082323A1 (ja) | 分散処理システム、分散処理装置、方法および記憶媒体 | |
JP6417695B2 (ja) | 情報処理システム、情報処理システムの制御方法および情報処理装置の制御プログラム | |
US9933966B2 (en) | Storage control device and computer system | |
JP7067256B2 (ja) | データ転送装置およびデータ転送方法 | |
JP6427913B2 (ja) | ストレージシステム、制御装置、ストレージ装置、入出力制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150512 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150915 |