JP6838410B2 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents
情報処理装置、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- JP6838410B2 JP6838410B2 JP2017018361A JP2017018361A JP6838410B2 JP 6838410 B2 JP6838410 B2 JP 6838410B2 JP 2017018361 A JP2017018361 A JP 2017018361A JP 2017018361 A JP2017018361 A JP 2017018361A JP 6838410 B2 JP6838410 B2 JP 6838410B2
- Authority
- JP
- Japan
- Prior art keywords
- dump
- capacity
- test
- hdd
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Test And Diagnosis Of Digital Computers (AREA)
Description
メモリダンプでは、情報を取得するメモリ領域、ダンプファイルの圧縮の有無等の様々なパラメータが指定される。第1実施形態では、様々なパラメータの組合わせに対して、正当なダンプファイルが取得できたか否かを評価するメモリダンプ評価システムが例示される。正当なダンプファイルとは、例えば、指定されたパラメータによって想定される情報を含むダンプファイルによって例示される。第1実施形態に係るメモリダンプ評価システムでは、複数のハードディスクドライブ(HDD)をダンプファイルの出力先であるダンプデバイスとする。さらに、第1実施形態では、複数のHDDのうち書き込み速度の速いHDDに対してダンプデバイスとして使用する容量を他のHDDよりも多く確保する。第1実施形態に係るメモリダンプ評価システムでは、ダンプファイルの出力を複数のHDDに分散するとともに、ダンプデバイスとして使用する容量を書き込み速度の速いHDDに対して多めに確保することで、ダンプファイルの出力にかかる時間を短縮する。図1は、第1実施形態に係るメモリダンプ評価システム1の一例を示す図である。メモリダンプ評価システム1は、試験装置20、被試験装置30および操作端末10を含む。試験装置20、被試験装置30および操作端末10は、試験ネットワークN1によって相互に接続されている。
03、通信部104および接続バスB1を含む。CPU101、主記憶部102、補助記憶部103および通信部104は、接続バスB1によって相互に接続されている。情報処
理装置100は、試験装置20、被試験装置30および操作端末10として利用できる。
。PLDは、例えば、Field-Programmable Gate Array(FPGA)を含む。CPU10
1が実行する処理は、プロセッサと集積回路との組み合わせによって実行されても良い。組み合わせは、例えば、マイクロコントローラ(MCU),System-on-a-chip(SoC),システムLSI,チップセットなどと呼ばれる。情報処理装置100では、CPU101が補助記憶部103に記憶されたプログラムを主記憶部102の作業領域に展開し、プログラムの実行を通じて周辺装置の制御を行う。これにより、情報処理装置100は、所定の目的に合致した処理を実行することができる。主記憶部102および補助記憶部103は、情報処理装置100が読み取り可能な記録媒体である。
ステートドライブ(Solid State Drive、SSD)、ハードディスクドライブ(Hard Disk
Drive、HDD)等である。また、補助記憶部103は、例えば、Compact Disc(CD)ドライブ装置、Digital Versatile Disc(DVD)ドライブ装置、Blu-ray(登録商標)Disc(BD)ドライブ装置等である。また、補助記憶部103は、Network Attached Storage(NAS)あるいはStorage Area Network(SAN)によって提供されてもよい。
104は、試験ネットワークN1を介して外部の装置と通信を行う。通信部104は、例えば、Network Interface Card(NIC)、無線LANカードまたは携帯電話である。
あるいはプリンタといった出力デバイスを例示できる。
SAS)カードを介して接続バスB1に接続される。外付けHDD31cは、外付けRedundant Arrays of Independent Disks(RAID)カードを介して接続バスB1に接続さ
れる。内蔵HDD31dは、内蔵RAIDカードを介して接続バスB1に接続される。第1実施形態において、外付けHDD31a、31b、31cおよび内蔵HDD31dは、ダンプファイルの出力先として用いられる。以下、本明細書において、外付けHDD31a、31b、31cおよび内蔵HDD31dを総称して、ダンプHDD31と称する。また、以下本明細書において、外付けHDD31a、31b、31cおよび内蔵HDD31dをそれぞれダンプHDD31a、31b、31c、31dとも称する。ダンプHDD31およびダンプHDD31a、31b、31c、31dは、「記憶装置」の一例である。
図4は、試験装置20の処理ブロックの一例を示す図である。試験装置20は、試験アプリケーション210、ダンプ出力時間推測テーブル220およびテストパターンテーブル230を含む。試験アプリケーション210は、被試験装置制御部211、スループット取得指示部212、ダンプデバイス作成部213およびダンプファイル確認部214を
含む。ダンプ出力時間推測テーブル220は、ダンプテーブル221および圧縮ダンプテーブル222を含む。試験装置20は、主記憶部102に実行可能に展開されたコンピュータプログラムをCPU101が実行することで、試験装置20の、被試験装置制御部211、スループット取得指示部212、ダンプデバイス作成部213およびダンプファイル確認部214等の各部としての処理を実行する。ダンプ出力時間推測テーブル220およびテストパターンテーブル230は、例えば、試験装置20の主記憶部102に記憶される。
は、ダンプファイルの取得対象となるメモリ領域を識別する情報の例示である。図6は、ダンプテーブル221の「level」で用いられる数値の一例を示す図である。図5の「level」に設定される数値には、図6のメモリダンプの対象としない領域を示す「設定値」を合計した値が記憶される。例えば、メモリ領域の内「ゼロページ」および「フリーページ」以外をメモリダンプの対象とする場合は、「ゼロページ」を示す設定値「1」と「フリーページ」を示す設定値「16」の合計値である「17」がダンプテーブル221の「level」に設定される。また、メモリダンプの対象としない領域が無い場合、換言すればメ
モリの全領域をメモリダンプの対象とする場合、ダンプテーブル221の「level」とし
て、「0」が設定される。ダンプテーブル221の「相対係数」は被試験装置30が備えるメモリの全領域に対する比によって各levelのダンプファイルの出力対象となる容量を
示す係数が設定される。なお、ダンプファイルの出力時間はダンプファイルのファイルサイズに依存する。そのため、ダンプテーブル221の「相対係数」は、被試験装置30が
備えるメモリの全領域をメモリダンプの対象としたダンプファイルの出力時間に対する比によって各levelのダンプファイルの出力時間を示す係数と把握することもできる。ダン
プテーブル221は、「第1のダンプ情報」の一例である。
対係数には、圧縮を行わない「なし」の場合のダンプファイル出力時間を「1」とする比によって各圧縮方式のダンプファイルの出力に係る時間を示す係数が設定される。圧縮ダンプテーブル222の相対係数は、例えば、「圧縮前のダンプファイルの出力時間」を「圧縮後のダンプファイルの出力時間」で割ることによって決定される。なお、ダンプファイルの出力時間は上述の通りダンプファイルのファイルサイズに依存する。そのため、圧縮ダンプテーブル222の「相対係数」は、圧縮を行わない「なし」の場合に出力されるダンプファイルのファイルサイズを「1」とする比によって各圧縮方式の圧縮率を示す係数と把握することもできる。圧縮ダンプテーブル222は、「第2のダンプ情報」の一例である。
えば、パターン番号1では部分ダンプとして「17」が設定されている。図6を参照すると、パターン番号1では、設定値「1」のゼロページと設定値「16」のフリーページを除いたメモリ領域をダンプ対象としていることがわかる。すなわち、パターン番号1では、ゼロページとフリーページを除いた128GBのメモリ領域をメモリダンプの対象として、「LABEL=/dump」で示されるデバイスに対して、「snappy」形式で圧縮されたダンプ
ファイルが出力される。以下、本明細書において、パターン番号XのテストパターンをテストパターンXとも称する。例えば、パターン番号1のテストパターンは、テストパターン1とも称する。
図9は、被試験装置30の処理ブロックの一例を示す図である。被試験装置30は、BIOS310、ダンプ実行部331、IOテーブル332、HDD割当テーブル333、テストパターンテーブル230およびダンプ出力時間推測テーブル220を含む。BIOS310は、ダンプデバイス調整部320およびCPU hot−add部330を含む。ダンプデバイス調整部320は、デバイス管理部321、RAID管理部322およびCPU監視部323を含む。被試験装置30は、主記憶部102に実行可能に展開されたコンピュータプログラムをCPU101が実行することで、被試験装置30の、デバイス管理部321、RAID管理部322、CPU監視部323、CPU hot−add部330およびダンプ実行部331等の各部としての処理を実行する。IOテーブル332、HDD割当テーブル333、テストパターンテーブル230およびダンプ出力時間推測テーブル220は、例えば、被試験装置30の主記憶部102に記憶される。
ダンプデバイスの割り当ておよびダンプデバイスの割り当て解除を行う。さらに、デバイス管理部321は、例えば、試験装置20のスループット取得指示部212からの指示に応じてダンプHDD31のスループットを測定する。デバイス管理部321は、測定したスループットをIOテーブル332に登録する。デバイス管理部321は、「割当部」の一例である。デバイス管理部321は、「測定部」の一例でもある。
組み合わせて1つのダンプデバイスを作成する。RAID管理部322は、例えば、複数のダンプHDD31へ並列に書き込みを実行できるRAID0によってダンプデバイスを作成する。作成されたダンプデバイスは、OSからは1台のHDDとして認識される。RAID管理部322は、例えば、Unified Extensible Firmware Interface(UEFI)
のランタイムサービスとしてBIOS310内に実装される。業務OS340およびダンプOS341は、例えば、UEFIが提供するインターフェースを利用してRAID管理部322によって作成されたダンプデバイスにアクセスする。
(RAS)監視の一環として、CPU101の温度を監視する。CPU監視部323は、メモリダンプ時等の負荷によって許容温度を超えたCPU101が存在した場合、CPU
hot−add部330に対して、予備CPU101dを稼働させるように指示する。また、CPU監視部323は、稼働しているCPU101の温度が許容温度内に収まった場合、CPU hot−add部330に対して、予備CPU101dを停止するように指示する。
いて、ダンプファイルの出力先として割り当てられた割当容量をテストパターン毎に保持する。図11は、HDD割当テーブル333の一例を示す図である。HDD割当テーブル333は、「パターン番号」、「パターン物理メモリ」、「PCIカード1」、「PCIカード2」、「PCIカード3」および「PCIカード4」の各項目を有する。「パターン番号」には、テストパターンを特定する番号が保持される。「パターン物理メモリ」には、「パターン番号」で特定されるテストパターンでメモリダンプの対象となるメモリの容量が保持される。「PCIカード1」、「PCIカード2」、「PCIカード3」および「PCIカード4」には、それぞれのPCIカードに接続されたダンプHDD31の情報が保持される。「状態」欄には、「FREE」または「END」の情報が保持される。「FREE」はダンプファイルの出力先として指定可能な状態を示し、「END」はダンプファイルの出力先として指定不可の状態を示す。指定不可の状態とは、例えば、ダンプHDD31の容量を使い切った場合である。例えば、「パターン番号」が「1」の場合、メモリダンプの対象となるメモリの容量は128GBであることがわかる。さらに、HDD割当テーブル333には、各テストパターン毎にダンプファイルの出力先として各ダンプHDD31に割り当てられる割当容量が保持される。
図12〜図15は、各テストパターン毎に割当容量が登録されたHDD割当テーブル333の一例を示す図である。図12〜図15を参照して、デバイス管理部321によるダンプHDD31への割当容量を決定する処理について説明する。各テストパターンにおいて各ダンプHDD31に割り当てられる割当容量は、デバイス管理部321によって決定される。デバイス管理部321は、各ダンプHDD31のスループットに基づいて割当容量を決定する。すなわち、デバイス管理部321は、スループットの高いダンプHDD31に対しては多く割当容量を割り当て、スループットの低いダンプHDD31に対しては少なく割当容量を割り当てる。デバイス管理部321は、例えば、以下の式(1)および式(2)によって割当容量を決定する。
(割当容量)=(メモリダンプの対象となるメモリ容量)×(割当容量を決定するダンプHDD31の割当比率)・・・式(2)
によって算出した割当比率とメモリダンプの対象となるメモリ容量128GBを式(2)に適用すると、ダンプHDD31aへの割当容量は72GBと決定される。同様に、PCIカード2に接続されたダンプHDD31bへの割当容量は36GB、PCIカード3に接続されたダンプHDD31cへの割当容量は15GB、PCIカード4に接続されたダンプHDD31dへの割当容量は8GBと算出される。図12は、図11に例示されるHDD割当テーブル333に対してテストパターン1の割当容量を追記した図の一例である。
図16は、RAID管理部322がHDD割当テーブル333にしたがって複数のダンプHDD31を組み合わせて1つのダンプデバイス33を作成するフローの一例を示す図である。図16において、各ダンプHDD31の黒く塗られた領域は、HDD割当テーブル333によって示される各ダンプHDD31の割当容量の領域であるとする。RAID管理部322は、HDD割当テーブル333を参照して各ダンプHDD31の割当容量を取得する。RAID管理部322は、取得した容量の領域をRAID0のストライピングによって組み合わせて一つのダンプデバイス33を作成する。業務OS340は、RAID管理部322によって作成されたダンプデバイス33をUEFIが提供するインターフェースを介して認識する。業務OS340でカーネルパニックに例示されるエラーが発生した場合、被試験装置30ではダンプOS341が起動し、ダンプOS341はメモリダンプを行う。メモリダンプによって出力されるダンプファイルは、ダンプデバイス33に出力される。上述の通り、ダンプデバイス33は、各ダンプHDD31から集められた領域をストライピングによって組み合わせたデバイスである。そのため、ダンプデバイス33へのダンプファイルの出力は、各ダンプHDD31に対して並列に出力されることになる。
図17は、CPU監視部323によるCPU監視フローの一例を示す図である。以下、図17を参照して、CPU監視部323によるCPU監視フローの一例について説明する。
図18は、第1実施形態に係るメモリダンプ評価システム1の処理の概略の一例を示す図である。以下、図18を参照して、第1実施形態に係るメモリダンプ評価システム1の処理の概略の一例について説明する。
割当容量は、HDD割当テーブル333に登録される。
図19は、第1実施形態に係るメモリダンプ評価システム1の処理シーケンスの概略を示す図である。以下、図19を参照して、メモリダンプ評価システム1の処理シーケンスの概略について説明する。
RAID管理部322は、抽出した領域を組み合わせてひとつのダンプデバイス33を作成する。業務OS340は、作成されたダンプデバイス33をマウントすることで、ダンプファイルの出力先として認識する。業務OS340は、例えば、認識したダンプデバイス33上にファイルシステムを構築することで、ダンプデバイス33の初期化を行う。
コマンドによって行われる。
図20〜図23は、試験装置20の処理フローの詳細の一例を示す図である。図20の「A1」は図21の「A1」に、図20の「A2」は図23の「A2」に接続する。図21の「A3」は図22の「A3」に、図21の「A4」は図22の「A4」に接続する。図22の「A5」は図23の「A5」に、図22の「A6」は図23の「A6」に接続する。以下、図20〜図23を参照して、試験装置20の処理フローの詳細の一例について説明する。
識可能となる。
図24〜図29は、被試験装置30の処理フローの詳細の一例を示す図である。図24の「B1」は、図25の「B1」に接続する。図24の「B2」は、図25の「B2」に接続する。図25の「B3」は、図26の「B3」に接続する。図25の「B4」は、図29の「B4」に接続する。図26の「B5」は、図27の「B5」に接続する。図26の「B6」は、図27の「B6」に接続する。図27の「B7」は、図28の「B7」に接続する。図27の「B8」は、図29の「B8」に接続する。図28の「B9」は、図29の「B9」に接続する。図28の「B10」は、図29の「B10」に接続する。図
29の「B11」は、図26の「B11」に接続する。以下、図24〜図29を参照して、被試験装置30の処理フローの詳細の一例について説明する。
HDD割当テーブル333を作成する。OP214の段階では、デバイス管理部321は、各テストパターンでダンプ対象となるメモリ容量をHDD割当テーブル333に登録する。ここで、容量を使い切ったダンプHDD31が存在する場合、HDD割当テーブル333において当該ダンプHDD31についてのENDフラグをオンにする。
スを作成」する処理の一例である。
ルの解析を行う。crashコマンドの出力内容は、例えば、テキストファイルに保存される
。ダンプファイルが正当な場合(OP238でYES)、処理はOP239に進められる。ダンプファイルが正当ではない場合(OP238でNO)、処理はOP244に進めら
れる。OP237〜OP238の処理は、例えば、図19のOP20の処理に対応する。
第1実施形態の効果を検証するため、比較例について説明する。第1実施形態では、被試験装置30に接続されたダンプHDD31のスループットを基にして、ダンプファイルの出力先として使用する割当容量が決定された。比較例では、複数のHDDにダンプファイルを出力する際に、ダンプファイルの出力先として各HDDに割り当てられる容量は、スループットとは無関係に均等に割り当てられる。なお、比較例においても第1実施形態と同様に、複数のHDDに対して並列でダンプファイルが出力される。
に均等に割当容量が割り当てられる。そのため、ダンプファイルのファイルサイズを3TBと仮定すると、各ダンプHDD31にはダンプファイルの出力先として1TBずつ割り当てられる。比較例では、例えば、ダンプファイルは以下のコマンド1によって出力される。
# makedumpfile -split <パラメータ> /dev/sda1/dumpflie1 /dev/sdb1/dumpfile2 /dev/sdc1/dumpflie3 ・・・(コマンド1)
出力するコマンドの例示である。makedumpflieコマンドでは、--splitパラメータによっ
てダンプファイルを分割する事ができる。コマンド1では、/dev/sda1/dumpflie1、/dev/sdb1/dumpfile2および/dev/sdc1/dumpflie3の3つのファイルに分割している。
るため、1TBのダンプファイルの出力が1.5時間で完了する。一方、/dev/sdc1のデ
バイスでは、スループットが100MB/sであるため、1TBのダンプファイル出力に3時間かかっている。すなわち、/dev/sda1のデバイスでは、自デバイスにおけるダンプ
出力を終えてから/dev/sdc1のダンプ出力を終えるまで1.5時間の待機時間が発生する
。
例を示す図である。図31に例示される各項目の意味は図30と同様であるため、詳細な説明は省略する。図31では、図30に例示された比較例と同じスペックのHDDが被試験装置30に接続されているものと仮定する。
350GBが割り当てられ、/dev/sdb1には1,000GBが割り当てられ、/dev/sdc1には650GBが割り当てられる。第1実施形態では、各ダンプHDD31のスループットを考慮して割当容量が決定されるため、各ダンプHDD31におけるダンプ取得時間は平均化される。その結果、ダンプファイルの出力が、/dev/sda1および/dev/sdb1では1.9時間、/dev/sdc1では1.8時間で完了する。
第1実施形態では、被試験装置30に接続された各ダンプHDD31のスループットを取得した。取得したスループットを基に、よりスループットの高いダンプHDD31に多くの割当容量を割り当てた。そのため、第1実施形態によれば、スループットの高いダンプHDD31を有効に活用することでダンプファイルを取得する時間を短縮できる。
第1実施形態では、業務OS340およびダンプOS341は、BIOS310のUEFIを利用してSoftware RAIDによって作成されたダンプデバイス33にアクセスした。
しかしながら、ダンプデバイス33へのアクセスは、UEFIを利用したものに限定されない。変形例では、ダンプデバイス33へのアクセスをBIOS310に搭載された仮想化支援機能であるHypervisorを利用して実現する。
稼働するHypervisor334は、Software RAIDによって各ダンプHDD31を組み合わせ
てダンプデバイス33を作成する。業務OS340は、Hypervisor334を介して、作成されたダンプデバイス33にアクセスできる。
第1実施形態では、複数のダンプHDD31をSoftware RAIDによって組み合わせるこ
とで、複数のダンプHDD31へ並列してダンプファイルを出力した。しかしながら、複数のダンプHDD31へ並列してダンプファイルを出力する方法は、Software RAIDに限
定されない。例えば、ダンプファイルを出力するプロセスを各ダンプHDD31毎に分割し、分割されたそれぞれのプロセスが各ダンプHDD31に対してダンプファイルの出力を行ってもよい。
N1・・・試験ネットワーク
10・・・操作端末
20・・・試験装置
210・・・試験アプリケーション
211・・・被試験装置制御部
212・・・スループット取得指示部
213・・・ダンプデバイス作成部
214・・・ダンプファイル確認部
220・・・ダンプ出力時間推測テーブル
221・・・ダンプテーブル
222・・・圧縮ダンプテーブル
230・・・テストパターンテーブル
30・・・被試験装置
31a、31b、31c・・・外付けHDD
31d・・・内蔵HDD
31・・・ダンプHDD
32・・・起動HDD
33・・・ダンプデバイス
340・・・業務OS
341・・・ダンプOS
342・・・スループット取得用OS
310・・・BIOS
320・・・ダンプデバイス調整部
321・・・デバイス管理部
322・・・RAID管理部
323・・・CPU監視部
330・・・CPU hot−add部
331・・・ダンプ実行部
332・・・IOテーブル
333・・・HDD割当テーブル
334・・・Hypervisor
100・・・情報処理装置
101、101a、101b、101c・・・CPU
101d・・・予備CPU
102・・・主記憶部
103・・・補助記憶部
104・・・通信部
B1・・・接続バス
Claims (7)
- 情報処理装置であって、
複数の記憶装置と、
メモリに記憶された情報を出力するダンプ処理によって出力されるダンプデータの出力先を前記複数の記憶装置各々の領域に分割して割り当てる際に、前記複数の記憶装置のうち書き込み速度の速い記憶装置に対して他の記憶装置より大きい容量を割り当てるように前記領域各々の容量を割り当てる割当部と、
前記割当部によって容量が割り当てられた前記領域各々に対して分割した前記ダンプデータの出力を並列して行う出力部と、を備え、
前記ダンプ処理の対象となるメモリ領域を特定する情報と、前記特定する情報によって特定されるメモリ領域の容量と前記情報処理装置が備えた全メモリ領域の容量との比とを対応付ける第1のダンプ情報を保持し、
前記割当部は、前記ダンプ処理の対象となるメモリ領域が前記特定する情報によって指定されると、前記第1のダンプ情報を参照して出力されるダンプデータの容量を決定し、決定した容量が確保できるように前記領域各々の容量を割り当てる、
情報処理装置。 - 前記複数の記憶装置各々の書き込み速度を測定する測定部を更に備え、
前記割当部は、前記測定された書き込み速度に基づいて前記領域各々の容量を割り当てる、
請求項1に記載の情報処理装置。 - 前記割当部は、前記測定部が書き込み速度を測定できた記憶装置の数が2台以上の場合に、書き込み速度を測定できた記憶装置を対象として前記領域各々の容量を割り当てる処理を実行する、
請求項2に記載の情報処理装置。 - 圧縮方式と、前記圧縮方式による前記ダンプデータの圧縮率とを対応付けた第2のダンプ情報を保持し、
前記割当部は、前記ダンプデータに対する圧縮方式が指定されると、前記第2のダンプ
情報を参照して指定された圧縮方式に対応付けられた圧縮率を基に前記ダンプデータの容量を決定し、決定した容量が確保できるように前記領域各々の容量を割り当てる、
請求項1から3のいずれか一項に記載の情報処理装置。 - 前記出力部は、Redundant Arrays of Independent Disks(RAID)によって前記領
域各々を組み合わせて前記ダンプデータの出力先を作成する、
請求項1から4のいずれか一項に記載の情報処理装置。 - 複数の記憶装置を有する情報処理装置が、
メモリに記憶された情報を出力するダンプ処理によって出力されるダンプデータの出力先を前記複数の記憶装置各々の領域に分割して割り当てる際に、前記複数の記憶装置のうち書き込み速度の速い記憶装置に対して他の記憶装置より大きい容量を割り当てるように前記領域各々の容量を割り当て、
容量が割り当てられた前記領域各々に対して分割した前記ダンプデータを並列して出力し、
前記ダンプ処理の対象となるメモリ領域を特定する情報と、前記特定する情報によって特定されるメモリ領域の容量と前記情報処理装置が備えた全メモリ領域の容量との比とを対応付ける第1のダンプ情報を保持し、
前記容量を割り当てる処理は、前記ダンプ処理の対象となるメモリ領域が前記特定する情報によって指定されると、前記第1のダンプ情報を参照して出力されるダンプデータの容量を決定し、決定した容量が確保できるように前記領域各々の容量を割り当てる処理を含む、
情報処理方法。 - 複数の記憶装置を有する情報処理装置に、
メモリに記憶された情報を出力するダンプ処理によって出力されるダンプデータの出力先を前記複数の記憶装置各々の領域に分割して割り当てる際に、前記複数の記憶装置のうち書き込み速度の速い記憶装置に対して他の記憶装置より大きい容量を割り当てるように前記領域各々の容量を割り当てさせ、
容量が割り当てられた前記領域各々に対して分割した前記ダンプデータを並列して出力させ、
前記ダンプ処理の対象となるメモリ領域を特定する情報と、前記特定する情報によって特定されるメモリ領域の容量と前記情報処理装置が備えた全メモリ領域の容量との比とを対応付ける第1のダンプ情報を保持させ、
前記容量を割り当てる処理は、前記ダンプ処理の対象となるメモリ領域が前記特定する情報によって指定されると、前記第1のダンプ情報を参照して出力されるダンプデータの容量を決定し、決定した容量が確保できるように前記領域各々の容量を割り当てさせる処理を含む、
情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017018361A JP6838410B2 (ja) | 2017-02-03 | 2017-02-03 | 情報処理装置、情報処理方法および情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017018361A JP6838410B2 (ja) | 2017-02-03 | 2017-02-03 | 情報処理装置、情報処理方法および情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018124895A JP2018124895A (ja) | 2018-08-09 |
JP6838410B2 true JP6838410B2 (ja) | 2021-03-03 |
Family
ID=63111480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017018361A Active JP6838410B2 (ja) | 2017-02-03 | 2017-02-03 | 情報処理装置、情報処理方法および情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6838410B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114063887A (zh) * | 2020-07-31 | 2022-02-18 | 深圳市中兴微电子技术有限公司 | 写入及读取方法、处理器芯片、存储介质和电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03269483A (ja) * | 1990-03-19 | 1991-12-02 | Fujitsu Ltd | 表示プロセッサのメモリダンプ方式 |
JPH04342041A (ja) * | 1991-05-20 | 1992-11-27 | Hitachi Ltd | コンピュ−タシステムのバックアップ保守方法 |
US7073023B2 (en) * | 2003-05-05 | 2006-07-04 | Lsi Logic Corporation | Method for minimizing RAID 0 data transfer rate variability |
JP2015038668A (ja) * | 2011-12-08 | 2015-02-26 | シャープ株式会社 | 電子装置 |
JPWO2014168025A1 (ja) * | 2013-04-12 | 2017-02-16 | 日本電気株式会社 | データ転送装置、データ転送システム、データ圧縮転送方法、およびプログラム |
-
2017
- 2017-02-03 JP JP2017018361A patent/JP6838410B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018124895A (ja) | 2018-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7818500B2 (en) | Apparatus and method for using one core for RAID control in multi-core CPU | |
CN106990958B (zh) | 一种扩展组件、电子设备及启动方法 | |
US11126420B2 (en) | Component firmware update from baseboard management controller | |
JP5733628B2 (ja) | 仮想計算機を制御する計算機装置及び仮想計算機の制御方法 | |
US10621112B2 (en) | System and method of identifying a device driver | |
US10133504B2 (en) | Dynamic partitioning of processing hardware | |
US20090006745A1 (en) | Accessing snapshot data image of a data mirroring volume | |
US9542201B2 (en) | Network bios management | |
US10606677B2 (en) | Method of retrieving debugging data in UEFI and computer system thereof | |
US10346065B2 (en) | Method for performing hot-swap of a storage device in a virtualization environment | |
US11194589B2 (en) | Information handling system adaptive component reset | |
US20060294149A1 (en) | Method and apparatus for supporting memory hotplug operations using a dedicated processor core | |
JP2011154697A (ja) | Raidと関連するアプリケーションの実行のための方法およびシステム | |
US10691468B2 (en) | Techniques of retrieving bios data from BMC | |
US10061599B1 (en) | Bus enumeration acceleration | |
US9870162B2 (en) | Method to virtualize PCIe controllers to support boot/hibernation/crash-dump from a spanned virtual disk | |
US20070214347A1 (en) | Method and apparatus for performing staged memory initialization | |
US7594077B2 (en) | System, method and apparatus to accelerate raid operations | |
US11010249B2 (en) | Kernel reset to recover from operating system errors | |
KR20180023784A (ko) | 사전 부팅 환경에서 raid 볼륨에 접근하는 데이터 저장 시스템 및 방법 | |
JP6838410B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
US9361123B2 (en) | Boot from logical volume spanning plurality of PCI devices | |
US10936328B2 (en) | Tracking a boot disk of a computing device through one or more reboots of the computing device | |
US10838737B1 (en) | Restoration of memory content to restore machine state | |
US10592425B2 (en) | Virtualizing NVDIMM WPQ flushing with minimal overhead |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200825 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6838410 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |