JP2006185046A - 計算方法及び計算装置 - Google Patents

計算方法及び計算装置 Download PDF

Info

Publication number
JP2006185046A
JP2006185046A JP2004376195A JP2004376195A JP2006185046A JP 2006185046 A JP2006185046 A JP 2006185046A JP 2004376195 A JP2004376195 A JP 2004376195A JP 2004376195 A JP2004376195 A JP 2004376195A JP 2006185046 A JP2006185046 A JP 2006185046A
Authority
JP
Japan
Prior art keywords
calculation
analysis
program
hard disk
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004376195A
Other languages
English (en)
Inventor
So Kishida
創 岸田
Hidekazu Akiyama
秀和 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004376195A priority Critical patent/JP2006185046A/ja
Publication of JP2006185046A publication Critical patent/JP2006185046A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

【課題】計算時間を短縮することができる計算方法及び計算装置を提供すること。
【解決手段】CAE解析を実験計画法により実行する計算方法において、実験単位を複数に分割した計算ノードに割り付けることにより、該CAE解析の複数の計算ノードをクラスター化する。この場合、2個以上の単位で計算ノードを構成する複数のCPUをクラスター化する。又、CAE解析を実験計画法により実行する計算装置において、実験単位を複数に分割した計算ノードを記憶する複数のハードディスク記憶装置と、該ハードディスク記憶装置に障害が生じた際に、OS、クラスター化プログラム、計算プログラム、計算入力条件、計算結果情報の各情報の複製を、計算ノード内の異なるハードディスク記憶装置に記憶し、別なハードディスク記憶装置に複製する機能とを有する。
【選択図】図1

Description

CAE(Computer Aided
Engineering)解析を行う際の計算時間の短縮化方法と計算装置に関する。
CAE解析により例えば工業製品において、複数の設計因子の中から高い性能が得られる因子の組合せや因子の価を求める最適化解析を行う場合、実験計画法に要因/単因子実験(Full and Fractional Factorial Design)を行えば精度の良い最適解が得られるが実験回数が膨大となり解析時間が掛かる。これに対し、特許文献1等には、実験計画法に直交表を用い実験回数を減らすことによる実験計画全体に掛かる析時間の短縮が提案されている。
又、一般にCAE解析等のコンピュータの計算時間自体を高速化する手法としてはMPPやSMP等の並列化計算処理が知られている。
特開2002−322938号公報
実験計画法を実施するに当たって直交表を用いることは実験回数を減らすことができ、実験回数を減らすことによる実験計画実施時間短縮の効果は得られる。
しかしながら、最適解の精度向上を追求するとなると因子や水準の数は増し、実験計画は大規模化する。
直交表を用いる場合でも、例えば、因子が8個で3水準ならL81の直交表となり、実験回数は81回となる。発明者らのCAE解析は1解析時間が約10〜20hであり、1実験単位、即ち1CAE解析時間が10hなら10h*81回=810h≒34日という規模になる。これに対し、発明者らが業務上実用的な解析時間と考えるのは5日間程度であり、約1/7以上に計算時間を短縮化したいというのが発明者らの課題となる。
発明者らが行う解析の多くは市販のCAE用プログラムであり、いわゆるスパコン等特殊なOS環境で動作するプログラムは少なく汎用性のある計算装置の環境でのみ稼動するのが一般的である。
すると、計算装置の計算時間を短縮するなら計算ノードをクラスター化し、MPPやSMPの並列計算処理化が或る程度有効であるが、これらの手法だけでは様々な分野のCAE解析で様々な問題を解くことを想定すると求める短縮効果が得られないというのがより具体的な課題となる。
一般に解の精度がシングルCPUと等価で精度が保証されるとされるSMPは並列化するCPU数の1.2乗程度に計算時間が短縮化されるが、短縮化の効果の出る並列化CPU数には飽和限界があるとされ、一般に8CPU程度で飽和すると認識されている。この場合の短縮化度は1.2の8乗で約1/4程度しか短縮化されない。
一方、MPPの場合計算処理を複数のメモリー上に分割して各々をCPUで並列計算するので、一般にCPU数に比例して高速化されるとされるが、これもSMP同様8CPU程度で高速化は飽和するとされるので、理想的に計算処理が分割された場合は1/8程度迄高速化され、発明者らの課題は克服されるが、使用者が手間を掛けないCAE解析プログラムの自動分割機能を使用し、均等に計算負荷が分割されない場合を考慮すると1/4程度しか短縮化されないというケースも多く必ずしも発明者らの課題を克服できない。
本発明は上記問題に鑑みてなされたもので、その目的とする処は、計算時間を短縮することができる計算方法及び計算装置を提供することにある。
上記目的を達成するため、請求項1記載発明は、CAE解析を実験計画法により実行する計算方法において、実験単位を複数に分割した計算ノードに割り付けることにより、該CAE解析の複数の計算ノードをクラスター化することを特徴とする。
請求項2記載の発明は、請求項1記載の発明において、2個以上の単位で計算ノードを構成する複数のCPUをクラスター化することを特徴とする。
請求項3記載の発明は、CAE解析を実験計画法により実行する計算装置において、実験単位を複数に分割した計算ノードを記憶する複数のハードディスク記憶装置と、該ハードディスク記憶装置に障害が生じた際に、OS、クラスター化プログラム、計算プログラム、計算入力条件、計算結果情報の各情報の複製を、計算ノード内の異なるハードディスク記憶装置に記憶し、別なハードディスク記憶装置に複製する機能とを有していることを特徴とする。
本発明の計算方法を用いれば、例えば81回の実験単位を10個の計算ノードに割付ければ1番目から9番目の計算ノードは8回分の実験単位を解析し、10番目の計算ノードは9回分の実験単位を解析し、実験計画全体を見るとシリーズに81回の実験単位を解析したのに比し、9/81=1/9に解析時間が短縮され発明者らが課題として掲げた1/7以上の計算時間短縮効果が得られる。分割割付け数を増し、81個の計算ノードで解析を行えば、最大1/81まで計算時間は短縮される。
即ち、実験計画に直交表を用いる、用いないに関わらず、どのような実験計画法を用いても最大の場合、実験回数分の1の計算時間短縮効果が得られる。
更に、計算ノードがクラスター化され、更にMPI(Message
Passing Interface) 通信手段を具備させれば、各実験単位の解析時間そのものをMPPにより短縮する、或は複数のCPUを計算ノード内に配置すればSMPにより各実験単位の解析時間を短縮することができるので、実験計画内の実験単位数分の1の解析時間短縮効果にMPP(Massively Parallel Processor)若しくははSMP(Shared Memory Process )による実験単位での解析時間短縮効果が4倍から期待値の最大として8倍は相乗される効果が得られる。
又、本発明では、装置内に異常が発生した場合の自己修復機能による計算続行効果と損失時間の最小化効果が得られる計算装置システム機能を実現している。
具体的には、計算ノードのハードディスクに障害が起きた場合は、RAIDO1若しくはRAIDO5により解析データが複製された別なハードディスク記憶措置を用いて計算を続行する機能を有する。
更に、計算ノード内のCPU、メモリー、マザーボード等に計算継続不能な障害が生じた場合)スペアの計算ノードにディスクイメージを配布し、該当するCAE解析計算の中断時間を最小限に留め計算を継続実行する。この処置を施した場合、前述の81回の実験計画を例として効果を示すと、1〜9番目の計算ノードに障害が生じた場合、CAE解析がスペア計算ノード上でリ・ラン若しくはリ・スタートが機能することにより、最大損失時間は1実験回数分の解析時間内、例えば10h以内となり、1〜9番目の計算ノードは8回分の実験単位を解析するのに対し、10番目の計算ノードは9回の実験単位を解析するので、1〜9番目の計算ノードの障害である限り、実験計画全体の計算時間は遅延しないという作用効果が得られるのが第1の利点である。
本発明の第2の利点は、最適化手法として、実験計画法を用い、更に、実験計画法の結果を受け応答曲面近似を行い、応答等曲面上で最適解を探索すれば、離散値である実験計画結果の中から最適な因子の組合せを抽出するのに比し、より精度の高い最適解を応答曲面上から得られるという作用効果が得られる。
更に、最適化解を求める手段として実験計画法を用いる利点の第3は、MPPやSMPのみを用いた場合のように計算CPU数を増しても、並列化による計算時間の短縮効果が飽和するということがなく、且つ、MPPのようなCAE解析プログラムと解析問題との相性による短縮効果の不安定さが生じる危険性もなく、実験回数と分割数に端数が生じても確実にほぼ並列分割数に比例して計算時間の短縮効果が得られることが第3の利点である。
実験計画法以外に計算単位を分割化して並列計算による計算時間短縮効果が得られや田口メソッドやモンテカルロ法がある。
第4の利点としては、計算途中に何らかの障害が生じても前述のように、実験単位のリ・ラン若しくはリ・スタートにより計算装置システムが計算装置を自己修復して計算続行可能な作用効果にある。
本発明による第5の利点を以下に説明する。
実験計画法を主体とする以外の他の最適化手法として、例えば数理的手法(MFD:許容方向法、MMFD:修正許容方向法、SLP:逐次線形計画法、SQP:逐次2次計画法(DONLP )、EP:外点ペナルティー関数法、NLPQL:逐次2次計画法(Schittkowski)、HJ:Hooke-Jeevesパターン探索法、SAM:逐次近似法等)や探索的手法(SA:Simulated
Annealing 、GA: Genetic Algorithm )等が一般に知られた最適化手法である。これらの手法に共通な点は継続繰り返し計算を行う点にある。
継続繰り返し計算により最適解を得るということは、特に数理的手法で見ると、前回の解より、より良い解の探索を繰り返すので、実験計画法のように実験単位に分割して計算するという訳にはいかず、原則1つの解析JOBの中で最適化計算が行われる。探索的手法のSAも継続繰り返し計算を行い原則前の解析結果の継承性が必要とされる。
従って、計算を使用者が最適化計算プログラム上からの操作で意図的に中断させて途中中止させた場合は計算を再開始(リ・ラン)が可能であるが、何らの障害により計算が中断された場合は計算の最初からの開始(リ・スタート)となり、前記のように計算装置内のシステムに異常の監視機能や計算の再開し機能を具備していても計算開始時から中断迄の全過程を再計算するので、計算時間の損失が大きい。これに対し、前述のように、複数の計算ノードbに複数回の実験単位を割付けた場合は、計算が何らかのエラーにより中断したとしても、損失する計算時間は最大1実験単位に留まるので、計算全体を再開始しなけばならない数理的手法に代表される最適化手法に比し損失時間を短時間に留めることができるという効果が第4の利点である。
又、並列計算可能な本発明による計算装置を大規模化して計算サーバーとして企業内の特定の拠点に設置して、他の遠隔地の拠点からも使用する場合、市販のCAE解析プログラムを使用すると距離制限の問題が出てくる。複数のコンピュータで計算実行可能なフローティングライセンス形態を採用しているプログラムは多いが、一般に同一拠点内の使用に限定されるプログラムが多い。一部のプログラムは限定が解除される制度を採用しているものもあるが、事業拠点内限定使用ライセンス費用の30%〜50%増しのワイドエリア・フローティングライセス費をプロブラム・ベンダーに支払う形態を取るプログラムも多く、他拠点からの使用は経済的負担が増すか、事実上計算サーバー内のCAE解析プロブラムが使用不能なるケースも有り得る。これを回避する手段として、最適化プログラムに、例えば米エンジニアス・ソフトウェア社製の最適化支援ソフトウェア「iSIGHT」(商標)を使用すると、「iSIGHT」(商標)は日本国内では距離制限なく使用できるワイドエリア・フローティングライセス形態を採用しているので、該最適化プログラム下でCAE解析プログラムを稼動させれば、CAE解析プログラムについても使用形態として距離制限が解除されたかのようにLAN或はWAN経由で遠隔地の拠点からも使用出来る効果が得られるのが第5の利点である。
本発明は数日間に及ぶ大規模解析を想定するので、使用者が使用者WSから解析JOBを計算サーバーに投入しても、自分が導入したJOBの終了時間を正確に予測するための手段を得ることに困難さが生じるので、代替措置として通知メールを計算サーバーから使用者に送信し、正確な解析終了時刻を使用者に通知し認識させる機能を持たせている。更に、ファイル受取サーバーを社内の各拠点に設けることにより、使用者が解析結果を受け取る際、解析JOBを投入した使用者WSが稼動していなくても、任意の使用者WSで拠点のファイル受取サーバーを経由して確実に解析結果を閲覧できるという効果と、遠隔地にある計算サーバーとのやり取りによるレスポンスの悪さを解消できるという効果が得られる。計算サーバーの管理者の立場に立てば、計算装置に異常が生じた場合は、異常通知メールによりシステム管理者として必要に応じて計算装置に対してメンテナンスの必要有無の情報を自動的に取得するという効果が得られる。
本発明による計算装置はクラスター化されているので、複数の計算nodoで並列計算が可能な環境を使用者が最適化プログラムを経由して利用する場合、通常はクラスター化されていないシングル計算ノードの使用者WSにて最適化プログラムを稼動させる入力ファイルを作成することを想定すると、クラスター化の知識の不十分な使用者にとっては、クラスター対応の情報を盛り込んだ入力ファイルの作成が困難な事態が生じる。
斯かる状況に配慮し、本発明ではJOB投入プログラムにより前記使用者WSであるシングル計算ノード機用の入力ファイルでは不足している情報の内、個々の解析固有の情報はJOB投入プログラムのメニューの選択肢を選ぶ等、簡単な入力手段から使用者がクラスター環境の専門的な知識を持たなくても正確にして十分な情報の入力ファイルを自動生成する効果を持つ。
更に、使用者の入力負荷を低減させるため、入力ファイルの雛型を各CAE解析分野や、並列計算の実施形態毎に予め計算装置内に記憶させておき、該雛型の入力ファイル情報とJOB投入プログラムの指示に従い使用者が入力した情報と、予め使用者が作成した入力ファイルの3者の情報を本発明による計算装置内で自動的に合成し、クラスター化した計算装置内で確実に最適化プログラムを動作させる入力ファイルを自動生成するという効果が得られる。
又、本発明の計算装置の計算ノードは、2個以上のCPUを実装しており、これにより計算負荷の大きなJOBをCAE解析プログラムより計算CPUが要求されても、処理能力の余裕が保たれるので、他の常駐するプログラム群であるOSやクラスター化プログラムやMPI通信プログラムと相互に支障を起こさせずに安定した動作が保たれる効果が確保てできる。
図1は本発明の特徴を最も良く表す実験計画の実験単位を複数の計算ノードに割付けた様子を示す。図1ではL81の直交表の実験単位を、7個の計算ノードに割付け、第1計算ノードから第4計算ノードは12回の実験単位を、第5計算ノードから第7計算ノードは11回の実験単位を計算することになる。計算時間の短縮率は12回/81回≒1/7となる。
各計算ノードは 矢印に示す様縦一列の実験単位だけ計算すれば、7個の計算ノード全体とすればL81の実験回数81回分を1/7の時間で本発明の計算方法により計算できる。
一方、従来例の計算ノードが1個の場合は直交表を用いれば実験回数は減らせるものの、例えば図7の矢印に示すように縦1列の実験単位を計算した後は、点矢印に示すように次列に移り第2列から第7列までの81回の実験単位をシリーズに計算するので、81回分の実験単位の計算時間を要してしまう。
図2は本発明による請求項6〜22による計算装置のシステム全体を示している。使用者はLAN又はWAN経由によりWebブラウザを介してJOB投入プログラムを立ち上げる。
・使用者IDのNo入力
・最適化解析を行うかMPPのみ行うかを選択
・使用者の作成した最適化プログラムへの入力ファイル名の指定
・CAE解析を行なうファイル名の入力
・対象となるCAE解析分野の入力
・実験計画法の分割数を選択
・最適化プログラムのライセンスサーバーの選択等の情報を入力し、この使用者の入力行為が完了すると計算装置内のJOB管理プロフラムが連動して起動される。計算装置内には図2の実施の形態では、計算部には2CPUの計算ノードと4CPUの計算ノードと2CPU用と4CPU用のスペアノードを具備する。
管理サーバーとしては
・クラスター管理サーバー
・2CPU用計算管理サーバー、4CPU用計算管理サーバー
・データ保管領域の管理サーバー
・OSの作動状態の監視サーバー
・CAD、最適化プログラム、CAE管理プログラムのディスクイメージを解析分野毎に複数持ち、必要に応じて計算ノードに配信するディスクイメージ管理サーバー
・全体のJOB、計算ノードからデータ保管領域へのデータ移動等を司るJOB管理プログラムサーバー
・スペアノードの管理サーバー
・JOB投入プログラムを管理するWeb管理サーバー
・解析の正常終了、異常終了を使用者やシステム管理者に通知するメールサーバー
等を具備し、入力情報はJOB投入プログラムを経由する情報に限定され、外部から不要な情報が浸入しないよう保護されるシステム構成となっている。外部への出力情報は通知メールと最適解及び最適解となるCAE解析プログラムの出力ファイルとCAD形状変更を伴う場合はCADデータとなる。
本発明の計算装置システムは、自律的に動作し、使用者入力情報がCAE解析計算上支障を来さない限り、装置内のハードウェアーやソフトウェアーに異常が生じても自己修復して自動運転可能な機能を有するようシステム構成されている。
各計算ノード内蔵のハードディスク記憶装置には、146GB等の物理的容量の制約を実運用上は設けざるを得ない。ここで、CAE解析データの解の容量が例えば60GBである場合を想定すると、1計算ノードで3回以上の実験単位を計算して内蔵ハードディスク記憶装置に記憶する場合は容量超過となってしまう。
斯かる事態に対処するため、本発明による計算装置は計算ノードとは別途に大容量のデータ保管領域を備えており、ここにJOB管理プログラムの制御により一実験単位の計算終了毎に計算ノードの稼動状況を把握する手段により計算終了を検知し、各計算ノードと解析結果のデータと同じ内容例を一次データ保管領域(例えば、7TBの容量でRAIDO5の複製領域を1TB備える)にコピーし、両者の内容が同一であることをJOB管理プログラムが検知する。その後、各計算ノードのハードディスク記憶装置内の解データをJOB管理プログラムの制御により消去して、計算ノード内蔵ハードディスク記憶装置の記憶容量超過防止措置が自動的に行われる機能を有している。
二次データ保管領域は、例えば1TBの容量であり、一次データ保管領域は、全実験計単位の解を使用者毎のフォルダー内の直下、若しくは、実験単位毎にJOB管理プログラムにより使用者フォルダー内に自動作成された実験単位別フォルダー内に格納するが、全実験単位のデータを保管するのは、主にCAE解析を行う上で使用者のCAE解析プログラムに対する設定不具合等を探索するためで、全実験計画の解析計算終了後は、最適解やMPPの解等の必要最低限の情報のみを使用者が選択して二次データ保管領域に移動する。
一次データ保管領域は計算終了後の解の不具合解内容を分析するために一次的に保管する領域的な役割であるため、容量は大きいがデータの保護としてはRAIDO5に留め、二次データ保管領域は主に再利用の価値あるデータを保管するのでRAIDO1で保護し、更にテープバックアップを取り高い保護レベルを維持すると共に、いたずらに高価なデータ保管装置に設備投資しないという経済的投資効果を有している。
図3は拠点Aに本発明による計算装置を計算サーバーとして設置し、拠点Aの使用者の他に、遠隔地の拠点B及びCの使用者もWAN経由で計算装置を利用する形態を示している。拠点Aの使用者もJOB投入プログラムやファイル受取サーバー、JOB管理プログラムよりの通知メールを受信するため、遠隔地の拠点の使用者と同等な利用形態を採る。
利用方法としては、先ず、イントラネット経由でWebブラウザにてJOB投入プログラムを立上げ、前述の様に最適化プログラムを使用するに必要な情報と、CAE解析に必要なファイル名、必要に応じてCADファイル名を使用者WSより入力する。計算を実行させると正常終了、異常終了に関わらず、通知メールは使用者のOA・PCに、最適解と最適解のCAE解析結果とCADファイル、若しくは異常終了した際の最終のCAE解析結果とCADファイルが各使用者の拠点のファイル受取サーバーに送信される。
ファイル受取の専用サーバーを設けることにより、使用者はファイル受信時に特定の使用者WSを受信用に立ち上げることが不要となり、又、ファイル送信に時間が掛かる場合も、ファイル受取サーバーのみを常時稼動させれば、受信時間は特定する必要はなくなり、夜間や休日を計算サーバーからのデータ送信時間に当てることが本発明のシステム構成により可能となる。
特に、CAE解析プログラムの使用者設定上の問題で異常終了した場合、使用者はエラファイルやログファイルを手掛かりとして異常終了の原因を探るので、エラ・ファイルやログ・ファイル等、解に付帯するファイルの漏れのない送信が必要となる。この際、各実験単位の解析結果をフォルダー毎に分けて一次データ保管領域に記憶させ、正常終了した場合の最適解を含むフォルダー、若しくは異常終了時は最終解析結果をフォルダー単位でファイル受取サーバーに送信すれば、付帯するエラ・ファイルやログ・ファイルがCAE解析ソフト毎に異なっても、付帯ファイルを漏れなく送信できるので、使用者は解析プログラムが異常終了した原因を探索し易くなる。又、使用者にとっては、自分の拠点内にデータが置かれるので、距離制限の制約を受けずCAE解析プログラムの解析解の内容を閲覧することができる。
<実施の形態1>
図4は本発明のクラスター化された計算装置の最小単位の構成図である。各計算ノードは2個のCPUを備え、2個のCPUがメモリーとハードディスク記憶装置を共有しており、ハードディスク記憶装置は計算ノード毎に2台備えられ、RAID1のミラーリングにより、使用時はハードディスク1をメインに使用すると常にハードィスク2に記憶内容が複製される設定となっている。従って、ハードディスク1に障害が生じたときは、ハードディスク2の記憶内容を利用して解析を続行するように本発明によるJOB管理プログラムにて、監視と制御を行う。10個の計算ノードはクラスター化されており、最適化プログラムは10ノードをまとめて認識することができるので、実験計画法を最適化プログラムとJOB管理プログラムの制御と監視下で実験単位に計算ノード数に応じて分割して分散割付けし、総計算時間を短縮する。
更に、本発明の計算装置にはCADとCAE解析プログラムの両者がインストールされているため、実験単位毎にCAD形状を変更しながら、CAE解析プログラムと連成解析を行う。従って、最適化解析全体を見ると、実験計画法とその結果の応答曲面近似と応答曲面上の最適解探索結果として得られる最適解は数値情報だけに留まらず、最適CAD形状として出力されるのが本発明の利点である。
<実施の形態2>
図5は30個の計算ノードから成る本発明による計算装置の計算部を示す。
最適化プロブラムを3ライセンス有し、使用形態としては、全てのCAE解析プログラムが同一分野であれば3個の計算JOBを同時に計算実行でき、且つ、各実験計画は10個の実験単位に分割されるので、計算時間短縮効果も得られる。又、各CAE解析分野は異なる分野プログラムをインストールしても良く、例えば、構造解析・機構解析・熱流体解析といった3分野同時の解析も可能である。
更に、各計算ノードにMPI通信プログラムをインストールし、CAE解析プログラムの要求により計算ノード間でMPI通信を行えば、MPPが可能となり、実験計画法による時間短縮とは異なり、個々の計算JOB時間が短縮化されるという効果も得られる。MPPの場合は、最適化プログラムを経由せずに原則実行可能であるが、本発明では、MPPも最適化プログラムを経由させるので、拠点間の距離制限を回避出来るという効果が得られる。
更に、JOB投入プログラムを使用することにより、使用者ID・No等の情報が取得されるので、本発明による計算装置内のデータ記憶領域の使用者毎フォルダーに記憶させるように、本発明によるJOB管理プログラムが制御を行うので、各使用者は自分の解析データの格納場所を容易に知ることができる。又、他使用者のフォルダーへは書き込み制限をJOB管理プログラムに設けることにより、他使用者のデータのデータを誤って消去しない等、安全上の対策を効果も得られる。
<実施の形態3>
図6は計算ノード内に4つのCPUを配した場合の図で、各計算ノード内で4CPUのSMPが可能な機器構成環境を示している。4CPUのSMPの場合、約1.2の4乗(CPU数)≒2倍の計算時間短縮効果が得られ、更に本発明である、実験計画の複数ノードへの割付け、この事例では10計算ノードあるので、10倍の計算時間短縮効果が得られ、40CPU全体で見ると約20倍の計算時間圧縮効果が本発明による本実施の形態では得られる。
本発明によらず、単にSMPだけで40CPUを使用しても、短縮効果は8CPU分の4倍程度で飽和するに留まると一般に認識されるのに対し、本発明の本実施の形態の装置構成を用いればほぼ確実に20倍となるので、使用するCPU数に見合った計算時間短縮が達成されるという解析コスト面での装置への費用対投資効果も高まる。
本発明は、コンピュータを用いる計算処理業務に適用可能である。
本発明による実験単位割付けの概念図である。 本発明による計算装置のシステム全体の構成図である。 本発明による計算装置を計算サーバーとして設置し、拠点間での使用形態構成を示す図である。 本発明によりクラスター化された計算装置の最小単位の構成図である。 30個の計算ノードから成る本発明による計算装置の計算部を示す図である。 計算ノード内に4つのCPUを配し、各計算ノード内で4CPUのSMPが可能な環境構成を示す図である。 従来例の図である。

Claims (3)

  1. CAE解析を実験計画法により実行する計算方法において、
    実験単位を複数に分割した計算ノードに割り付けることにより、該CAE解析の複数の計算ノードをクラスター化することを特徴とする計算方法。
  2. 2個以上の単位で計算ノードを構成する複数のCPUをクラスター化することを特徴とする請求項1記載の計算方法。
  3. CAE解析を実験計画法により実行する計算装置において、
    実験単位を複数に分割した計算ノードを記憶する複数のハードディスク記憶装置と、該ハードディスク記憶装置に障害が生じた際に、OS、クラスター化プログラム、計算プログラム、計算入力条件、計算結果情報の各情報の複製を、計算ノード内の異なるハードディスク記憶装置に記憶し、別なハードディスク記憶装置に複製する機能とを有していることを特徴とする計算装置。
JP2004376195A 2004-12-27 2004-12-27 計算方法及び計算装置 Withdrawn JP2006185046A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004376195A JP2006185046A (ja) 2004-12-27 2004-12-27 計算方法及び計算装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004376195A JP2006185046A (ja) 2004-12-27 2004-12-27 計算方法及び計算装置

Publications (1)

Publication Number Publication Date
JP2006185046A true JP2006185046A (ja) 2006-07-13

Family

ID=36738133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004376195A Withdrawn JP2006185046A (ja) 2004-12-27 2004-12-27 計算方法及び計算装置

Country Status (1)

Country Link
JP (1) JP2006185046A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017010560A (ja) * 2015-06-24 2017-01-12 スズキ株式会社 車両の運転支援装置
JP2018022488A (ja) * 2016-08-01 2018-02-08 エヌイーシー ヨーロッパ リミテッドNec Europe Ltd. 輸送システム及びその輸送サービスの頻度割り当て方法関連出願の相互参照

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017010560A (ja) * 2015-06-24 2017-01-12 スズキ株式会社 車両の運転支援装置
JP2018022488A (ja) * 2016-08-01 2018-02-08 エヌイーシー ヨーロッパ リミテッドNec Europe Ltd. 輸送システム及びその輸送サービスの頻度割り当て方法関連出願の相互参照

Similar Documents

Publication Publication Date Title
US10678457B2 (en) Establishing and maintaining data apportioning for availability domain fault tolerance
JP5756240B2 (ja) 管理システム及び管理方法
KR102478395B1 (ko) 통지와 함께 백그라운드 활동을 효율적으로 관리하는 ssd를 위한 메카니즘
EP3155522B1 (en) Precisely tracking memory usage in multi-process computing environment
EP2701064B1 (en) Robust tenant placement and migration in database-as-a-service environments
US9459849B2 (en) Adaptive cloud aware just-in-time (JIT) compilation
JP5967215B2 (ja) 情報処理装置、プログラムおよび仮想マシン移動方法
US7870424B2 (en) Parallel computer system
CN102999132B (zh) 管理计算系统的存储模块间的热分布的方法和系统
JPWO2006100752A1 (ja) 分散処理管理装置、分散処理管理方法、分散処理管理プログラム
CN101211289A (zh) 恢复操作管理系统和方法
JP2011186701A (ja) リソース割当装置、リソース割当方法、およびリソース割当プログラム
US20160179570A1 (en) Parallel Computing Without Requiring Antecedent Code Deployment
JP2022028208A (ja) 計算機装置、計算機システムおよびイベント管理方法
JP6229733B2 (ja) 情報処理装置、方法、プログラム及び記録媒体
JP2009176146A (ja) マルチプロセッサシステム、障害検出方法および障害検出プログラム
JP2006185046A (ja) 計算方法及び計算装置
JP6051733B2 (ja) 制御システム、制御方法、及び、制御プログラム
US20180052680A1 (en) Implementing locale management on paas: live locale object update
Ashton et al. Two decades of policy-based storage management for the IBM mainframe computer
KR101841847B1 (ko) 가상 디스크 프로비저닝 관리 방법 및 장치
Shaffer et al. Flexible partitioning of scientific workflows using the jx workflow language
JP2008186141A (ja) データ管理方法、データ管理プログラム、データ管理システム、および、構成管理装置
JP6322968B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5958111B2 (ja) ジョブ管理プログラム、ジョブ管理方法及びジョブ管理装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080304