WO2011036699A1 - 保守方策決定装置および保守方策決定プログラム - Google Patents

保守方策決定装置および保守方策決定プログラム Download PDF

Info

Publication number
WO2011036699A1
WO2011036699A1 PCT/JP2009/004794 JP2009004794W WO2011036699A1 WO 2011036699 A1 WO2011036699 A1 WO 2011036699A1 JP 2009004794 W JP2009004794 W JP 2009004794W WO 2011036699 A1 WO2011036699 A1 WO 2011036699A1
Authority
WO
WIPO (PCT)
Prior art keywords
gain
result
action
loss
model parameter
Prior art date
Application number
PCT/JP2009/004794
Other languages
English (en)
French (fr)
Inventor
佐藤誠
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to CN2009801616291A priority Critical patent/CN102576428A/zh
Priority to PCT/JP2009/004794 priority patent/WO2011036699A1/ja
Priority to JP2011532784A priority patent/JP5426683B2/ja
Publication of WO2011036699A1 publication Critical patent/WO2011036699A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Definitions

  • the present invention relates to a maintenance policy determination apparatus and a maintenance policy determination program for determining a maintenance policy for equipment.
  • Y ⁇ Do not fail, fail ⁇ is an example of the result Y.
  • a gain function it is possible to assign a numerical value to each decision-making result Y. For example, if the component adjustment cost is "0”, the failure loss due to equipment failure is "C1”, and the replacement cost that is the cost of component replacement is "C2”, the gain function R shown below is set Is possible.
  • a device that automatically selects an action that satisfies some optimality using such a gain function R is a maintenance policy determination device.
  • X, A) that specifies the probability that the result Y will occur.
  • the number of uses X can be defined as follows using a failure model P (F
  • Patent Document 1 discloses an example of a maintenance policy determination device that determines an optimum action by maximizing an expected gain using a result model P and a gain function R. In general, when determining the optimum action by maximizing the expected gain, the expected gain shown in Expression (1) is calculated for all actions, and the action showing the maximum value is selected.
  • Equation (1) is equivalent to calculating the following two values and selecting an action with a large value.
  • the present invention has been made to solve the above problem, and a maintenance policy determination device and a maintenance policy determination program for selecting an optimal action from a plurality of actions that can be performed on maintenance work while considering the state of the device.
  • the purpose is to provide.
  • a maintenance policy determination apparatus is a maintenance policy determination apparatus that selects an optimal action from a plurality of actions that can be performed on maintenance work while considering the state of the device.
  • a first storage unit storing a gain function set in advance to assign a value to a result of a certain action in a certain state, and a probability density distribution of a result model for predicting the result of the action based on the state Is stored as a result model parameter distribution, and a first calculation unit that calculates an expected gain obtained as a result of each action using the gain function and the result model parameter distribution as an action expected gain;
  • a first estimation unit that estimates the result model parameter distribution after learning when a result of a new action is obtained as the parameter distribution after learning;
  • a second estimation unit that estimates a gain loss that may be caused by lack of learning from the gain function, the result model parameter distribution, and the post-learning parameter distribution as a gain loss, and is stored in a third storage unit
  • a second calculation unit that calculates a future decision frequency
  • the maintenance policy determination program as one aspect of the present invention is a maintenance policy determination program that selects an optimal action from a plurality of actions that can be performed on maintenance work in consideration of the state of the device, and is set in advance.
  • Result model parameter distribution storage in which the gain function obtained from the gain function storage unit in which the gain function is stored and the probability density distribution of the result model that predicts the result of the action based on the state are stored as the result model parameter distribution A parameter after learning based on the probability density distribution of the result model parameter obtained from the unit and the function of calculating the expected behavior gain based on the result model using the average and the respective values of the behavior and the selected result A function for listing distribution candidates, a probability density distribution of the gain function and the result model parameter, and Using the post-learning parameter distribution, for each element of the behavior, a function of calculating an increase in gain that can be expected as a result of learning the model parameter as an assumed gain loss, a probability density distribution of the resulting model parameter, and the assumed gain A function that estimates loss of behavior using losses
  • a maintenance policy determination device capable of reducing maintenance costs in maintenance of equipment such as new products and parts whose model parameters are not sufficiently reliable, and A maintenance policy decision program can be realized.
  • the block diagram which showed the structure of the maintenance policy determination apparatus concerning this embodiment The figure which shows an example of the gain function concerning this embodiment.
  • This embodiment is effective for devices that have many model changes of products and parts compared to production facilities and power generation facilities, such as elevators, photocopiers, and electronic computers, in consideration of the value of information obtained as a result of decision making. .
  • it can be applied to other devices.
  • FIG. 1 is a configuration diagram showing an embodiment of a maintenance policy determination apparatus according to the present invention.
  • the maintenance policy determination apparatus 100 includes a gain function storage unit 110, a result model parameter distribution storage unit 120, a behavior expectation gain calculation unit 130, a post-learning parameter distribution estimation unit 140, a gain loss estimation unit 150, a statistics
  • An information storage unit 160, a similarity decision determination frequency calculation unit 170, an information expected gain calculation unit 180, and a maintenance policy determination unit 190 are provided.
  • the second estimating unit 150 includes an assumed gain loss calculating unit 150a and an assumed gain loss integrating unit 150b.
  • Each unit in FIG. 1 can be realized as a program module, for example.
  • the gain function storage unit 110 is hereinafter referred to as a first storage unit.
  • the result model parameter distribution storage unit 120 is hereinafter referred to as a second storage unit.
  • the behavior expectation gain calculation unit 130 is hereinafter referred to as a first calculation unit.
  • the post-learning parameter distribution estimation unit 140 is hereinafter referred to as a first estimation unit.
  • the gain loss estimation unit 150 is hereinafter referred to as a second estimation unit.
  • the statistical information storage unit 160 is hereinafter referred to as a third storage unit.
  • the similar decision making frequency calculation unit 170 is hereinafter referred to as a second calculation unit.
  • the information expected gain calculation unit 180 is hereinafter referred to as a third calculation unit.
  • the assumed gain loss calculation unit 150a is hereinafter referred to as a fourth calculation unit.
  • the assumed gain loss integrating unit 150b is hereinafter referred to as an integrating unit.
  • FIG. 2 to FIG. 8 show an example of an operation for selecting an optimum action from a plurality of actions that can be performed on the maintenance work in consideration of the state of the device.
  • FIG. 9 is a flowchart showing the operation of the present embodiment.
  • the first storage unit 110 stores each gain function R for quantifying the “preference” for the decision-making result.
  • the gain function R has the result Y as an argument (R (Y)), the result Y and the action A as arguments (R (A, Y)), and the result Y, action A and state X as arguments. (R (X, A, Y)) etc.
  • FIG. 2 is an example of the gain function R.
  • a negative gain function R is defined by parameters of failure loss (C1) and replacement cost (C2).
  • C1 failure loss
  • C2 replacement cost
  • the utility obtained by using the device can be given as a positive numerical value.
  • the second storage unit 120 stores a result model for probabilistically predicting the result Y by the state X and the action A using the parameter ⁇ . Therefore, the second storage unit 120 needs to be able to calculate the probability density distribution g ( ⁇ ) of the model parameter ⁇ .
  • FIG. 3 is an example of a failure model 301 for calculating a result model.
  • FIG. 4 shows an example 401 of the beta distribution ⁇ (a, b).
  • 4 represents the beta distribution ⁇ (9,2)
  • the broken line 403 represents the beta distribution ⁇ (10,2)
  • the thin line 404 represents the beta distribution ⁇ (9,3).
  • the mode (mode) of the beta distribution ⁇ (9,2) of the thick line 402 is about 0.89.
  • the probability density distribution g ( ⁇ ) is expressed by the beta distribution ⁇ (a, b), but it can also be expressed by the average and standard deviation assuming a normal distribution.
  • the first calculation unit 130 uses the gain function R obtained from the first storage unit 110, the mode ( ⁇ ′) of the probability density distribution g ( ⁇ ) and the average of the result model parameters obtained from the second storage unit 120. As a result, the expected behavior gain R is calculated using the model P (Y
  • the expected gain of the above two actions is reversed when, for example, the failure probability in FIG. 3 is about 0.91. Therefore, if the probability density distribution g ( ⁇ ) satisfying ⁇ ⁇ 0.91 is all zero, no matter how accurately ⁇ is estimated, the selection of the action A is not affected. If this is not the case, by selecting action A “adjustment only”, one instance of data on whether this equipment will “fail” or “fail” will be collected before the next periodic inspection. Used for updating.
  • the first estimation unit 140 lists the learned parameter distribution candidates ⁇ g ′ ( ⁇
  • the second estimation unit 150 uses the gain function R () and the probability density distribution g ( ⁇ ) of the result model parameter and the learned parameter distribution ⁇ g ′ ( ⁇
  • an increase in expected gain is calculated as an assumed gain loss ⁇ loss ( ⁇ , A) ⁇ .
  • the gain loss ⁇ loss (A) ⁇ of the action A is estimated using the probability density distribution g ( ⁇ ) of the result model parameter and the assumed gain loss ⁇ loss ( ⁇ , A) ⁇ (step S120 in FIG. 9).
  • This equation (2) is obtained when the new parameter ⁇ obtained when the result Y is obtained with respect to each of the results Y when the model parameter is assumed to be ⁇ (: R ( ⁇ ( ⁇ ), ⁇ ) ⁇ R ( ⁇ ( ⁇ ), ⁇ )) is weighted by the change in probability of adopting ⁇ (g ′ ( ⁇
  • the gain loss ⁇ loss (A) ⁇ is expressed as follows:
  • This equation (3) is obtained by weighting the assumed gain loss ⁇ loss ( ⁇ , A) ⁇ by ⁇ and adding it by the integrating unit 150b with the probability of adopting the currently obtained parameter ⁇ .
  • FIG. 5 shows the calculation process of the assumed gain loss ⁇ loss ( ⁇ , A) ⁇ of equation (4).
  • the gain loss ⁇ loss (A) ⁇ the result of calculating the assumed gain loss ⁇ loss ( ⁇ , A) ⁇ for all ⁇ satisfying g ( ⁇ )> 0 is shown.
  • FIG. 6 shows a result Y601 of calculating the assumed gain loss ⁇ loss ( ⁇ , A) ⁇ for various parameters ⁇ .
  • the gain loss ⁇ loss (A) ⁇ can be calculated by integrating the result model parameter probability density distribution g ( ⁇ ) multiplied by the corresponding value in FIG.
  • FIG. 7 shows a calculation process for calculating the gain loss ⁇ loss (A) ⁇ .
  • reference numeral 701 represents the probability density distribution g ( ⁇ ) of the result model parameter.
  • a graph indicated by reference numeral 702 in FIG. 7B is obtained. It is done.
  • the equation The gain loss ⁇ loss (A) ⁇ 2.6 of (5) can be obtained.
  • the integral calculation of the above-described equations (2) and (3) is not necessarily performed for all parameters ⁇ .
  • the integration may be performed in the range of the probability density distribution g ( ⁇ ) of the result model parameter or in the vicinity of the average ( ⁇ ⁇ ). It is also possible to integrate only in the region where the probability density distribution g ( ⁇ ) of the result model parameter takes a value equal to or greater than the threshold value.
  • the expression (3) it is also possible to integrate only the assumed gain loss ⁇ loss ( ⁇ , A) ⁇ having a positive value.
  • the second calculation unit 170 obtains statistical information about the operation of the device from the third storage unit 160, and estimates how much the information value obtained as a result of decision making can be used in future decision making (see FIG. 9 step S130).
  • FIG. 8 shows an example of statistical information 801 relating to the operation of the device stored in the third storage unit 160.
  • the average age of the assumed device (10 years in FIG. 8)
  • the assumed number of operating units (total number of sales) (250 units in FIG. 8)
  • the number of currently operating devices (FIG. 8).
  • the average operation year (3 years in FIG. 8) and the distribution of the number of annual use (a)-(e) are shown.
  • the number of devices that will be used 2500 times is half of group c) and all of groups d) and e), and it is estimated that 250 units x (1/2 * 25% + 15% + 5%) ⁇ 81 units. Can do.
  • the similarity decision frequency may be estimated at each time such as ⁇ M1 (number of times within one year): 20 times, M2 (number of times within one to two years): 30 times, ... ⁇ .
  • the third calculation unit 180 calculates the value of data obtained as a result of the action A from the gain loss ⁇ loss (A) ⁇ and the similarity decision frequency M as the information expected gain I (A) (step S140 in FIG. 9).
  • the maintenance policy determination unit 190 determines the maintenance policy A by selecting the action A that has the maximum value of the action expectation gain R and the information expectation gain I (A) (step S150 in FIG. 9). That is, the maintenance policy is determined by the equation (8).
  • the value of information obtained as a result of decision making is taken into consideration, and as long as information valuable for future decision making can be collected, such action is selected and information is collected. If enough is accumulated, it is possible to make a decision to select an optimal action. Therefore, in such a case, it is possible to determine a maintenance policy that can reduce the maintenance cost in the maintenance of a device such as a new product or part whose model parameters are not sufficiently reliable.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 機器の状態を考慮しつつ保守業務に関する実施可能な複数の行動の中から最適な行動を選択する保守方策決定装置を提供する。保守方策決定装置は、利得関数と結果モデルパラメータ分布とを用いてそれぞれの行動の結果として得られる行動期待利得を算出する第1算出部と、新たな行動の結果が得られた場合の学習後の前記結果モデルパラメータ分布を学習後パラメータ分布として推定する第1推定部と、利得関数、結果モデルパラメータ分布、および学習後パラメータ分布から学習の不足によって生じている可能性のある利得の損失を利得ロスとして推定する第2推定部と、機器の稼働に関する統計情報を用いて、今後の意思決定頻度を類似意思決定頻度として算出する第2算出部と、利得ロスと類似意思決定頻度から行動の結果として得られるデータの価値を情報期待利得として算出する第3算出部とを有し、行動期待利得と情報期待利得を足し合わせた値が最大となる行動を選択して保守方策を決定する。

Description

保守方策決定装置および保守方策決定プログラム
 本発明は、機器の保守方策を決定する保守方策決定装置および保守方策決定プログラムに関する。
 機器の保守業務における意思決定では、機器の状態Xを考慮しつつ、実施可能な複数の保守行動Aの中から最適なものを選択する必要がある。例えば、使用時間と使用回数という保守条件が設定されている機器について、ある時点で「部品交換やオーバーホール」を行うか、又は「清掃や調整」を行うかを選択する必要がある。「部品交換やオーバーホール」を行った場合、比較的コストの高い保守となる。一方、「清掃や調整」を行った場合、比較的コストの低い保守となる。このような保守条件の場合、A={部品交換,調整のみ}などが保守行動Aの一例となる。そして、決定された保守行動Aによって異なる確率で結果Yが得られる。
 例えば、「部品を交換」をすると次の点検時点までに機器は故障しないが、「調整」で済ませると次の点検時点までにある確率で故障が発生してしまうような場合には、Y={故障しない,故障する}が結果Yの一例となる。さらに、利得関数と呼ばれる関数を用意することによって、それぞれの意思決定の結果Yに数値を割り当てることが可能である。例えば、部品調整のコストを"0"、機器が故障することによる故障ロスを"C1"、部品交換のコストである交換コストを"C2"とすれば、以下に示す利得関数Rを設定することが可能になる。
R(A=調整のみ,Y=故障しない)=0
R(A=調整のみ,Y=故障する)=-C1
R(A=部品交換,Y=故障しない)=-C2
R(A=部品交換,Y=故障する)=-C1-C2
 このような利得関数Rを用いて、何らかの最適性を満たす行動を自動的に選択する装置が保守方策決定装置である。
 また、最適な行動を選択するためには、どのような確率で結果Yが生じるのかを特定する結果モデルP(Y| X, A)を利用するのが有効である。上記の例では、使用回数Xについて、次の保守時点までに故障(F: fault)する確率を表す故障モデルP(F | X,θ)を用いて、以下のように定義することができる。
P(Y=故障しない| X, A=調整のみ)= 1.0 - P(F | X, θ)
P(Y=故障する| X, A=調整のみ)= P(F | X, θ)
P(Y=故障しない| X, A=部品交換)= 1.0
P(Y=故障する| X, A=部品交換)= 0.0
ここで、θは故障モデルPのパラメータである。また、θは結果モデルPのパラメータでもある。
 結果モデルPと利得関数Rを用いて、期待利得最大化によって最適行動を決定する保守方策決定装置の一例が特許第3054039号公報(特許文献1)に示されている。一般に、期待利得最大化によって最適行動を決定する場合、式(1)に示す期待利得をすべての行動について算出し、その最大値を示す行動を選択する。
Figure JPOXMLDOC01-appb-M000001
式(1)を上述した例に当てはめると、次の2つの値を算出し、値が大きい行動を選択することに相当する。
R(X, A=部品交換)= 1.0*(-C2)
R(X, A=調整のみ)= P(F|X,θ)*(-C1-C2)
 すなわち、従来の手法では、与えられた利得関数Rを用いて、モデルパラメータθによって特定された結果モデルPを完全に正しいものと考え、期待利得の最大化によって保守方策(ポリシー)を決定していた。
特許第3054039号公報
 製品出荷前に完全な耐久試験が可能ならば、機器や部品の正確な故障モデルが得られるので、正確な結果モデルを得ることも可能である。しかし、新しい機器や新しい部品などは、あらかじめ正確な結果モデルが得られないことが多い。そのような場合は、保守を行いながら収集されたデータを用いて結果モデルのパラメータθを更新していく必要がある。
 そこで、例えば、結果モデルのパラメータθが信頼できない間は、「部品交換」という行動よりも「調整のみ」という行動の方が、良いモデルを得るための価値ある情報収集と言える。しかしながら、情報の価値を考慮して方策決定を行う装置は無かった。つまり、意思決定の際に「意思決定の結果、得られる情報の価値」という観点が無かった。その結果として、新しい製品や部品などモデルのパラメータθが十分信頼できないような機器の保守では、最適な保守方策決定ができず、保守コストの増大を招く問題があった。
 本発明は、上記問題を解決するためになされたもので、機器の状態を考慮しつつ保守業務に関する実施可能な複数の行動の中から最適な行動を選択する保守方策決定装置および保守方策決定プログラムを提供することを目的とする。
 上記目的を達成するため、本発明の一態様としての保守方策決定装置は、機器の状態を考慮しつつ保守業務に関する実施可能な複数の行動の中から最適な行動を選択する保守方策決定装置であって、ある状態におけるある行動の結果に対して価値を割り当てるためにあらかじめ設定された利得関数が格納される第1格納部と、状態に基づいて行動の結果を予測する結果モデルの確率密度分布が結果モデルパラメータ分布として格納される第2格納部と、前記利得関数と前記結果モデルパラメータ分布とを用いてそれぞれの行動の結果として得られる期待利得を行動期待利得として算出する第1算出部と、新たな行動の結果が得られた場合の学習後の前記結果モデルパラメータ分布を学習後パラメータ分布として推定する第1推定部と、前記利得関数、前記結果モデルパラメータ分布、および前記学習後パラメータ分布から学習の不足によって生じている可能性のある利得の損失を利得ロスとして推定する第2推定部と、第3格納部に格納される機器の稼働に関する統計情報を用いて、今後の意思決定頻度を類似意思決定頻度として算出する第2算出部と、前記利得ロスと前記類似意思決定頻度から行動の結果として得られるデータの価値を情報期待利得として算出する第3算出部と、前記行動期待利得と前記情報期待利得を足し合わせた値が最大となる行動を選択して保守方策を決定する保守方策決定部と、を有することを特徴とする。
 また、本発明の一態様としての保守方策決定プログラムは、機器の状態を考慮しつつ保守業務に関する実施可能な複数の行動の中から最適な行動を選択する保守方策決定プログラムであって、あらかじめ設定された利得関数が格納される利得関数格納部から取得した前記利得関数と、状態に基づいて行動の結果を予測する結果モデルの確率密度分布が結果モデルパラメータ分布として格納される結果モデルパラメータ分布格納部から取得した結前記果モデルパラメータの確率密度分布、および平均を用いた前記結果モデルとによって行動期待利得を算出する機能と、行動と選択した結果のそれぞれの値に基づいて、学習後のパラメータ分布候補をリストアップする機能と、前記利得関数と前記結果モデルパラメータの確率密度分布、および前記学習後パラメータ分布を用いて、行動のそれぞれの要素について、モデルパラメータの学習の結果として期待できる利得の増加を仮定利得ロスとして算出する機能と、前記結果モデルパラメータの確率密度分布と前記仮定利得ロスを用いて行動の利得ロスを推定する機能と、統計情報格納部から機器の稼働に関する統計情報を取得して、意思決定の結果得られる情報価値が今後の意思決定でどの程度利用可能なのかを推定する機能と、前記利得ロスと前記類似意思決定頻度から行動の結果として得られるデータの価値を情報期待利得として算出する機能と、前記行動期待利得と前記情報期待利得を足し合わせた値が最大となる行動を選択して保守方策を決定する機能と、を有することを特徴とする。
 本発明によれば、意思決定の結果得られる情報の価値を考慮し、新しい製品や部品などモデルのパラメータが十分信頼できないような機器の保守において、保守コストの削減が可能な保守方策決定装置および保守方策決定プログラムが実現できる。
本実施形態に係わる保守方策決定装置の構成を示したブロック図。 本実施形態に係わる利得関数の一例を示す図。 本実施形態に係わる結果モデルを算出するための故障モデルの一例を示す図。 本実施形態に係わるベータ分布の一例を示す図。 本実施形態に係わる式(4)の仮定利得ロスの計算過程を示す図。 本実施形態に係わるパラメータθについて仮定利得ロスを算出した結果の一例を示す図。 本実施形態に係わる利得ロスを算出するための計算過程を示す図。 本実施形態に係わる統計情報格納部に格納される機器の稼動に関する統計情報の一例を示す図。 本実施形態に係わる動作を示すフローチャート。
 以下、本発明の実施形態について図面を参照して説明する。
 本実施形態は、意思決定の結果得られる情報の価値を考慮した、例えば昇降機やコピー機、電子計算機など、生産設備や発電設備と比較して製品や部品のモデルチェンジが多い機器に有効である。しかし、それ以外の機器にも適用可能である。
 図1は、本発明に係わる保守方策決定装置の一実施形態を示した構成図である。図1に示すように、保守方策決定装置100は、利得関数格納部110、結果モデルパラメータ分布格納部120、行動期待利得算出部130、学習後パラメータ分布推定部140、利得ロス推定部150、統計情報格納部160、類似意思決定頻度算出部170、情報期待利得算出部180、および、保守方策決定部190を備えている。また、第2推定部150は、仮定利得ロス算出部150aと、仮定利得ロス積算部150bによって構成される。図1の各部は、例えばプログラムモジュールとして実現することができる。
 ここで、利得関数格納部110は、以下、第1格納部と称する。また、結果モデルパラメータ分布格納部120は、以下、第2格納部と称する。さらに、行動期待利得算出部130は、以下、第1算出部と称する。また、学習後パラメータ分布推定部140は、以下、第1推定部と称する。また、利得ロス推定部150は、以下、第2推定部と称する。また、統計情報格納部160は、以下、第3格納部と称する。また、類似意思決定頻度算出部170は、以下、第2算出部と称する。さらに、情報期待利得算出部180は、以下、第3算出部と称する。
 また、仮定利得ロス算出部150aは、以下、第4算出部と称する。さらに、仮定利得ロス積算部150bは、以下、積算部と称する。
 次に各部の構成と動作を説明する。図2乃至図8には、機器の状態を考慮しつつ保守業務に関する実施可能な複数の行動の中から最適な行動を選択するための動作の一例を示す。また、図9は、本実施形態の動作を示すフローチャートである。
 まず、第1格納部110には、意思決定の結果に対する「好ましさ」を数値化するための夫々の利得関数Rが格納されている。利得関数Rは、結果Yを引数とするもの(R(Y))、結果Yと行動Aを引数とするもの(R(A,Y))、さらに結果Yと行動Aと状態Xを引数とするもの(R(X,A,Y))などを用いて表現されている。
 図2は、この利得関数Rの一例である。ここでは、故障ロス(C1)と交換コスト(C2)というパラメータによって、負の利得関数Rを定義している。この他、機器を使用することによって得られる効用を正の数値として与えることも可能である。
 また、第2格納部120には、パラメータθを用いて状態Xと行動Aによって結果Yを確率的に予測するための結果モデルが格納されている。従って、第2格納部120によって、モデルパラメータθの確率密度分布g(θ)が算出できる必要がある。
 図3は、結果モデルを算出するための故障モデル301の一例である。図3では、機器の使用回数(即ち、状態値X)=2500回の時点までの故障確率が0.1である場合を示している。この状態において、次の意思決定までに機器が故障しない確率をθで定めるものである。そして、確率密度分布g(θ)を特定するためのモデル係数a,bが、第2格納部120に格納されている。図3の例では、確率密度分布g(θ)は、ベータ分布β(a,b)に従うと仮定している。
 図4は、ベータ分布β(a,b)の一例401を示している。図4の太線402はベータ分布β(9,2),破線403はベータ分布β(10,2),細線404はベータ分布β(9,3)を表している。太線402のベータ分布β(9,2)のモード(最頻値)は、約0.89としている。この例では、ベータ分布β(a,b)によって確率密度分布g(θ)を表現するが、正規分布を仮定して平均と標準偏差によって表現することも可能である。
 第1算出部130では、第1格納部110から得られる利得関数Rと、第2格納部120から得られる結果モデルパラメータの確率密度分布g(θ)のモード(θ’)、および平均を用いた結果モデルP(Y| X, A)とによって行動期待利得Rを算出する(図9のステップS100)。
図3の例の場合、
R(X=2500, A=部品交換)= 1.0*(-C2) = -100
R(X=2500, A=調整のみ)= P(F|X,a=9,b=2)*(-C1-C2) = (1.0-0.89)(-1100) ≒-121となる。ここで、期待利得が最大という基準に従えば、行動期待利得Rの大きな「部品交換」という行動Aを選択することが最適である。
 上記した二つの行動の期待利得が逆転するのは、図3の例えば、故障確率が約0.91のときである。したがって、θ≧0.91を満たす確率密度分布g(θ)がすべて零ならば、どんなにθを正確に推定したとしても行動Aの選択に影響を与えることはない。もしもそうでなければ、「調整のみ」という行動Aを選択することにより、次の定期点検までに、この機器が「故障する」か「故障しないか」に関するデータを1事例収集し、モデルパラメータの更新に利用する。
 学習を進めていくにつれθが0.91以上であるということが判明すれば、「調整のみ」という行動Aが期待利得Rでより高いことになる。例えば、θが0.95だったと仮定すると、R(X=2500, A=調整のみ) =(1.0-0.95)(-1100) -55であるので、今後の類似の意思決定で一回あたり+45分の保守コストを削減できる。そこで、意思決定の際にはパラメータの学習という観点からも行動Aを評価することが重要となる。なお、以下の自明な場合には式の引数から状態Xを省略する。
 第1推定部140では、行動Aと選択した結果Yのそれぞれの値に基づいて、学習後のパラメータ分布候補{g’(θ|A,Y)}をリストアップする(図9のステップS110)。
 g(θ)=β(a,b)のベータ分布を用いた場合、
 g’(θ|A=部品交換, Y=故障しない) = β(a,b)   ‥図4の符号402
 g’(θ|A=調整のみ, Y=故障しない) = β(a+1, b) ‥図4の符号403
 g’(θ|A=調整のみ, Y=故障する) = β(a, b+1)  ‥図4の符号404
とすることができる。ベータ分布では、故障しなかった場合にはaを+1増加させ、故障した場合にはbを+1増加させればよい。
 第2推定部150では、利得関数R()と結果モデルパラメータの確率密度分布g(θ)、および、学習後パラメータ分布{g’(θ|A,Y)}を用いて、行動Aのそれぞれの要素について、モデルパラメータがθと仮定した場合の学習の結果、期待できる利得の増加を仮定利得ロス{loss(θ,A)}として算出する。そして、結果モデルパラメータの確率密度分布g(θ)と仮定利得ロス{loss(θ,A)}を用いて行動Aの利得ロス{loss(A)}を推定する(図9のステップS120)。
 真の結果モデルパラメータがθのとき、パラメータφにおける最適戦略をπ(φ),そのときの期待利得をR(π(φ), θ)とすると、パラメータφの損失は、R(π(φ), θ)-R(π(θ), θ)によって推定可能である。
 図3のベータ分布β(9,2)の例では、θ=0.95,φ=0.89とすると、R(π(φ=0.89), 0.95) - R(π(θ=0.95), 0.95) = -100 - (-55) = -45となる。そこで、第4算出部150aの演算により、行動Aを選択した際の仮定利得ロス{loss(θ,A)}は、
Figure JPOXMLDOC01-appb-M000002
として算出することができる。
 この式(2)は、モデルパラメータをθと仮定した場合の結果Yのそれぞれに対して、結果Yが得られた場合に得られる新パラメータφを採用したときの利得の差 (:R(π(φ),θ)-R(π(θ),θ))を、φを採用する確率の変化(g’(φ|A,Y)-g(φ))で重み付けして、足し合わせたものである。
 そして、結果モデルパラメータの確率密度分布g(θ)と仮定利得ロス{loss(θ,A)}を用いて、利得ロス{loss(A)}を現すと、
Figure JPOXMLDOC01-appb-M000003
として算出することができ、行動Aの利得ロスを推定することができる。
 この式(3)は、現在得られているパラメータθを採用する確率をθによって仮定利得ロス{loss(θ,A)}を重み付けして、積算部150bによって足し合わせたものである。上記の例では、パラメータの学習につながらないため、仮定利得ロス{loss(θ, A=部品交換)}=利得ロス{loss(A=部品交換)}=0であり、g(θ)=β(9,2)のとき、
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
とそれぞれ推定できる。
 図5は、式(4)の仮定利得ロス{loss(θ,A)}の計算過程を示す。図5において、式(2)の結果Yに相当するそれぞれの場合について、結果Yの発生する確率と∫以下の成分を算出し、それらを掛け合わせて足し合わせることによって、仮定利得ロス{loss(θ,A)}=0.493が算出される。利得ロス{loss(A)}を算出するために、g(θ)>0となるすべてのθについて、仮定利得ロス{loss(θ,A)}を算出した結果を示している。
 図6は、さまざまなパラメータθについて仮定利得ロス{loss(θ,A)}を算出した結果Y601を示している。図6の符号602は、図5に示した(θ=0.93,loss(θ,A)=0.493)の測定結果を表している。そして、結果モデルパラメータの確率密度分布g(θ)に、図6の対応する値を掛け合わせたものを積分することによって、利得ロス{loss(A)}が算出できる。
 図7は、利得ロス{loss(A)}を算出するための計算過程を示したものである。図7(a)において、符号701は結果モデルパラメータの確率密度分布g(θ)を表している。この結果モデルパラメータの確率密度分布g(θ)と、図6の符号601の仮定利得ロス{loss(θ,A)}とを掛け合わせると、図7(b)の符号702に示すグラフが得られる。そして、図7(b)の値を積分することのより(即ち、図7(b)の符号703の面積と符号705の面積とを加算した面積から符号704の面積を引くことにより)、式(5)の利得ロス{loss(A)}=2.6を得ることができる。
 なお、上述した式(2)(3)の積分計算は、必ずしもすべてのパラメータθに対して行う必要は無い。例えば、結果モデルパラメータの確率密度分布g(θ)のモードや平均の近傍(±Δθ)の範囲で積分しても良い。また、結果モデルパラメータの確率密度分布g(θ)が閾値以上の値を取る領域のみで積分することも可能である。また、式(3)では、正の値をとる仮定利得ロス{loss(θ,A)}のみを積分することも可能である。式(5)では、loss(A=調整のみ, a=9, b=2)≒2.6であるが、例えば、
loss(A=調整のみ, a=2, b=9)≒2.5E-7
である。
 これは、β(2, 9)のモードθ’≒0.11であるため、89%の確率で機器は故障することになり、部品交換という行動Aが明らかに期待利得Rで優れており、データを収集してもθ’>0.91となり判断が逆転する可能性が低いからである。また、β(9, 2)のモードθ’≒0.89とほぼ同じモードθ’をとるβ(100, 13)において、
loss(A=調整のみ, a=100, b=13)≒0.078
である。
 これは、モデルパラメータの確率密度分布g(θ)の先鋭度が高まり信頼性が向上したため、新たな事例を1追加する価値が低くなったからである。このように、本発明によれば、利得関数Rについて意思決定に重要な情報が得られる行動を大きな利得ロス{loss(A)}として推定することができる。
 第2算出部170では、第3格納部160から機器の稼働に関する統計情報を取得して、意思決定の結果得られる情報価値が、今後の意思決定でどの程度利用可能なのかを推定する(図9のステップS130)。
 図8は、第3格納部160に格納される機器の稼動に関する統計情報801の一例を示している。機器123の情報として、想定している機器の平均使用年数(図8では、10年)と、想定稼働台数(販売総数)(図8では、250台)と、現状機器の稼働台数(図8では、88台)と、平均稼動年(図8では、3年)と、年間使用回数の分布(a)-(e)とが示されている。
 例えば、現在行おうとしているのは使用回数Xが2500回時点における意思決定であるとすると、類似の状況での意思決定は、今後何回程度存在するのか見積もる必要がある。機器の生涯使用回数a)-e)は、年間使用回数×想定使用年数で算出され、
 a) 100×10 = 1000
 b) 1000~2000
 c) 2000~3000
 d) 3000~4000
 e) 4000
となる。
 そこで、使用回数2500回となる機器はグループc)の半分と、グループd),e)の全てとなり、250台×(1/2 * 25% + 15% + 5%) ≒81台と見積ることができる。
 また、現状の使用回数f)-j)は、年間使用回数×平均稼動年数で算出され、
 a) 100×3 = 300
 b) 300~600
 c) 600~900
 d) 900~1200
 e) 1200
となる。ここで、既に2500回に達した機器は"0"であると見積ることができる。
 そこで、第2算出部170は、類似意思決定頻度M=81 - 0 = 81と推定する。また、類似意思決定頻度は、{M1(=1年以内の回数): 20回, M2(1~2年以内の回数): 30回, …}などと時間ごとに推定しても良い。
 第3算出部180では、利得ロス{loss(A)}と類似意思決定頻度Mから行動Aの結果得られるデータの価値を情報期待利得I(A)として算出する(図9のステップS140)。
Figure JPOXMLDOC01-appb-M000006
上記の例では、
I(A=部品交換)=0.0
I(A=調整のみ)=81*2.6≒210
となる。
 また、g(θ)=β(a=100,b=13)の時にはI(A=調整のみ)=81*0.078≒6.3となる。類似意思決定頻度Mが時間ごとに推定されている場合には、割引率パラメータβ(0~1)などを用いて、
Figure JPOXMLDOC01-appb-M000007
などとすることも可能である。このような算出式を用いることにより、時間的に近い意思決定を重視することができる。
 保守方策決定部190では、行動期待利得Rと情報期待利得I(A)を足し合わせた値が最大となる行動Aを選択することにより保守方策Aを決定する(図9のステップS150)。すなわち、式(8)によって保守方策を決定する。
Figure JPOXMLDOC01-appb-M000008
上記の例では、g(θ)=β(9,2)と仮定すると、
R(X=2500, A=部品交換) + I(X=2500, A=部品交換) = -100 + 0 = -100
R(X=2500,A=調整のみ) + I(X=2500, A=調整のみ) = -121 + 210 = 89
となるので、情報価値を考慮することにより「調整のみ」という行動Aが選択される。
また、g(θ)=β(100,13)と仮定すると、
R(X=2500,A=調整のみ) + I(X=2500, A=調整のみ) = -121 + 6.3 =-114.7
となる。したがって、もう十分故障モデル(結果モデル)の学習は進んでいると判断され、情報の価値が相対的に低くなるので「部品交換」という行動Aが選択される。なお、式(8)は単純な足し算ではなく、重み係数を導入して足し合わせても良い。
 仮に、状態Xにおける真の故障確率が0.95であったとすると、通常の期待利得最大化によって保守方策を決定し続けた場合には、常に最善な意思決定と比較して45の過剰な保守コストが必要になってしまうことになる。これまで説明した本実施形態の保守方策決定装置を用いることにより、上記の例では45*81=3645の保守コスト削減効果が期待できることになる。
 本発明が適用される昇降機やコピー機、計算機設備など、生産設備や発電設備と比較して製品や部品のモデルチェンジが多い機器では、完全な故障モデルが得られないまま製品を出荷せざるを得ない場合もあり、情報の価値を考慮した保守方策決定装置により効率的な意思決定が可能になる。
 以上詳述したように、本実施形態によれば、意思決定の結果得られる情報の価値を考慮し、将来の意思決定にとって価値のある情報が収集できるうちはそのような行動を選択し、情報が十分に蓄積されると最適な行動を選択するという意思決定が可能になる。そのため、場合にはそちらの行動を新しい製品や部品などモデルのパラメータが十分信頼できないような機器の保守において、保守コストの削減が可能な保守方策を決定することができる。
 なお、本発明は上記した実施形態に限定されず、発明の要旨を逸脱しない範囲において、設計変更して構わない。
110‥利得関数格納部
120‥結果モデルパラメータ分布格納部
130‥行動期待利得算出部
140‥学習後パラメータ分布推定部
150‥利得ロス推定部
150a‥仮定利得ロス算出部
150b‥仮定利得ロス積算部
160‥統計情報格納部
170‥類似意思決定頻度算出部
180‥情報期待利得算出部
190‥保守方策決定部

Claims (6)

  1.  機器の状態を考慮しつつ保守業務に関する実施可能な複数の行動の中から最適な行動を選択する保守方策決定装置であって、
     ある状態におけるある行動の結果に対して価値を割り当てるためにあらかじめ設定された利得関数が格納される第1格納部と、
     状態に基づいて行動の結果を予測する結果モデルの確率密度分布が結果モデルパラメータ分布として格納される第2格納部と、
     前記利得関数と前記結果モデルパラメータ分布とを用いてそれぞれの行動の結果として得られる期待利得を行動期待利得として算出する第1算出部と、
     新たな行動の結果が得られた場合の学習後の前記結果モデルパラメータ分布を学習後パラメータ分布として推定する第1推定部と、
     前記利得関数、前記結果モデルパラメータ分布、および前記学習後パラメータ分布から学習の不足によって生じている可能性のある利得の損失を利得ロスとして推定する第2推定部と、
     第3格納部に格納される機器の稼働に関する統計情報を用いて、今後の意思決定頻度を類似意思決定頻度として算出する第2算出部と、
     前記利得ロスと前記類似意思決定頻度から行動の結果として得られるデータの価値を情報期待利得として算出する第3算出部と、
     前記行動期待利得と前記情報期待利得を足し合わせた値が最大となる行動を選択して保守方策を決定する保守方策決定部と、
    を有することを特徴とする保守方策決定装置。
  2.  前記第2格納部には、状態毎に異なるベータ分布の2つのパラメータが前記モデルパラメータ分布として格納されていることを特徴とする請求項1に記載の保守方策決定装置。
  3.  前記第2推定部は、
     前記結果モデルパラメータ分布の所定のパラメータが正しいと仮定した場合の、前記結果モデルパラメータ分布と前記学習後パラメータ分布から学習の不足によって生じている可能性のある利得の損失を仮定利得ロスとして算出する第4算出部と、
     前記結果モデルパラメータ分布の確率を重みとして前記仮定利得ロスを積算して前記利得ロスを推定する積算部と、
    により構成されていることを特徴とする請求項1に記載の保守方策決定装置。
  4.  前記第2算出部は、現在意思決定を行おうとしているような状態において今後どの程度の頻度で意思決定を行うかを、一定時間範囲ごとに算出することを特徴とする請求項1に記載の保守方策決定装置。
  5.  前記第3算出部は、0より大きく1以下の値をとる割引係数を用いて前記類似意思決定頻度に対し重みづけた値を前記利得ロスと掛け合わせることにより、前記情報期待利得を算出することを特徴とする請求項4に記載の保守方策決定装置。
  6.  機器の状態を考慮しつつ保守業務に関する実施可能な複数の行動の中から最適な行動を選択する保守方策決定プログラムであって、
     あらかじめ設定された利得関数が格納される利得関数格納部から取得した前記利得関数と、状態に基づいて行動の結果を予測する結果モデルの確率密度分布が結果モデルパラメータ分布として格納される結果モデルパラメータ分布格納部から取得した結前記果モデルパラメータの確率密度分布、および平均を用いた前記結果モデルとによって行動期待利得を算出する機能と、
     行動と選択した結果のそれぞれの値に基づいて、学習後のパラメータ分布候補をリストアップする機能と、
     前記利得関数と前記結果モデルパラメータの確率密度分布、および前記学習後パラメータ分布を用いて、行動のそれぞれの要素について、モデルパラメータの学習の結果として期待できる利得の増加を仮定利得ロスとして算出する機能と、
     前記結果モデルパラメータの確率密度分布と前記仮定利得ロスを用いて行動の利得ロスを推定する機能と、
     統計情報格納部から機器の稼働に関する統計情報を取得して、意思決定の結果得られる情報価値が今後の意思決定でどの程度利用可能なのかを推定する機能と、
     前記利得ロスと前記類似意思決定頻度から行動の結果として得られるデータの価値を情報期待利得として算出する機能と、
     前記行動期待利得と前記情報期待利得を足し合わせた値が最大となる行動を選択して保守方策を決定する機能と、
    を有することを特徴とする保守方策決定プログラム。
PCT/JP2009/004794 2009-09-24 2009-09-24 保守方策決定装置および保守方策決定プログラム WO2011036699A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2009801616291A CN102576428A (zh) 2009-09-24 2009-09-24 保养方策确定装置及保养方策确定程序
PCT/JP2009/004794 WO2011036699A1 (ja) 2009-09-24 2009-09-24 保守方策決定装置および保守方策決定プログラム
JP2011532784A JP5426683B2 (ja) 2009-09-24 2009-09-24 保守方策決定装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/004794 WO2011036699A1 (ja) 2009-09-24 2009-09-24 保守方策決定装置および保守方策決定プログラム

Publications (1)

Publication Number Publication Date
WO2011036699A1 true WO2011036699A1 (ja) 2011-03-31

Family

ID=43795474

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/004794 WO2011036699A1 (ja) 2009-09-24 2009-09-24 保守方策決定装置および保守方策決定プログラム

Country Status (3)

Country Link
JP (1) JP5426683B2 (ja)
CN (1) CN102576428A (ja)
WO (1) WO2011036699A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359750A (zh) * 2018-10-15 2019-02-19 北京航空航天大学 一种基于启发式混合博弈的集群视情维修决策方法
WO2019077686A1 (ja) * 2017-10-17 2019-04-25 三菱電機株式会社 エレベータ保守作業支援装置
WO2019229946A1 (ja) * 2018-05-31 2019-12-05 三菱電機ビルテクノサービス株式会社 エレベーターの保守作業支援装置
CN111445042A (zh) * 2020-03-26 2020-07-24 华润电力技术研究院有限公司 一种电厂设备的检修方法、系统及装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101721622B1 (ko) 2015-04-30 2017-03-30 주식회사 에스원 경비 서비스 자원 할당 장치 및 방법
JP5969676B1 (ja) * 2015-09-30 2016-08-17 ファナック株式会社 工作機械の工具補正の頻度を最適化する機械学習装置及び機械学習方法、並びに該機械学習装置を備えた工作機械

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002323921A (ja) * 2001-04-25 2002-11-08 Mitsubishi Heavy Ind Ltd プラント保守支援システム及びプラント保守支援方法
JP2003099119A (ja) * 2001-09-25 2003-04-04 Mitsubishi Heavy Ind Ltd 最適保守計画決定方法
JP2004234536A (ja) * 2003-01-31 2004-08-19 Toshiba Corp プラント機器の保守管理計画支援方法および装置
JP2004323162A (ja) * 2003-04-24 2004-11-18 Hitachi Ltd 保全事業シミュレータ、保全サービス立案支援システム、および、保全事業支援システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251126A (ja) * 1999-02-26 2000-09-14 Toshiba Corp 適正保守作業分析装置
US7774169B2 (en) * 2006-06-29 2010-08-10 Toshiba Tec Kabushiki Kaisha Maintenance system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002323921A (ja) * 2001-04-25 2002-11-08 Mitsubishi Heavy Ind Ltd プラント保守支援システム及びプラント保守支援方法
JP2003099119A (ja) * 2001-09-25 2003-04-04 Mitsubishi Heavy Ind Ltd 最適保守計画決定方法
JP2004234536A (ja) * 2003-01-31 2004-08-19 Toshiba Corp プラント機器の保守管理計画支援方法および装置
JP2004323162A (ja) * 2003-04-24 2004-11-18 Hitachi Ltd 保全事業シミュレータ、保全サービス立案支援システム、および、保全事業支援システム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019077686A1 (ja) * 2017-10-17 2019-04-25 三菱電機株式会社 エレベータ保守作業支援装置
WO2019229946A1 (ja) * 2018-05-31 2019-12-05 三菱電機ビルテクノサービス株式会社 エレベーターの保守作業支援装置
JPWO2019229946A1 (ja) * 2018-05-31 2020-10-22 三菱電機ビルテクノサービス株式会社 エレベーターの保守作業支援装置
KR20210006466A (ko) * 2018-05-31 2021-01-18 미쓰비시 덴키 빌딩 테크노 서비스 가부시키 가이샤 엘리베이터의 보수 작업 지원 장치
KR102269622B1 (ko) 2018-05-31 2021-06-28 미쓰비시 덴키 빌딩 테크노 서비스 가부시키 가이샤 엘리베이터의 보수 작업 지원 장치
CN109359750A (zh) * 2018-10-15 2019-02-19 北京航空航天大学 一种基于启发式混合博弈的集群视情维修决策方法
CN111445042A (zh) * 2020-03-26 2020-07-24 华润电力技术研究院有限公司 一种电厂设备的检修方法、系统及装置
CN111445042B (zh) * 2020-03-26 2023-07-11 华润电力技术研究院有限公司 一种电厂设备的检修方法、系统及装置

Also Published As

Publication number Publication date
CN102576428A (zh) 2012-07-11
JP5426683B2 (ja) 2014-02-26
JPWO2011036699A1 (ja) 2013-02-14

Similar Documents

Publication Publication Date Title
JP5426683B2 (ja) 保守方策決定装置、方法およびプログラム
US10317864B2 (en) Systems and methods for adaptively updating equipment models
US20140358601A1 (en) Industrial asset health profile
US10852805B2 (en) Data center total resource utilization efficiency (TRUE) system and method
Haddad et al. Using maintenance options to maximize the benefits of prognostics for wind farms
JP2021511006A (ja) 電力網アセットの状態分類を行うための方法および装置
Hassan et al. A risk‐based approach to manage non‐repairable spare parts inventory
Vermeer et al. Asset-management decision-support modeling, using a health and risk model
Huang et al. A two-stage preventive maintenance policy for a multi-state deterioration system
US20040123179A1 (en) Method, system and computer product for reliability estimation of repairable systems
Khoury et al. On the Use of Time‐Limited Information for Maintenance Decision Support: A Predictive Approach under Maintenance Constraints
CN112348277A (zh) 考虑检修策略和设备健康指数的配电网可靠性评估系统
CN117390392A (zh) 楼宇异常用热概率识别方法、系统与存储介质
Cherkaoui et al. On the assessment of performance and robustness of condition-based maintenance strategies
CN117670018A (zh) 汽车制造中的风险预测以及交互式风险减轻的系统及方法
Bloom et al. Optimal replacement of underground distribution cables
CN114996948A (zh) 一种备件订购和设备替换的决策方法
US20140236666A1 (en) Estimating, learning, and enhancing project risk
Huang et al. A Time‐Replacement Policy for Multistate Systems with Aging Components under Maintenance, from a Component Perspective
CN109241605B (zh) 一种考虑状态转移相关性的多状态系统可靠度评估方法
CN105550494B (zh) 一种面向船舶冗余设备的使用辅助决策支持方法及系统
US20150254601A1 (en) Inventory control for non-repairable items based on prognostics and health monitoring data
Takehara et al. A new life-cycle risk map (LCRM) for developing maintenance strategies for transmission equipment
Lesobre et al. A Usage-Informed Preventive Maintenance Policy to Optimize the Maintenance Free Operating Period for Multi-Component Systems
van Hezewijk et al. A new discrete non-stationary demand process with applications in inventory control

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980161629.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09849731

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2011532784

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09849731

Country of ref document: EP

Kind code of ref document: A1