JP2021163259A - 部分抽出装置、部分抽出方法およびプログラム - Google Patents
部分抽出装置、部分抽出方法およびプログラム Download PDFInfo
- Publication number
- JP2021163259A JP2021163259A JP2020065028A JP2020065028A JP2021163259A JP 2021163259 A JP2021163259 A JP 2021163259A JP 2020065028 A JP2020065028 A JP 2020065028A JP 2020065028 A JP2020065028 A JP 2020065028A JP 2021163259 A JP2021163259 A JP 2021163259A
- Authority
- JP
- Japan
- Prior art keywords
- reinforcement learning
- configuration information
- unit
- design
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 142
- 238000000034 method Methods 0.000 claims description 80
- 239000000284 extract Substances 0.000 claims description 27
- 239000000203 mixture Substances 0.000 claims 1
- 238000013461 design Methods 0.000 abstract description 165
- 230000002787 reinforcement Effects 0.000 description 167
- 238000006243 chemical reaction Methods 0.000 description 87
- 238000012545 processing Methods 0.000 description 44
- 239000010410 layer Substances 0.000 description 41
- 230000006870 function Effects 0.000 description 37
- 238000004891 communication Methods 0.000 description 31
- 238000013210 evaluation model Methods 0.000 description 28
- 241000282412 Homo Species 0.000 description 16
- 241000282414 Homo sapiens Species 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 239000004231 Riboflavin-5-Sodium Phosphate Substances 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 11
- 239000004172 quinoline yellow Substances 0.000 description 11
- 239000002346 layers by function Substances 0.000 description 10
- 239000004229 Alkannin Substances 0.000 description 7
- 239000004234 Yellow 2G Substances 0.000 description 6
- 239000004230 Fast Yellow AB Substances 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 5
- 239000002151 riboflavin Substances 0.000 description 3
- 239000004283 Sodium sorbate Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000004299 sodium benzoate Substances 0.000 description 2
- 239000004149 tartrazine Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- -1 E108 Substances 0.000 description 1
- 239000004235 Orange GGN Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 125000000524 functional group Chemical group 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 239000004173 sunset yellow FCF Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/04—Processing captured monitoring data, e.g. for logfile generation
- H04L43/045—Processing captured monitoring data, e.g. for logfile generation for graphical visualisation of monitoring data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/10—Requirements analysis; Specification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/20—Software design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/50—Network service management, e.g. ensuring proper service fulfilment according to agreements
- H04L41/5041—Network service management, e.g. ensuring proper service fulfilment according to agreements characterised by the time relationship between creation and deployment of a service
- H04L41/5054—Automatic deployment of services triggered by the service manager, e.g. service implementation by automatic configuration of network components
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Stored Programmes (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】部分抽出装置が、システムの構成をグラフで示す第一情報を取得する構成情報取得手段と、前記第一情報が示す前記システムの部分の構成をグラフで示す第二情報を抽出する部分構成情報抽出手段と、を備える。
【選択図】図6
Description
また、特許文献2には、ソフトウェアファイルのアーチファクトを有するデータベースにアクセスし、アーチファクトに基づいてソフトウェアファイルのデザインパターンを特定する方法が記載されている。
非特許文献1は、カリキュラム強化学習について開示する。カリキュラム強化学習は、解決すべき難しい問題をはじめから学習するのではなく、簡単な問題から順番に学習するというアプローチを経ることにより、効率よく学習する技術である。係るカリキュラム強化学習は、採り得る解のパターンが多数あることに起因して、学習を繰り返しても報酬が得られる頻度が低いことにより、適切な解を得るための方法がうまく学習できないという課題を解決するための一手段である。
非特許文献2は、特許文献3に示されるような技術において、前記未確定な部分を確定する方法が複数ある場合にいずれかを選択するにあたり、強化学習で学習した結果を用いて有望な方法を選択することで、効率的に前記システム構成情報を生成する技術を開示する。
図1は、実施形態に係る設計システムの装置構成の例を示す概略構成図である。図1に示す構成で、設計システム1は、強化学習装置11と、システム設計装置12とを備える。
図2の例のように、設計システム1が扱うシステム要件はグラフ形式で記述される。記述されたグラフにおいて、ノード、エッジの何れにも属性情報を付加することができる。
なお、設計システム1が用いるシステム要件で、エッジが向きを有していること(図2の例では、エッジが矢印で示されること)は必須ではない。例えば、システム要件が無向グラフを用いて示されていてもよい。
また、エッジにも、そのエッジの抽象度も属性情報として付加されていてもよい。図2の例の場合、エッジE101、E103、E105、E107およびE109は、抽象的なエッジである。一方、エッジE102、E104、E106、E108、E110およびE111は、具体的なエッジである。ここで、抽象的なエッジとは、予め定められた変換規則を少なくとも1回参照することにより、現在よりも具体的な構成を表すエッジに変換できるエッジである。一方、具体的なエッジは、当該変換規則を参照しても、これ以上は具体的な構成を表すエッジには変換することができないエッジである。
図3は、変換規則適用前のシステム要件の例を示す図である。
図3に示されるシステム要件では、ノードN201が示すカメラ機能が、ノードN202が示すワークステーションに接続される。また、ノードN203が示す顔認証機能が、ノードN204が示すワークステーション上で実行される。エッジE201は、ノードN201が示すカメラ機能から、ノードN203が示す顔認証機能へ、HTTPでデータを送信することを示していることとする。
図4では、図3のエッジE201に代えて、エッジE211が設けられている。エッジE211は、ノードN202が示すワークステーションから、ノードN204が示すワークステーションへTCP(Transmission Control Protocol)を用いてデータを送信することを示していることとする。即ち、図4は、図3のシステム要件に対する変換規則の適用により、HTTPを用いた通信が、TCPを用いた通信に具体化する変換が行われたことが表されている。
図5に示す木(Tree)のノードは、システム要件を示すこととする。この場合、エッジは、システム要件に適用される変換規則を示す。なお、図を見やすくするために、木の一部の表記を省略し破線のエッジで示している。
根(Root)であるノードN301は、システム設計装置12に入力されるシステム要件を示す。葉(Leaf)は、適用可能な変換規則がないシステム要件を示す。図5の木が複数の葉を有しているように、システム要件に対してどの変換規則を適用するかによって、さらには、システム要件に複数の変換規則を適用する順番によって、システム設計の結果として得られるシステム要件が異なる。
設計システム1が用いる評価モデルは、特定の方式のモデルに限定されない。例えば、評価モデルがニューラルネットワーク(Neural Network;NN)を用いて構成されていてもよいが、これに限定されない。
第一通信部110は、他の装置と通信を行う。特に、第一通信部110は、上述した評価モデルをシステム設計装置12へ送信する。
第一制御部190は、強化学習装置11の各部を制御して各種処理を実行する。第一制御部190の機能は、強化学習装置11が備えるCPU(Central Processing Unit)が、第一記憶部180からプログラムを読み出して実行することで実行される。
比較的簡単なシステム設計による評価モデルの学習のために、強化学習部191は、システム要件を部分構成情報抽出部192に出力する。部分構成情報抽出部192は、取得したシステム要件が示すシステム構成を分割するなど、システム要件が示すシステムの部分を示すシステム要件を生成し、強化学習部191に出力する。これにより、設計対象システムが簡単化され、エージェントがシステム設計に成功する頻度がより高くなって学習が進むことが期待される。
システムの部分をサブシステムとも称する。
このように、強化学習部191は、第一情報を取得し、部分構成情報抽出部192へ出力する。強化学習部191は、構成情報取得手段の例に該当する。また、部分構成情報抽出部192は、第一情報が示すシステムの部分の構成をグラフで示す第二情報を抽出する。部分構成情報抽出部192は、部分構成情報抽出手段の例に該当する。
強化学習装置11は、部分抽出装置の例に該当する。
第二通信部210は、他の装置と通信を行う。特に、第二通信部210は、上述した評価モデルを強化学習装置11から受信する。
第二制御部290は、システム設計装置12の各部を制御して各種処理を実行する。第二制御部290の機能は、システム設計装置12が備えるCPUが、第二記憶部280からプログラムを読み出して実行することで実行される。
図8の処理で、設計処理部291は、設計対象システムのシステム要件を取得する(ステップS101)。
そして、設計処理部291は、システム要件に適用する変換規則を選択する(ステップS102)。上述したように、設計処理部291は、現在のシステム要件に適用可能な変換規則毎に、変換後のシステム要件を算出し、算出したシステム要件を評価モデルに入力して、変換規則毎に評価値を算出する。設計処理部291は、評価が高い(評価値が大きい)変換規則を優先的に選択する。設計処理部291が、評価が高い変換規則ほど高い確率で選択するようにして、何れか1つの変換規則を確率的に選択するようにしてもよい。
次に、設計処理部291は、システム要件が全て具体化されたか否かを判定する(ステップS111)。例えば、設計処理部291は、システム要件を記述するグラフのノードおよびエッジに付加されている属性情報を参照して、抽象的なノードまたはエッジが残っているか否かを判定する。抽象的なノードまたはエッジが残っていないと判定した場合、設計処理部291は、システム要件が全て具体化されたと判定する。一方、抽象的なノードまたはエッジが残っていると判定した場合、設計処理部291は、システム要件に具体化されていない部分が残っていると判定する。
ステップS121の後、システム設計装置12は、図8の処理を終了する。
適用可能な変換規則があると設計処理部291が判定した場合(ステップS131:YES)、処理がステップS102へ戻る。
ステップ141の後、システム設計装置12は、図8の処理を終了する。
図9の処理で、強化学習部191は、システム設計の初期状態のシステム要件を1つ設定する(ステップS201)。例えば、強化学習部191が、ステップS201の処理を行う毎に、強化学習用に与えられた複数のシステム要件のうち何れか1つを選択して設定するようにしてもよい。
そして、強化学習部191は、評価モデルのパラメータ値を更新する(ステップS204)。強化学習部191は、システム設計に成功した場合に報酬を与え、それ以外の場合は報酬を与えないものとして、強化学習の手法でパラメータ値を更新する。
一方、ステップS205で、学習終了条件が成立していないと判定した場合(ステップS205:NO)、強化学習部191は、システム要件(現在のシステム要件)に適用可能な変換規則があるか否かを判定する(ステップS211)。
一方、ステップS211で、適用可能な変換規則がないと強化学習部191が判定した場合(ステップS211:NO)、処理がステップS201へ戻る。この場合、システム設計は終了しており、強化学習部191は、新たなシステム設計を行って評価モデルを学習する。
そして、強化学習部191は、得られたシステム要件の難しさを評価し(ステップS302)、評価結果に基づいてシステム要件が難しいか否かを判定する(ステップS303)。強化学習部191が、システム要件の難しさを評価する方法は、特定の方法に限定されない。例えば、強化学習部191が、システム要件を示すグラフに含まれるノードの個数など、システム要件を示すグラフの規模が所定の閾値以上である場合に、システム要件が難しいと判定するようにしてもよい。
ステップS3321の後、強化学習装置11は、図10の処理を終了する。
まだ学習が済んでいないシステム要件(部分のシステム要件)があると判定した場合(ステップS313:NO)、処理がステップS312に戻る。この場合、強化学習装置11は、ステップS312で図10の処理を再帰的に実行し、まだ学習が済んでいないシステム要件を、ステップS312で再帰的に実行する図10の処理で、ステップS301で取得するシステム要件として用いる。
一方、ステップS313で、部分のシステム要件を全て学習済みであると判定した場合(ステップS313:YES)、強化学習装置11は、図10の処理を終了する。
例えば、図10の処理の1段目の実行(非再帰的実行)におけるステップS311で、部分構成情報抽出部192がシステムをネットワークドメイン毎に分割するようにしてもよい。そして、図10の処理の2段目の実行(1回の再帰呼び出しによる実行)におけるステップS311で、部分構成情報抽出部192が、システム(の部分)をさらにレイヤ毎に分割するようにしてもよい。これにより、強化学習装置11は、システムをネットワークドメイン毎、かつ、レイヤ毎に分割することができ、システムを分割した個々の部分がより小さくなる。個々の部分が小さいことで、強化学習部191がシステム設計に成功する可能性が比較的高くなり、強化学習が進むことが期待される。
<通信ネットワークの位置に基づくシステム要件の分割>
部分構成情報抽出部が、通信ネットワークの位置を境界としてシステム要件を分割するようにしてもよい。
図11は、ネットワークドメイン毎に分割されたシステム要件の例を示す図である。図11は、図2のグラフ(システム要件)を、部分構成情報抽出部192がネットワークドメイン毎に分割する場合の例を示している。
図2の例では、ノードN106がネットワークを示すノードに該当する。部分構成情報抽出部192は、ノードN106を境界として図2のグラフ(システム要件)を分割することで、図11のシステム要件R101、R102、R103の3つのシステム要件を取得する。
図12の処理で、部分構成情報抽出部192は、WANノードに接続しているエッジを全て抽出する(ステップS401)。ここでいうWANノードは、システム要件を示すグラフのノードのうちWANを示すノードである。図2の例では、ノードN106がWANノードの例に該当し、エッジE104、E106、および、E108が、WANノードに接続しているエッジの例に該当する。
空集合以外で未選択の要素が無いと判定した場合(ステップS403:NO)、強化学習装置11は、図12の処理を終了する。
一方、ステップS403で、未選択の要素があると判定した場合(ステップS403:YES)、部分構成情報抽出部192は、ステップS402で生成した冪集合の要素のうち、空集合以外で未選択の要素を1つ選択する(ステップS411)。
エッジがネットワークドメインを跨ぐか否かについて、部分構成情報抽出部192が、エッジの属性情報を参照して判定するようにしてもよい。例えば、部分構成情報抽出部192が、属性情報として「http」、「TCP」、「IP」の何れかが付加されているエッジを、ネットワークドメインを跨ぐエッジと判断し、それ以外のエッジを、ネットワークドメインを跨がないエッジと判定するようにしてもよい。
そして、部分構成情報抽出部192は、ステップS412で得られたノード、および、ステップS413で得られたエッジを、元のシステム要件における接続関係と同様の接続関係で組み合わせて、システム要件を生成する(ステップS414)。
ステップS414の後、処理がステップS403へ遷移する。
図2および図11の例の場合、部分構成情報抽出部192は、冪集合の要素{E104}に基づいて、システム要件R101を生成する。同様に、部分構成情報抽出部192は、冪集合の要素{E106}に基づいて、システム要件R102を生成する。部分構成情報抽出部192は、冪集合の要素{E108}に基づいて、システム要件R103を生成する。
例えば、強化学習部191が、冪集合の要素のうち要素を1つのみ含む要素に基づくシステム要件の各々を用いて強化学習を行った後、冪集合の要素のうち要素数が最大の要素に基づくシステム要件に基づく強化学習を行うようにしてもよい。冪集合の要素のうち要素数が最大の要素に基づくシステム要件は、システム全体のシステム要件である。
また、部分構成情報抽出部192が、冪集合の要素のうち一部の要素に基づくシステム要件のみを生成するようにしてもよい。
部分構成情報抽出部192が、システムに関して定義されているレイヤに基づいて、システム要件を分割するようにしてもよい。
図13は、レイヤ毎に分割されたシステム要件の例を示す図である。図13の例では、部分構成情報抽出部192は、図2に示されるシステム要件を、機能レイヤ、プラットフォームレイヤ、および、ネットワークレイヤの各々に分割している。システム要件R201は、機能レイヤに含まれるサブシステムのシステム要件である。システム要件R202は、プラットフォームレイヤに含まれるサブシステムのシステム要件である。システム要件R203は、ネットワークレイヤに含まれるサブシステムのシステム要件である。
ただし、部分構成情報抽出部192が用いるレイヤの規定は、特定のものに限定されない。例えば、部分構成情報抽出部192が、OSI参照モデル(Open Systems Interconnection reference model)など公知のレイヤの規定に基づいてシステム要件を分割するようにしてもよい。
例えば、人間が図2に示されるシステム要件を作成する場合に、図13のシステム要件R201のように、各機能を実行するノードおよびノード間の通信を決定し、次に、システム要件R202のように、各機能を構築するためのプラットフォームを決定し、その後、システム要件R203のように、各機能間の通信のための構成を決定することが考えられる。
図14の処理で、部分構成情報抽出部192は、システム要件の分割に用いることに決定したレイヤの集合の冪集合を生成する(ステップS501)。図2および図13の例の場合、レイヤの集合は、{機能レイヤ,プラットフォームレイヤ,ネットワークレイヤ}である。したがって、レイヤの集合の冪集合は{{機能レイヤ,プラットフォームレイヤ,ネットワークレイヤ},{機能レイヤ,プラットフォームレイヤ},{機能レイヤ,ネットワークレイヤ},{プラットフォームレイヤ,ネットワークレイヤ},{機能レイヤ},{プラットフォームレイヤ},{ネットワークレイヤ},φ}である。
空集合以外で未選択の要素が無いと判定した場合(ステップS502:NO)、強化学習装置11は、図14の処理を終了する。
一方、ステップS502で、空集合以外で未選択の要素があると判定した場合(ステップS502:YES)、部分構成情報抽出部192は、ステップS501で生成した冪集合の要素のうち、空集合以外で未選択の要素を1つ選択する(ステップS511)。
次に、部分構成情報抽出部192は、ステップS512で抽出したノード間のエッジを全て抽出する(ステップS513)。
そして、部分構成情報抽出部192は、ステップS512で得られたノード、および、ステップS513で得られたエッジを、元のシステム要件における接続関係と同様の接続関係で組み合わせて、システム要件を生成する(ステップS514)。
ステップS514の後、処理がステップS502へ遷移する。
図2および図13の例の場合、部分構成情報抽出部192は、冪集合の要素{機能レイヤ}に基づいて、システム要件R201を生成する。同様に、部分構成情報抽出部192は、冪集合の要素{プラットフォームレイヤ}に基づいて、システム要件R202を生成する。部分構成情報抽出部192は、冪集合の要素{ネットワークレイヤ}に基づいて、システム要件R203を生成する。
そこで、強化学習部191が、部分構成情報抽出部192が生成するシステム要件を規模の小さい順に用いて、それぞれのシステム要件に基づく強化学習を行うようにしてもよい。これにより、強化学習部191が、サブシステムのシステム要件に基づく強化学習なしに、システム全体のシステム要件に基づく強化学習を行う場合よりも、学習が進むことが期待される。
例えば、強化学習部191が、冪集合の要素のうち要素を1つのみ含む要素に基づくシステム要件の各々を用いて強化学習を行った後、冪集合の要素のうち要素数が最大の要素に基づくシステム要件に基づく強化学習を行うようにしてもよい。冪集合の要素のうち要素数が最大の要素に基づくシステム要件は、システム全体のシステム要件である。
また、部分構成情報抽出部192が、冪集合の要素のうち一部の要素に基づくシステム要件のみを生成するようにしてもよい。
部分構成情報抽出部192がシステム要件のうち抽象的部分を抽出するようにしてもよい。
図15は、システム要件から抽出された抽象的部分の例を示す図である。図15は、部分構成情報抽出部192が、図2に示されるシステム要件のうち抽象的部分を抽出した場合の例を示している。図2の例では、ノードN101、N104、N105およびN107が抽象的なノードに該当し、部分構成情報抽出部192は、これらのノードと、これらのノード間のエッジ(エッジE103、E105およびE107)とを含む部分グラフを抽出している。
強化学習部191が、部分構成情報抽出部192が与えられたシステム要件から抽象的な部分を抽出して生成したシステム要件を用いて強化学習を行った後、元のシステム要件(与えられたシステム要件)を用いて強化学習を行うようにしてもよい。
図16の処理で、部分構成情報抽出部192は、システム要件として与えられたグラフに含まれる抽象的なノードを全て抽出する(ステップS601)。上述したように、図2および図15の例の場合、抽象的なノードは、ノードN101、N104、N105およびN107である。
そして、部分構成情報抽出部192は、ステップS601で得られたノード、および、ステップS602で得られたエッジを、元のシステム要件における接続関係と同様の接続関係で組み合わせて、システム要件を生成する(ステップS603)。
ステップS603の後、強化学習装置11は、図16の処理を終了する。
強化学習部191は、第二情報を用いた比較的簡単な強化学習を行った後、第一情報を用いた比較的複雑な強化学習を行うことができ、第二情報を用いた強化学習なしに第一情報を用いた強化学習を行う場合よりも、学習が進むことが期待される。
部分構成情報抽出部192が、システム要件のうち抽象的部分を抽出することで、システム設計における具体化の対象となる抽象的部分を残して、システムの規模を比較的小さくすることができる。これにより、強化学習部191は、比較的小さい規模のシステム要件を用いて強化学習を行うことができる。この点で、強化学習部191の強化学習が進むことが期待される。
部分構成情報抽出部192が、システム要件(第一情報)に複数の部分抽出方法を適用することで、部分抽出方法を1つのみ適用する場合よりも規模の小さいシステム要件(第二情報)を得られる。これにより、強化学習部191は、比較的小さい規模のシステム要件を用いて強化学習を行うことができる。この点で、強化学習部191の強化学習が進むことが期待される。
かかる構成で、構成情報取得部501は、システムの構成をグラフで示す第一情報を取得する。部分構成情報抽出部502は、第一情報が示すシステムの部分の構成をグラフで示す第二情報を抽出する。
構成情報取得部501は、構成情報取得手段の例に該当する。部分構成情報抽出部502は、部分構成情報抽出手段の例に該当する。
図18に示す処理は、構成情報取得工程(ステップS701)と、部分構成情報抽出工程(ステップS702)と、を含む。
図19に示す構成で、コンピュータ700は、CPU710と、主記憶装置720と、補助記憶装置730と、インタフェース740とを備える。
また、CPU710は、プログラムに従って、第一記憶部180に対応する記憶領域を主記憶装置720に確保する。
第一通信部110による通信は、インタフェース740が通信機能を有し、CPU710の制御に従って通信を行うことで実行される。
また、CPU710は、プログラムに従って、第二記憶部280に対応する記憶領域を主記憶装置720に確保する。
第二通信部210による通信は、インタフェース740が通信機能を有し、CPU710の制御に従って通信を行うことで実行される。
「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM(Compact Disc Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
11 強化学習装置
110 第一通信部
180 第一記憶部
190 第一制御部
191 強化学習部
192、502 部分構成情報抽出部
12 システム設計装置
210 第二通信部
280 第二記憶部
290 第二制御部
291 設計処理部
500 部分抽出装置
501 構成情報取得部
Claims (7)
- システムの構成をグラフで示す第一情報を取得する構成情報取得手段と、
前記第一情報が示す前記システムの部分の構成をグラフで示す第二情報を抽出する部分構成情報抽出手段と、
を備える部分抽出装置。 - 前記部分構成情報抽出手段は、前記システムをネットワークドメインに基づいて分割した部分の少なくとも1つを含む前記部分の構成を示す前記第二情報を抽出する、
請求項1に記載の部分抽出装置。 - 前記部分構成情報抽出手段は、前記システムをレイヤに基づいて分割した部分の少なくとも1つを含む前記部分の構成を示す前記第二情報を抽出する、
請求項1または請求項2に記載の部分抽出装置。 - 前記部分構成情報抽出手段は、前記システムの構成が前記第一情報で抽象的に示されている部分の構成を示す前記第二情報を抽出する、
請求項1から3の何れか一項に記載の部分抽出装置。 - 前記部分構成情報抽出手段は、前記第一情報に第一の部分抽出方法を適用して抽出した部分に、さらに第二の部分抽出方法を適用して前記第二情報を抽出する、
請求項1から4の何れか一項に記載の部分抽出装置。 - システムの構成をグラフで示す第一情報を取得する工程と、
前記第一情報が示す前記システムの部分の構成をグラフで示す第二情報を抽出する工程と、
を含む部分抽出方法。 - コンピュータに、
システムの構成をグラフで示す第一情報を取得する工程と、
前記第一情報が示す前記システムの部分の構成をグラフで示す第二情報を抽出する工程と、
を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020065028A JP7508838B2 (ja) | 2020-03-31 | 部分抽出装置、部分抽出方法およびプログラム | |
US17/205,646 US11431594B2 (en) | 2020-03-31 | 2021-03-18 | Part extraction device, part extraction method and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020065028A JP7508838B2 (ja) | 2020-03-31 | 部分抽出装置、部分抽出方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021163259A true JP2021163259A (ja) | 2021-10-11 |
JP7508838B2 JP7508838B2 (ja) | 2024-07-02 |
Family
ID=
Also Published As
Publication number | Publication date |
---|---|
US20210306237A1 (en) | 2021-09-30 |
US11431594B2 (en) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109508717A (zh) | 一种车牌识别方法、识别装置、识别设备及可读存储介质 | |
JP6151404B1 (ja) | 学習装置、学習方法および学習プログラム | |
CN115018954B (zh) | 图像生成方法、装置、电子设备和介质 | |
CN108537328A (zh) | 用于可视化构建神经网络的方法 | |
JP6491262B2 (ja) | モデル | |
KR102129161B1 (ko) | 컨볼루션 신경망의 하이퍼파라미터를 설정하는 방법 및 이를 수행하는 단말 장치 | |
JPWO2018173108A1 (ja) | 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム | |
CN111143178A (zh) | 用户行为分析方法、装置及设备 | |
JP6325762B1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
KR102189811B1 (ko) | 멀티 홉 이웃을 이용한 컨볼루션 학습 기반의 지식 그래프 완성 방법 및 장치 | |
JP7124957B2 (ja) | 画像処理システム、推定装置、処理方法及びプログラム | |
JP2021081786A (ja) | 推論システム、推論装置、推論方法及び推論プログラム | |
JP7063274B2 (ja) | 情報処理装置、ニューラルネットワークの設計方法及びプログラム | |
CN111950579A (zh) | 分类模型的训练方法和训练装置 | |
JP2023032318A (ja) | 学習方法、情報処理装置、学習プログラム | |
JP5164920B2 (ja) | テストデータ生成方法及び装置及びプログラム | |
JP2021163259A (ja) | 部分抽出装置、部分抽出方法およびプログラム | |
JP7508838B2 (ja) | 部分抽出装置、部分抽出方法およびプログラム | |
KR102079027B1 (ko) | 딥러닝 기술을 이용한 위상최적설계 방법 | |
CN115775024A (zh) | 虚拟形象模型训练方法及装置 | |
CN112232445A (zh) | 多标签分类任务网络的训练方法和装置 | |
CN112419216A (zh) | 图像去干扰方法、装置、电子设备及计算机可读存储介质 | |
CN112686996A (zh) | 游戏山脉地形创建方法、模型训练方法及相关装置 | |
KR102507892B1 (ko) | 객체 상태 인식 방법, 장치 및 컴퓨터 프로그램 | |
US20200151947A1 (en) | Sketch-based 3D Fluid Volume Generation Using A Machine Learning System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240311 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20240408 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240603 |