JP2022072113A - 機械学習プログラム、機械学習方法および情報処理装置 - Google Patents

機械学習プログラム、機械学習方法および情報処理装置 Download PDF

Info

Publication number
JP2022072113A
JP2022072113A JP2020181374A JP2020181374A JP2022072113A JP 2022072113 A JP2022072113 A JP 2022072113A JP 2020181374 A JP2020181374 A JP 2020181374A JP 2020181374 A JP2020181374 A JP 2020181374A JP 2022072113 A JP2022072113 A JP 2022072113A
Authority
JP
Japan
Prior art keywords
layer
data
wiring
machine learning
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020181374A
Other languages
English (en)
Inventor
昇平 山根
Shohei Yamane
広明 山田
Hiroaki Yamada
崇史 山▲崎▼
Takashi Yamazaki
陽一 巨智部
Yoichi Kochibe
敏靖 大原
Toshiyasu Ohara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020181374A priority Critical patent/JP2022072113A/ja
Priority to EP21194780.9A priority patent/EP3992835A1/en
Priority to US17/472,826 priority patent/US11669662B2/en
Publication of JP2022072113A publication Critical patent/JP2022072113A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/36Circuit design at the analogue level
    • G06F30/367Design verification, e.g. using simulation, simulation program with integrated circuit emphasis [SPICE], direct methods or relaxation methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • G06F30/392Floor-planning or layout, e.g. partitioning or placement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • G06F30/398Design verification or optimisation, e.g. using design rule check [DRC], layout versus schematics [LVS] or finite element methods [FEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/10Noise analysis or noise optimisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Architecture (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Design And Manufacture Of Integrated Circuits (AREA)

Abstract

【課題】機械学習に用いる訓練データのデータサイズを抑制する。【解決手段】情報処理装置10は、回路データ13に含まれる複数の層のうち、最外層13a,13fと最外層13a,13fに隣接する層13b,13eとを除く内層13c,13dを特定し、内層13c,13dに含まれる配線14a,14bの長さに基づく値を算出する。情報処理装置10は、最外層13a,13fのパターンに対応する層データ15a,15dと、隣接する層13b,13eのパターンに対応する層データ15b,15cと、配線の長さに基づく値とを含む訓練データ15を生成する。情報処理装置10は、訓練データ15を用いて、モデルの機械学習を実行する。【選択図】図1

Description

本発明は機械学習プログラム、機械学習方法および情報処理装置に関する。
電子回路に電流が流れると、電子回路から電磁波が放射される。電子回路を有する製品は、放射される電磁波の強度が閾値未満であるという規制を受けることがある。そのため、電子回路は、電磁波の規制に抵触しないように設計される。電磁波の強度の指標として、例えば、EMI(Electromagnetic Interference)が用いられる。
設計中に電磁波の強度を推定する方法として、コンピュータが、電磁波の放射態様を解析する物理シミュレーションを行うことがある。しかし、物理シミュレーションは計算負荷が高く、長時間を要することがあるという問題がある。そこで、他の方法として、コンピュータが、機械学習によって生成されたモデルを用いて、回路データから電磁波の強度を推定することがある。モデルは、例えば、深層学習(DL:Deep Learning)によって生成されるニューラルネットワークである。モデルによる推定は物理シミュレーションよりも計算負荷が低く、短時間で推定結果が得られる。
なお、設計中の基板に形成されるパターンを示す基板データと、機械学習により生成されたモデルとを用いて、基板が組み込まれる電子機器のEMC(Electromagnetic Susceptibility)の変動要因を評価する設計支援装置が提案されている。
特開2020-60877号公報 国際公開第2020/095362号
電磁波放射を推定するためのモデルは、訓練データを用いた機械学習により生成される。このとき、モデルへの入力としてどの様なデータを使用するかが重要となる。
電子回路は、N個の層(Nは4より大きい整数)を含むことがある。例えば、電子回路は、配線を含む第1層と、電源層である第2層と、グラウンド(GND)層である第N-1層と、配線を含む第N層とを含むことがある。第2層と第N-1層の間にある内層も、配線を含むことがある。そこで、1つの方法として、コンピュータは、N個の層全ての配線を示す入力データを生成して訓練データとして使用することがある。しかし、N個の層の配線の組み合わせの候補は膨大である。様々な組み合わせをカバーする訓練データを用意すると、訓練データのデータサイズが増大してしまう。
1つの側面では、本発明は、機械学習に用いる訓練データのデータサイズを抑制することを目的とする。
1つの態様では、回路データに含まれる複数の層のうち、最外層と最外層に隣接する層とを除く1以上の内層を特定し、1以上の内層に含まれる配線の長さに基づく値を算出し、最外層のパターンに対応する第1の層データと、隣接する層のパターンに対応する第2の層データと、配線の長さに基づく値とを含む訓練データを生成し、訓練データを用いて、モデルの機械学習を実行する、処理をコンピュータに実行させることを特徴とする機械学習プログラムが提供される。また、1つの態様では、機械学習方法が提供される。また、1つの態様では、記憶部と制御部とを有する情報処理装置が提供される。
1つの側面では、機械学習に用いる訓練データのデータサイズを抑制できる。
第1の実施の形態の情報処理装置を説明するための図である。 第2の実施の形態の情報処理装置のハードウェア例を示す図である。 機械学習を利用した電磁波強度の推定例を示す図である。 6層構造の電子回路の例を示す図である。 内層の配線形状と電磁波強度との関係例を示す図である。 6層の回路データから生成される入力データの例を示す図である。 ニューラルネットワークの入出力データの例を示す図である。 電流分布データの例を示す図である。 機械学習用の回路データの生成例を示す図である。 第2の実施の形態の情報処理装置の機能例を示すブロック図である。 モデル生成の手順例を示すフローチャートである。 電磁波推定の手順例を示すフローチャートである。
以下、本実施の形態を、図面を参照して説明する。まず、第1の実施の形態を説明する。図1は、第1の実施の形態の情報処理装置を説明するための図である。第1の実施の形態の情報処理装置10は、訓練データを生成して機械学習を実行する。情報処理装置10は、クライアント装置でもよいしサーバ装置でもよい。情報処理装置10が、コンピュータまたは機械学習装置と呼ばれてもよい。
情報処理装置10は、記憶部11および制御部12を有する。記憶部11は、RAM(Random Access Memory)などの揮発性半導体メモリでもよい。また、記憶部11は、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性ストレージでもよい。制御部12は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などのプロセッサでもよい。また、制御部12は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの電子回路を含んでもよい。プロセッサは、メモリ(例えば、記憶部11)に記憶されたプログラムを実行する。プロセッサの集合が、マルチプロセッサまたは単に「プロセッサ」と呼ばれてもよい。
記憶部11は、電子回路の物理設計を示す回路データ13を記憶する。回路データ13は、5以上の層それぞれのパターンを含む。パターンは、配線、ビア、導体領域、非導体領域などの面の構造を示す。層の集合は、配線層、グラウンド層(GND層)および電源層を含むことがある。配線層は、導体で形成された配線を含む。配線には電流が流れ得る。配線層の空き領域は、非導体で覆われている。GND層および電源層の空き領域は、導体で覆われている。広い導体領域をもつGND層は、ベタGND層と呼ばれ得る。
N層(Nは4より大きい整数)のうちの最外層、すなわち、第1層および第N層は、配線層である。最外層に隣接する層、すなわち、第2層および第N-1層は、広い導体領域を含む層である。例えば、最外層に隣接する層はそれぞれ、空き領域が導体で覆われたGND層または電源層である。第2層が電源層、第N-1層がGND層であってもよい。
一例として、回路データ13は、6層の電子回路を示す。回路データ13は、第1層~第6層に対応するパターン13a,13b,13c,13d,13e,13fを含む。パターン13aは、最外層であって、配線を含む配線層を示す。パターン13bは、最外層に隣接する層であって、空き領域が導体で覆われた電源層を示す。パターン13cは、内層であって、配線14aを含む配線層を示す。パターン13dは、内層であって、配線14bを含む配線層を示す。ただし、一部の内層が配線を含まなくてもよい。パターン13eは、最外層に隣接する層であって、空き領域が導体で覆われたGND層を示す。パターン13fは、最外層であって、配線を含む配線層を示す。
制御部12は、回路データ13に基づいて訓練データ15を生成する。制御部12は、訓練データ15を用いて、モデルの機械学習を実行する。訓練データ15は、モデルへの入力に相当する特徴データと、モデルの出力の正解に相当する教師データとを含む。特徴データが説明変数と呼ばれることがあり、教師データが目的変数と呼ばれることがある。訓練データ15から生成されるモデルは、回路構造の特徴から、電子回路が放射する電磁波を推定する電磁波推定モデルである。モデルはニューラルネットワークであってもよい。機械学習は深層学習であってもよい。モデルの出力は、例えば、電子回路から所定の距離だけ離れた位置の電磁波の強度である。正解の電磁波の強度は、回路データ13に基づいて実装された電子回路を用いて測定されてもよい。また、正解の電磁波の強度は、物理シミュレーションによって算出されてもよい。
訓練データ15を生成するにあたり、制御部12は、回路データ13に含まれる複数の層のうち、最外層および最外層に隣接する層(表層)を除く内層を特定する。N層のうちの第1層、第2層、第N-1層および第N層が表層であり、第3層から第N-2層までが内層である。制御部12は、内層に含まれる配線の長さに基づく値を算出する。配線の長さに基づく値は、配線長そのものでもよいし、内層の配線長に依存して変化する物理量でもよい。例えば、配線の長さに基づく値は、1以上の表層の電流分布であってもよい。電流分布は、表層および内層の配線から理論的に計算されてもよい。
2以上の内層が配線を含む場合、配線長は、2以上の内層に含まれる配線の長さの合計であってもよい。一例として、制御部12は、回路データ13から内層を示すパターン13c,13dを特定する。制御部12は、パターン13cに含まれる配線14aの長さと、パターン13dに含まれる配線14bの長さとの合計を算出する。
訓練データ15は、入力データとして、層データ15a,15b,15c,15dおよび配線長データ15eを含む。層データ15aは、最外層のパターン13aに対応する。層データ15bは、最外層に隣接する層のパターン13bに対応する。層データ15cは、最外層に隣接する層のパターン13eに対応する。層データ15dは、最外層のパターン13fに対応する。配線長データ15eは、上記の配線の長さに基づく値を含む。
層データ15a,15b,15c,15dは、例えば、配線の位置および形状を示す二次元ビットマップ画像である。二次元ビットマップ画像では、例えば、配線が通る位置の要素が「1」に設定され、他の要素が「0」に設定される。層データ15a,15b,15c,15dは、例えば、縦100×横100の画像データである。
ただし、制御部12は、モデルの精度が向上するように、表層のパターンに対応する画像を編集してもよい。例えば、制御部12は、配線が通る位置の要素を、その配線の長さを表す数値に変更してもよい。このように加工された画像は、配線が長いほど近傍の電磁波の強度が大きいという物理特性を反映している。また、制御部12は、配線の周辺の要素を、配線から遠ざかるにつれて段階的に減衰する数値に変更してもよい。このように加工された画像は、配線の近傍の電磁波の放射態様を反映している。
また、電源層やGND層など広い導体領域を含む表層に対応する二次元ビットマップ画像は、電流が流れる可能性がある経路を表すように生成されてもよい。例えば、制御部12は、隣接する配線層に電流が流れた場合に電源層またはGND層に流れるリターン電流の経路を判定し、リターン経路を表すように、電源層またはGND層に対応する二次元ビットマップ画像を生成する。例えば、層データ15bは、電源層に流れるリターン電流の経路を表す。層データ15cは、GND層に流れるリターン電流の経路を表す。
リターン経路の位置は、隣接する配線層の配線と同じであることがある。結果として、最外層の層データとそれに隣接する層の層データとが同一になることがある。その場合、制御部12は、最外層に隣接する層の層データを訓練データ15から省略してもよい。
訓練データ15に含まれる入力データは、所定数のチャネルを含むテンソルであってもよい。例えば、訓練データ15に含まれる入力データは、層データ15a,15b,15c,15dおよび配線長データ15eに相当するチャネルを含む、縦100×横100×5チャネルのテンソルである。テンソルのサイズは、回路データ13が示す層数に依存せず固定であってもよい。内層が増加しても配線長データ15eのサイズは増大しないため、制御部12は、テンソルのサイズを固定化できる。
ここで、訓練データ15は、内層の配線の形状に関する情報を含まない。これは、最外層に隣接する層が広い導体領域を含む場合、シールド効果により、内層の配線の形状は放射電磁波の強度にあまり影響を与えないためである。ただし、内層の配線長は、表層の電流量に影響を与え、間接的に放射電磁波の強度に影響を与える。そこで、訓練データ15が内層の配線長に関する情報を含むことで、モデルの精度が維持される。
このように、情報処理装置10は、訓練データ15を生成し、回路構造の特徴から電磁波放射を推定するためのモデルを機械学習によって生成する。これにより、情報処理システムは、設計中の電子回路の電磁波放射を推定することができる。このとき、電子回路の設計者は、設計中の電子回路を実装して電磁波強度を測定しなくてもよい。また、情報処理システムは、計算量の大きい電磁波シミュレーションを実行しなくてもよい。よって、設計者は、電磁波放射の情報を迅速に入手できる。
また、訓練データ15は、表層のパターンを示す情報を含む一方、内層のパターンを示す情報を含まない。よって、情報処理装置10は、内層の配線の形状が異なる多数の回路データを用意しなくてもよく、訓練データ15を生成する負担が軽減される。また、訓練データ15のサイズが削減され、機械学習の計算量が削減される。また、モデルへの入力のサイズは、内層の個数に依存せず固定化できる。よって、情報処理システムは、層数が異なる様々な電子回路の電磁波放射の推定に、同一のモデルを利用することができる。
内層の配線の形状は、表層のシールド効果によって、遠方の電磁波強度にあまり影響を与えない。一方、訓練データ15は、内層の配線長に関する情報を含む。よって、訓練データ15から生成されるモデルの精度が維持される。
次に、第2の実施の形態を説明する。図2は、第2の実施の形態の情報処理装置のハードウェア例を示す図である。情報処理装置100は、CPU101、RAM102、HDD103、画像インタフェース104、入力インタフェース105、媒体リーダ106および通信インタフェース107を有する。情報処理装置100は、第1の実施の形態の情報処理装置10に対応する。CPU101は、第1の実施の形態の制御部12に対応する。RAM102またはHDD103は、第1の実施の形態の記憶部11に対応する。
CPU101は、プログラムの命令を実行するプロセッサである。CPU101は、HDD103に記憶されたプログラムおよびデータの少なくとも一部をRAM102にロードし、プログラムを実行する。情報処理装置100は、複数のプロセッサを有してもよい。プロセッサの集合が、マルチプロセッサまたは単に「プロセッサ」と呼ばれてもよい。
RAM102は、CPU101で実行されるプログラムおよびCPU101で演算に使用されるデータを一時的に記憶する揮発性半導体メモリである。情報処理装置100は、RAM以外の種類のメモリを有してもよく、複数のメモリを有してもよい。
HDD103は、OS(Operating System)、ミドルウェア、アプリケーションソフトウェアなどのソフトウェアのプログラム、および、データを記憶する不揮発性ストレージである。情報処理装置100は、フラッシュメモリやSSD(Solid State Drive)など他の種類のストレージを有してもよく、複数のストレージを有してもよい。
画像インタフェース104は、CPU101からの命令に従って、情報処理装置100に接続された表示装置111に画像を出力する。表示装置111は、例えば、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイまたはプロジェクタである。情報処理装置100に、プリンタなど他の種類の出力デバイスが接続されてもよい。
入力インタフェース105は、情報処理装置100に接続された入力デバイス112から入力信号を受け付ける。入力デバイス112は、例えば、マウス、タッチパネル、またはキーボードである。情報処理装置100に複数の入力デバイスが接続されてもよい。
媒体リーダ106は、記録媒体113に記録されたプログラムおよびデータを読み取る読み取り装置である。記録媒体113は、例えば、磁気ディスク、光ディスクまたは半導体メモリである。磁気ディスクには、フレキシブルディスク(FD:Flexible Disk)およびHDDが含まれる。光ディスクには、CD(Compact Disc)およびDVD(Digital Versatile Disc)が含まれる。媒体リーダ106は、記録媒体113から読み取られたプログラムおよびデータを、RAM102やHDD103などの他の記録媒体にコピーする。読み取られたプログラムは、CPU101によって実行されることがある。
なお、記録媒体113は可搬型記録媒体であってもよく、プログラムおよびデータの配布に用いられることがある。また、記録媒体113およびHDD103が、コンピュータ読み取り可能な記録媒体と呼ばれてもよい。
通信インタフェース107は、ネットワーク114に接続される。通信インタフェース107は、ネットワーク114を介して他の情報処理装置と通信する。通信インタフェース107は、スイッチやルータなどの有線通信装置に接続される有線通信インタフェースでもよい。また、通信インタフェース107は、基地局やアクセスポイントなどの無線通信装置に接続される無線通信インタフェースでもよい。
情報処理装置100は、電子回路の設計を支援する。情報処理装置100は、クライアント装置でもよいしサーバ装置でもよい。情報処理装置100は、機械学習によってモデルを生成する。モデルは、電子回路から所定の距離(例えば、10メートル)だけ離れた位置における電磁波の強度を、その電子回路の回路データから推定する。距離は、例えば、電磁波放射に関する各国の規制に応じて設定される。情報処理装置100は、モデルを用いて、設計中の電子回路が放射する電磁波の強度を推定する。
第2の実施の形態では、情報処理装置100が、訓練データの生成、モデルの生成および電磁波強度の推定の3つを全て行っている。ただし、複数の情報処理装置が、訓練データの生成、モデルの生成および電磁波強度の推定を分散して実行してもよい。以下、機械学習を利用した電磁波強度の推定の流れを説明する。
図3は、機械学習を利用した電磁波強度の推定例を示す図である。情報処理装置100は、機械学習のために回路データ131を生成する。回路データ131は、配線の位置および形状を示すパターンを含む。回路データ131が示す配線は、比較的単純な配線でもよい。情報処理装置100は、回路データ131に対して電磁波シミュレーション132を実行し、電磁波データ133を生成する。電磁波シミュレーション132は、回路データ131が示す電子回路に電流が流れた場合に、電子回路から放射される電磁波の強度を算出する物理シミュレーションである。電磁波シミュレーション132の計算量は大きく、実行時間が長くなることがある。
電磁波シミュレーション132は、三次元有限要素法シミュレーションであってもよい。例えば、情報処理装置100は、電子回路が配置された空間を三次元小領域である要素に細分化し、要素の節点に変数を割り当てる。情報処理装置100は、電磁波の物理法則を示す基礎方程式に基づいて、変数間の関係を示す係数行列を生成する。情報処理装置100は、係数行列を用いた行列演算を反復することで、変数の解を求める。
電磁波データ133は、電子回路から所定の距離だけ離れた位置における電磁波強度を示す。電磁波データ133は、異なる周波数に対する電磁波強度を示す。例えば、0GHzから1GHzまでの周波数区間から、0.01GHz間隔で100個の周波数が抽出される。電磁波データ133は、例えば、100個の周波数に対応する100個の電磁波強度の数値を列挙したベクトルデータである。
情報処理装置100は、回路データ131に応じた入力データと、電磁波データ133に応じた教師データとを含む訓練データを生成する。入力データはモデルの説明変数に相当し、教師データはモデルの目的変数に相当する。入力データは、電子回路の配線の特徴を表す特徴データである。情報処理装置100は、電子回路の配線を変更することで、回路データ131と電磁波データ133のペアを複数通り生成する。これにより、情報処理装置100は、十分な量のレコードを含む訓練データを生成する。
情報処理装置100は、生成された訓練データを用いて機械学習134を実行する。機械学習134は、モデル135を生成する深層学習(ディープラーニング)である。モデル135は、ニューラルネットワークであり、例えば、畳み込み演算を含む畳み込みニューラルネットワークである。機械学習134は、誤差逆伝播法を含む。
例えば、情報処理装置100は、訓練データからレコードを選択し、レコードに含まれる入力データをモデル135に入力し、モデル135の出力とレコードに含まれる教師データとの間の誤差を算出する。誤差は、例えば、100個の電磁波強度をそれぞれ列挙したベクトル2つの間の平均二乗誤差である。情報処理装置100は、誤差が小さくなるように、モデル135に含まれるパラメータを更新する。パラメータは、ニューラルネットワークのエッジの重みを含む。情報処理装置100は、モデル135の出力層から入力層に向かって順にエッジの重みの誤差勾配を算出し、誤差勾配に基づいて重みを更新する。これにより、モデル135が生成される。
情報処理装置100は、設計中の電子回路を示す回路データ136をユーザから受け付ける。回路データ136は、配線の位置および形状を示すパターンを含む。回路データ136が示す配線は、回路データ131より複雑な配線でもよい。情報処理装置100は、回路データ136に応じた入力データを生成し、生成された入力データをモデル135に入力して電磁波データ137を生成する。
回路データ136に対応する入力データは、設計中の電子回路の配線の特徴を表す特徴データである。電磁波データ137は、設計中の電子回路が放射する電磁波であって、その電子回路から所定の距離だけ離れた位置における電磁波の強度の推定値を示す。電磁波データ137は、例えば、0GHzから1GHzまでの間の100個の周波数に対応する100個の電磁波強度の数値を列挙したベクトルデータである。
これにより、電子回路の設計者は、電磁波強度を測定するためだけに回路データ136に基づいて電子回路を実装しなくてもよい。また、情報処理装置100は、回路データ136に対して、計算量の大きい電磁波シミュレーション132を実行しなくてもよい。よって、設計者は、様々な設計候補に対して電磁波データを迅速に入手できる。次に、モデル135の入力のサイズを小さくするための訓練データの加工について説明する。
図4は、6層構造の電子回路の例を示す図である。回路データは、第1層から第6層の配線を示すパターン141~146を含む。電子回路において、第1層から第6層は垂直方向に重なっている。第1層が最も上にあり、第6層が最も下にある。第1層は配線層、第2層は電源層、第3層は配線層、第4層は配線層、第5層はGND層、第6層は配線層である。第1層、第2層、第5層および第6層は、表層である。電源層とGND層とに挟まれた第3層および第4層は、内層である。
第1層を示すパターン141は、配線141a,141bを含む。第3層を示すパターン143は、配線143a,143bを含む。第6層を示すパターン146は、配線146aを含む。配線141aと配線143aとは、垂直方向のビアで接続される。配線141bと配線143bとは、垂直方向のビアで接続される。第2層を示す142は、これらビアが通る穴を含む。また、配線143aと配線146aとは、垂直方向のビアで接続される。配線143bと配線146aとは、垂直方向のビアで接続される。第4層を示すパターン144と第5層を示すパターン145は、これらビアが通る穴を含む。
ここで、情報処理装置100は、電子回路の層毎に配線を示す画像データを生成し、画像データの集合をモデルへの入力として定義する方法が考えられる。しかし、この方法では、モデルへの入力のサイズが大きくなる。入力サイズの大きいモデルの精度を上げるためには、情報処理装置100は、訓練データの量を多くすることになる。また、情報処理装置100は、層数の異なる電子回路に対して同一のモデルを利用できない。よって、情報処理装置100は、異なる層数に対応する複数のモデルを生成することになる。
一方、以下に説明するように、内層の配線の形状は、電源層およびGND層によって電磁波がシールドされるため、遠方の電磁波強度にあまり影響を与えない。そこで、情報処理装置100は、内層の配線の情報を簡略化してモデルへの入力を定義する。また、情報処理装置100は、モデルへの入力のサイズを、電子回路の層数に関係なく固定化する。
図5は、内層の配線形状と電磁波強度との関係例を示す図である。第1の回路データは、第1層から第6層に対応するパターン151~156を含む。第2層は電源層であり、第5層はGND層である。パターン151,153,156は配線を含む。グラフ158は、第1の回路データが示す電子回路から放射される電磁波の強度を示す。
一方、第2の回路データは、第1層から第6層に対応するパターン151,152,157,154,155,156を含む。第2の回路データでは、第3層のパターンがパターン153からパターン157に変更されている。他の層のパターンは第1の回路データと同じである。パターン157は、パターン153と異なる形状の配線を含む。ただし、パターン153の配線長とパターン157の配線長は同じである。グラフ159は、第2の回路データが示す電子回路から放射される電磁波の強度を示す。
グラフ158,159に示すように、内層の配線の形状が異なっても、電子回路から離れた遠方の電磁波強度は近似する。内層の配線から生じる電磁波が、第2層および第5層でシールドされるためである。ただし、内層の配線長が異なると、表層の電流分布が変わる。よって、内層の配線長は、間接的に遠方の電磁波強度に影響を与える。そこで、情報処理装置100は、内層に関する情報として配線長の情報を入力データに挿入する。
図6は、6層の回路データから生成される入力データの例を示す図である。情報処理装置100は、前述のパターン141~146から、入力データとしてテンソル160を生成する。テンソル160のサイズは、縦100×横100×5チャネルである。テンソル160は、5つのチャネルに相当する画像データ161~165を含む。
画像データ161は、第1層のパターン141に対応する。画像データ162は、第2層のパターン142に対応する。画像データ163は、第5層のパターン145に対応する。画像データ164は、第6層のパターン146に対応する。画像データ165は、内層である第3層および第4層の配線長を示す。
画像データ161,164は、配線層の配線を示す二次元ビットマップ画像である。情報処理装置100は、パターン141を直交格子状の小領域に分割する。情報処理装置100は、配線が通る小領域に「1」を割り当て、それ以外の小領域に「0」を割り当てる。これにより、要素の値が0または1である画像データ161が生成される。画像データ161は、第1層の配線の位置を示す。また、情報処理装置100は、パターン146から画像データ164を生成する。画像データ164は、第6層の配線の位置を示す。
画像データ162,163は、電源層およびGND層のリターン経路を示す二次元ビットマップ画像である。空き領域が導体で覆われた電源層およびGND層には、隣接する配線層の配線に電流が流れるとリターン電流が流れる。リターン電流が流れるリターン経路の位置および形状は、原則として、隣接する配線層の配線と同じである。ただし、スリットなど非導体の障害物が存在する場合、リターン電流は障害物を迂回するように流れる。
情報処理装置100は、パターン142,145の上でリターン経路を判定する。情報処理装置100は、リターン経路が通る小領域に「1」を割り当て、それ以外の小領域に「0」を割り当てる。これにより、要素の値が0または1である画像データ162,163が生成される。画像データ162は、第2層のリターン経路を示す。画像データ163は、第5層のリターン経路を示す。なお、第1層の画像データ161と第2層の画像データ162とは、同一になることも多い。そこで、情報処理装置100は、テンソル160から画像データ162を省略してもよい。また、第5層の画像データ163と第6層の画像データ164とは、同一になることも多い。そこで、情報処理装置100は、テンソル160から画像データ163を省略してもよい。
画像データ165は、内層である第3層および第4層に含まれる配線の合計の配線長を示す。配線長の情報をテンソル160に組み込むため、画像データ165のサイズは、画像データ161~164と同じである。画像データ165に含まれる全ての要素は、内層の合計の配線長を示す同一の数値である。配線長の指標は、ミリメートルやセンチメートルなど、電子回路における実際の配線の長さであってもよい。また、配線長の指標は、画像データ上で配線が通る要素の個数であってもよい。
ただし、画像データ165に含まれる一部の要素が内層の合計の配線長を示す数値であり、他の要素が0であってもよい。また、情報処理装置100は、画像データ161~164を含むテンソルの他に、追加のスカラ値を入力できるように、ニューラルネットワークの構造を決定してもよい。その場合、情報処理装置100は、配線長の情報のフォーマットを、テンソルに合わせなくてもよい。
なお、情報処理装置100は、要素の値が0または1である画像データ161~164を更に編集してもよい。例えば、情報処理装置100は、配線またはリターン経路を示す値を、その配線またはリターン経路の長さを表す数値に置換してもよい。また、情報処理装置100は、配線またはリターン経路の周辺の要素の値を、配線またはリターン経路から離れるほど段階的に減衰する数値に変換してもよい。このように加工された画像データは、配線またはリターン経路の近傍における電磁波強度を近似する。
このように、モデルに入力されるテンソル160は、表層に関する4つのチャネルと内層に関する1つのチャネルを含む。テンソル160のサイズは、電子回路に含まれる内層の数に依存せず固定であり、よって、電子回路の層数に関係なく固定である。
図7は、ニューラルネットワークの入出力データの例を示す図である。ニューラルネットワーク170は、前述のモデル135の一例である。ニューラルネットワーク170は、入力層と出力層と1以上の中間層とを含む多層ニューラルネットワークである。各層は複数のノードを含む。入力層のノードは、1つ後ろの中間層のノードとの間にエッジをもつ。出力層のノードは、1つ前の中間層のノードとの間にエッジをもつ。中間層のノードは、前後の層のノードとの間にエッジをもつ。エッジには、重みを示すパラメータが割り当てられる。重みは、機械学習を通じて決定される。また、ニューラルネットワーク170は、畳み込み演算を実装した畳み込みニューラルネットワークである。畳み込み演算は、入力テンソルの上でカーネルと呼ばれるフィルタ行列をスライドさせながら積和演算を繰り返し、特徴マップと呼ばれるテンソルを生成する。
ニューラルネットワーク170には、前述のテンソル160に相当するテンソル171が入力される。テンソル171のサイズは、縦100×横100×5チャネルである。また、ニューラルネットワーク170からは、前述の電磁波データ137に相当するテンソル172が出力される。テンソル172のサイズは、縦100×横1×1チャネルである。よって、テンソル172は列ベクトルである。テンソル172は、100個の周波数に対応する100個の電磁波強度の数値を含む。
ニューラルネットワーク170のエッジの重みを決定する機械学習は、誤差逆伝播法によって行われる。誤差逆伝播法は、フォワードフェーズ、バックワードフェーズおよびアップデートフェーズを含む。フォワードフェーズは、訓練データに含まれる入力データを入力層に入力し、入力値に重みを乗じて出力値を算出する計算を入力層から出力層に向かう順方向に行い、出力データを生成する。バックワードフェーズは、出力データと訓練データに含まれる教師データとの間の誤差を算出し、誤差情報を出力層から入力層に向かう逆方向に伝播して、各エッジの重みの誤差勾配を算出する。アップデートフェーズは、誤差勾配と所定の学習率に基づいて重みを更新する。上記のフォワードフェーズ、バックワードフェーズおよびアップデートフェーズが繰り返し実行される。
上記の説明では、情報処理装置100は、内層の配線長に関する情報として、合計の配線長を示す数値をモデルに入力した。これに対して、情報処理装置100は、内層の配線長に依存する物理量をモデルに入力してもよい。情報処理装置100は、内層の配線長に依存する物理量から遠方の電磁波強度を推定するように、モデルを生成できる。以下では、内層の配線長に依存する物理量として、表層の電流分布の例を挙げる。
図8は、電流分布データの例を示す図である。情報処理装置100は、表層の電流分布を、電流シミュレーション182によって算出する。電流シミュレーション182は、電子回路の論理構造の情報から、配線に流れる電流を算出する。電流シミュレーション182には、例えば、SPICE(Simulation Program with Integrated Circuit Emphasis)などのライブラリプログラムが用いられる。
情報処理装置100は、電流シミュレーション182の入力として回路データ181を生成する。回路データ181は、抵抗(R)、コイル(L)、コンデンサ(C)などの電子部品の間の論理的な接続関係を示す二次元データである。回路データ181は、配線の形状や垂直方向の階層などの物理構造の情報を含まなくてよい。電流シミュレーション182は、回路データ181から、配線に流れる電流を算出する。二次元の電流シミュレーション182の計算量は、三次元の電磁波シミュレーション132よりも十分小さい。
情報処理装置100は、電流シミュレーション182の計算結果から画像データ183を生成する。画像データ183は、1つの表層の電流分布を示す。画像データ183は、前述の画像データ161~164と同じ大きさをもつ。情報処理装置100は、配線が通る小領域に対応する要素に、その位置における電流の大きさを示す数値を代入する。また、情報処理装置100は、配線の周辺の小領域に対応する要素に、配線から遠ざかるにつれて段階的に減衰する数値を代入する。一例として、配線が通る要素の電流値が3であり、配線から1つ離れた要素の電流値が2であり、配線から2つ離れた要素の電流値が1であり、配線から3つ離れた要素の電流値が0である。
情報処理装置100は、表層である第1層、第2層、第N-1層および第N層それぞれに対して、電流分布を示す画像データを生成する。情報処理装置100は、配線層である第1層および第N層に対しては、上記のように配線に流れる電流の大きさに基づいて画像データを生成する。一方、電源層である第2層およびGND層である第N-1層には、前述のようにリターン電流が流れる。そこで、情報処理装置100は、第2層および第N-1層に対しては、配線層の電流と整合するようにリターン電流の大きさを判定し、リターン電流の大きさに基づいて画像データを生成する。
内層の配線長の情報として表層の電流分布を使用する場合、例えば、情報処理装置100は、モデルへの入力として縦100×横100×8チャネルのテンソルを生成する。ただし、情報処理装置100は、第1層の電流分布と第2層の電流分布が十分に近似すると仮定して、第2層の電流分布の画像データを省略してもよい。また、情報処理装置100は、第N-1層の電流分布と第N層の電流分布が十分に近似すると仮定して、第N-1層の電流分布の画像データを省略してもよい。
次に、訓練データの生成方法を説明する。情報処理装置100は、第1層、第3層および第6層に配線が含まれる6層構造の電子回路の回路データを生成する。情報処理装置100は、第1層の配線と第6層の配線と第3層の配線長とを変えながら、異なる回路データのサンプルを生成する。情報処理装置100は、これら回路データのサンプルそれぞれに対して、電磁波シミュレーション132を実行して電磁波データを生成する。
図9は、機械学習用の回路データの生成例を示す図である。情報処理装置100は、第1層の配線形状の候補として、配線形状191a,191b,191cなどの50通りの配線形状を用意する。また、情報処理装置100は、第6層の配線の始点の候補として、始点192a,192b,192cなどの10通りの始点を用意する。また、情報処理装置100は、第6層の配線形状の候補として、配線形状193a,193b,193cなどの50通りの配線形状を用意する。また、情報処理装置100は、第3層の配線長の候補として、配線長194a,194b,194cなどの5通りの配線長を用意する。
情報処理装置100は、第1層の配線形状の候補から1つを選択し、第6層の始点の候補から1つを選択し、第6層の配線形状の候補から1つを選択し、第3層の配線長の候補から1つを選択することで、回路データのサンプルを1つ生成する。情報処理装置100は、50×10×50×5=125000個のサンプルを網羅的に生成する。これにより、機械学習のための訓練データが生成される。
なお、第3層の情報として配線長だけでなく配線形状も使用した場合、第3層の情報の候補は50通りになる。その場合、50×10×50×50=1250000個のサンプルが生成される。その結果、訓練データのデータサイズが10倍に増加してしまう。このように、内層の情報を配線長に限定することで、訓練データのデータサイズが小さくなる。
次に、情報処理装置100の機能および処理手順を説明する。図10は、第2の実施の形態の情報処理装置の機能例を示すブロック図である。情報処理装置100は、回路データ記憶部121、電磁波データ記憶部122、訓練データ記憶部123およびモデル記憶部124を有する。上記の記憶部は、例えば、RAM102またはHDD103の記憶領域を用いて実装される。また、情報処理装置100は、回路データ生成部125、シミュレーション部126、訓練データ生成部127、モデル生成部128および電磁波推定部129を有する。上記の処理部は、例えば、プログラムを用いて実装される。
回路データ記憶部121は、機械学習に用いられる回路データのサンプルを記憶する。また、回路データ記憶部121は、設計中の電子回路の回路データを記憶する。電磁波データ記憶部122は、回路データ記憶部121に記憶された回路データのサンプルと対応させて、電子回路から所定の距離だけ離れた位置における電磁波強度を示す電磁波データを記憶する。この電磁波データは、教師データに相当する。
訓練データ記憶部123は、機械学習に用いられる訓練データを記憶する。訓練データは、回路構造を示す入力データと電磁波強度を示す教師データとをそれぞれ対応付けた複数のレコードを含む。モデル記憶部124は、機械学習によって訓練データから生成されたモデルを記憶する。モデルは、ニューラルネットワークである。
回路データ生成部125は、回路データのサンプルを生成して回路データ記憶部121に格納する。回路データ生成部125は、所定の規則に基づいて、第2層が電源層であり第N-1層がGND層である6層以上の回路データを生成する。シミュレーション部126は、回路データ記憶部121に記憶された回路データのサンプルそれぞれに対して電磁波シミュレーションを実行する。電磁波シミュレーションは、例えば、電子回路の周辺の電磁波強度を算出する三次元有限要素法シミュレーションである。シミュレーション部126は、電子回路から所定の距離だけ離れた位置における電磁波強度を示す電磁波データを生成して電磁波データ記憶部122に格納する。
訓練データ生成部127は、回路データ記憶部121に記憶された回路データのサンプルから、表層の配線や内層の配線長を示す入力テンソルを生成する。また、訓練データ生成部127は、電磁波データ記憶部122に記憶された電磁波データから、複数の周波数に対応する複数の電磁波強度を列挙した出力テンソルを生成する。訓練データ生成部127は、入力テンソルと出力テンソルとをそれぞれ対応付けた複数のレコードを含む訓練データを生成し、訓練データを訓練データ記憶部123に格納する。
モデル生成部128は、訓練データ記憶部123に記憶された訓練データを用いて、機械学習によってモデルを生成し、生成されたモデルをモデル記憶部124に格納する。モデルはニューラルネットワークであり、機械学習は深層学習である。機械学習では、誤差逆伝播法によってニューラルネットワークに含まれる重みが決定される。
電磁波推定部129は、回路データ記憶部121から設計中の電子回路の回路データを読み出す。電磁波推定部129は、訓練データ生成部127と同様の方法で、回路データから入力テンソルを生成する。電磁波推定部129は、モデル記憶部124に記憶されたモデルに入力テンソルを入力し、電磁波強度を示す出力テンソルを取得する。電磁波推定部129は、推定された電磁波強度を示す電磁波データを出力する。電磁波推定部129は、推定の電磁波データを表示装置111に表示してもよい。また、電磁波推定部129は、推定の電磁波データを電磁波データ記憶部122に保存してもよい。また、電磁波推定部129は、推定の電磁波データを他の情報処理装置に送信してもよい。
図11は、モデル生成の手順例を示すフローチャートである。回路データ生成部125は、第1層、第3層および第6層が配線を含み、第2層が電源層であり、第5層がGND層である6層構造の回路データを複数通り生成する。この回路データは、第1層の配線形状、第6層の配線の始点、第6層の配線形状および第3層の配線長を選択することで生成される(S10)。シミュレーション部126は、ステップS10で生成された回路データそれぞれに対して、三次元有限要素法の電磁波シミュレーションを実行する。これにより、シミュレーション部126は、各回路データに対して、電子回路から所定の距離だけ離れた位置における電磁波強度を示す電磁波データを生成する(S11)。
訓練データ生成部127は、ステップS10で生成された回路データを1つ選択する。訓練データ生成部127は、選択した回路データが示す第1層および第6層それぞれのパターンから、配線を示す画像データを生成する(S12)。訓練データ生成部127は、選択した回路データが示す第2層および第5層それぞれのパターンからリターン経路を判定し、リターン経路を示す画像データを生成する(S13)。
訓練データ生成部127は、内層である第3層に含まれる配線の配線長を算出する(S14)。訓練データ生成部127は、内層の配線長に応じた画像データを生成する。例えば、訓練データ生成部127は、全ての要素が配線長を示す数値である画像データを生成する。また、例えば、訓練データ生成部127は、第1層、第2層、第5層および第6層の電流分布を算出する電流シミュレーションを実行し、電流シミュレーションによって算出された電流分布を示す画像データを生成する(S15)。
訓練データ生成部127は、ステップS12,S13,S15の画像データを含むテンソルを生成する。訓練データ生成部127は、回路画像のテンソルと、選択した回路データからステップS11で生成された電磁波データとを対応付けて訓練データに追加する。訓練データ生成部127は、ステップS12で全ての回路データを選択したか判断する。全ての回路データを選択した場合はステップS17に進み、未選択の回路データがある場合はステップS12に戻る(S16)。
モデル生成部128は、訓練データから回路画像のテンソルと電磁波データのペアを抽出する。モデル生成部128は、回路画像のテンソルをモデルに入力し、モデルが出力する推定電磁波強度を取得する。モデル生成部128は、訓練データから抽出した電磁波データが示す正解の電磁波強度と推定電磁波強度との間の誤差を算出する(S17)。モデル生成部128は、誤差が小さくなるようにモデルのパラメータを更新する(S18)。
モデル生成部128は、ステップS17,S18のイテレーションが所定回数に達したか判断する。イテレーションが所定回数に達した場合、モデル生成部128は、モデルを保存して機械学習を終了する。イテレーションが所定回数に達していない場合、ステップS17に戻る(S19)。なお、イテレーション回数以外の停止条件が設定されてもよい。例えば、誤差が閾値未満に低下したことが停止条件であってもよい。
図12は、電磁波推定の手順例を示すフローチャートである。電磁波推定部129は、設計中の電子回路の回路データであって、N層(Nは4以上の整数)の回路データを取得する(S20)。電磁波推定部129は、取得した回路データが示す第1層および第N層それぞれのパターンから、配線を示す画像データを生成する(S21)。電磁波推定部129は、取得した回路データが示す第2層および第N-1層それぞれのパターンからリターン経路を判定し、リターン経路を示す画像データを生成する(S22)。
電磁波推定部129は、内層である第3層から第N-2層に含まれる配線の配線長を算出する。ただし、N=4である場合のように内層が存在しない場合、配線長は0である(S23)。電磁波推定部129は、内層の配線長に応じた画像データを生成する。例えば、電磁波推定部129は、全ての要素が配線長を示す数値である画像データを生成する。また、例えば、電磁波推定部129は、第1層、第2層、第5層および第6層の電流分布を算出する電流シミュレーションを実行し、電流シミュレーションによって算出された電流分布を示す画像データを生成する(S24)。
電磁波推定部129は、ステップS21,S22,S24の画像データを含むテンソルを生成する。電磁波推定部129は、テンソルをモデルに入力して電磁波強度を推定する(S25)。電磁波推定部129は、推定電磁波強度を示す電磁波データを出力する。例えば、電磁波推定部129は、電磁波データを表示装置111に表示する(S26)。
このように、第2の実施の形態の情報処理装置100は、機械学習により、電子回路のパターンを示す画像データから電磁波強度を推定するためのモデルを生成する。そして、情報処理装置100は、生成されたモデルを用いて、設計中の電子回路の電磁波強度を推定する。これにより、電子回路の設計者は、設計中の電子回路を実装して電磁波強度を測定しなくてもよい。また、情報処理装置100は、設計中の電子回路に対して、計算量の大きい電磁波シミュレーションを実行しなくてもよい。よって、設計者は、電磁回路の様々な設計に対して、電磁波強度の情報を迅速に入手することができる。
また、モデルへの入力は、表層のパターンを示す画像データを含む一方、内層のパターン自体を示す画像データを含まない。よって、情報処理装置100は、機械学習の際に、内層の配線形状が異なる多数の回路データのサンプルを生成しなくてもよく、訓練データを生成する負担が軽減される。また、訓練データのデータサイズが削減され、機械学習の計算量が削減される。また、モデルへの入力サイズは、内層の数に依存せず固定化される。よって、情報処理装置100は、層数が異なる様々な電子回路の電磁波放射の推定に、同一のモデルを利用することができる。また、内層の配線形状は、表層のシールド効果によって、遠方の電磁波強度にあまり影響を与えない。一方、訓練データは、遠方の電磁波強度に間接的に影響を与える内層の配線長の情報を含む。よって、モデルの精度が維持される。
10 情報処理装置
11 記憶部
12 制御部
13 回路データ
13a,13b,13c,13d,13e,13f 層
14a,14b 配線
15 訓練データ
15a,15b,15c,15d 層データ
15e 配線長データ

Claims (7)

  1. 回路データに含まれる複数の層のうち、最外層と前記最外層に隣接する層とを除く1以上の内層を特定し、前記1以上の内層に含まれる配線の長さに基づく値を算出し、
    前記最外層のパターンに対応する第1の層データと、前記隣接する層のパターンに対応する第2の層データと、前記配線の長さに基づく値とを含む訓練データを生成し、
    前記訓練データを用いて、モデルの機械学習を実行する、
    処理をコンピュータに実行させることを特徴とする機械学習プログラム。
  2. 前記訓練データは、前記最外層に対応する第1のチャネルおよび第2のチャネルと、前記隣接する層に対応する第3のチャネルおよび第4のチャネルと、前記配線の長さに基づく値を示す第5のチャネルとを含む入力テンソルを含む、
    ことを特徴とする請求項1に記載の機械学習プログラム。
  3. 前記配線の長さに基づく値は、前記最外層および前記隣接する層のうちの1以上の層において、前記配線の長さに依存して生じる電流分布を示す、
    ことを特徴とする請求項1に記載の機械学習プログラム。
  4. 前記モデルへの入力のサイズは、前記回路データの層数に依存せず固定である、
    ことを特徴とする請求項1に記載の機械学習プログラム。
  5. 前記最外層は配線を含み、前記隣接する層は電源層またはグラウンド層である、
    ことを特徴とする請求項1に記載の機械学習プログラム。
  6. 回路データに含まれる複数の層のうち、最外層と前記最外層に隣接する層とを除く1以上の内層を特定し、前記1以上の内層に含まれる配線の長さに基づく値を算出し、
    前記最外層のパターンに対応する第1の層データと、前記隣接する層のパターンに対応する第2の層データと、前記配線の長さに基づく値とを含む訓練データを生成し、
    前記訓練データを用いて、モデルの機械学習を実行する、
    処理をコンピュータが実行することを特徴とする機械学習方法。
  7. 複数の層を含む回路データを記憶する記憶部と、
    前記複数の層のうち最外層と前記最外層に隣接する層とを除く1以上の内層を特定し、前記1以上の内層に含まれる配線の長さに基づく値を算出し、前記最外層のパターンに対応する第1の層データと、前記隣接する層のパターンに対応する第2の層データと、前記配線の長さに基づく値とを含む訓練データを生成し、前記訓練データを用いて、モデルの機械学習を実行する制御部と、
    を有することを特徴とする情報処理装置。
JP2020181374A 2020-10-29 2020-10-29 機械学習プログラム、機械学習方法および情報処理装置 Pending JP2022072113A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020181374A JP2022072113A (ja) 2020-10-29 2020-10-29 機械学習プログラム、機械学習方法および情報処理装置
EP21194780.9A EP3992835A1 (en) 2020-10-29 2021-09-03 Machine learning program, machine learning method, and computing system
US17/472,826 US11669662B2 (en) 2020-10-29 2021-09-13 Machine learning method and computing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020181374A JP2022072113A (ja) 2020-10-29 2020-10-29 機械学習プログラム、機械学習方法および情報処理装置

Publications (1)

Publication Number Publication Date
JP2022072113A true JP2022072113A (ja) 2022-05-17

Family

ID=77640440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020181374A Pending JP2022072113A (ja) 2020-10-29 2020-10-29 機械学習プログラム、機械学習方法および情報処理装置

Country Status (3)

Country Link
US (1) US11669662B2 (ja)
EP (1) EP3992835A1 (ja)
JP (1) JP2022072113A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024101100A1 (ja) * 2022-11-11 2024-05-16 国立大学法人 東京大学 学習方法、情報処理システム、プログラム及び学習モデル

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11366948B2 (en) * 2019-10-18 2022-06-21 Synopsys, Inc. Machine-learning enhanced compiler
JP2022072307A (ja) * 2020-10-29 2022-05-17 富士通株式会社 訓練データ生成プログラム、訓練データ生成方法および情報処理装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3838328B2 (ja) 2000-02-28 2006-10-25 日本電気株式会社 設計支援装置および設計支援装置に含まれるコンピュータに実行させるためのプログラムを記録したコンピュータ読みとり可能な記録媒体
JP2005251839A (ja) 2004-03-02 2005-09-15 Fuji Electric Holdings Co Ltd 電力用半導体モジュールの絶縁基板
US20070249071A1 (en) 2006-04-21 2007-10-25 Lei Lian Neural Network Methods and Apparatuses for Monitoring Substrate Processing
JP6349871B2 (ja) * 2014-03-31 2018-07-04 富士通株式会社 基板設計支援プログラム、基板設計支援方法、及び基板設計支援装置
US10706197B2 (en) * 2018-05-24 2020-07-07 Hitachi, Ltd. Automated electromagnetic interference filter design
JP7099236B2 (ja) 2018-10-05 2022-07-12 富士通株式会社 推定プログラム、推定装置および推定方法
WO2020095362A1 (ja) 2018-11-06 2020-05-14 三菱電機株式会社 設計支援装置、設計支援方法および機械学習装置
US20220027536A1 (en) * 2018-11-26 2022-01-27 Agency For Science, Technology And Research Method and system for generating training data for a machine learning model for predicting performance in electronic design
CN111339695B (zh) * 2018-12-18 2023-07-25 富士通株式会社 用于电磁场仿真的装置和方法
JP6599067B1 (ja) 2019-01-28 2019-10-30 三菱電機株式会社 装置状態再現装置、装置状態再現方法および装置状態再現プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024101100A1 (ja) * 2022-11-11 2024-05-16 国立大学法人 東京大学 学習方法、情報処理システム、プログラム及び学習モデル

Also Published As

Publication number Publication date
US20220138381A1 (en) 2022-05-05
US11669662B2 (en) 2023-06-06
EP3992835A1 (en) 2022-05-04

Similar Documents

Publication Publication Date Title
JP2022072113A (ja) 機械学習プログラム、機械学習方法および情報処理装置
US20190361808A1 (en) Cache configuration performance estimation
TWI384379B (zh) 用於評估在實體系統中所產生之波傳播的電腦實施方法和裝置及電腦可讀儲存媒體
JP2006053908A (ja) シミュレーション手法
US11630933B2 (en) Training data generating method and computing system
US7765497B2 (en) Circuit network analysis using algebraic multigrid approach
US11636238B2 (en) Estimating noise characteristics in physical system simulations
JP6788187B2 (ja) シミュレーションプログラム、シミュレーション方法および情報処理装置
JP5872324B2 (ja) メッシュ生成装置
US20030109995A1 (en) Method of deducing equivalent circuit and system for the same
US10311189B2 (en) Simulation method and simulation apparatus
US8380468B1 (en) Methods for facilitating specification allocation of hierarchical systems
US20160224707A1 (en) Apparatus and method for magnetic field simulation
US20180137228A1 (en) Simulation assist apparatus and simulation assist method
CN116090396B (zh) 显示芯片设计的数据流的方法及相关设备
JP2011198143A (ja) 設計支援プログラム、設計支援装置および設計支援方法
JP6829385B2 (ja) 磁性材料シミュレーションプログラム、磁性材料シミュレーション方法および磁性材料シミュレーション装置
JP5509952B2 (ja) シミュレーション方法、シミュレーション装置、プログラム、及び記憶媒体
JP4266362B2 (ja) 電磁界シミュレータおよび電磁界シミュレートプログラム
JP2016126557A (ja) シミュレーションプログラム、シミュレーション装置およびベクトル表示方法
JP6978689B2 (ja) 磁気シミュレーションプログラム、磁気シミュレーション方法、および磁気シミュレーション装置
JP7373475B2 (ja) 解析装置、解析方法及びプログラム
JP7089174B2 (ja) 連立方程式処理装置、連立方程式処理方法および連立方程式処理プログラム
JP6421447B2 (ja) 解析装置、解析プログラム、および解析方法
JP2007241802A (ja) 基板設計支援装置、プリント基板、基板設計支援プログラムおよび基板設計支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240627