JP7069435B1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP7069435B1
JP7069435B1 JP2021563348A JP2021563348A JP7069435B1 JP 7069435 B1 JP7069435 B1 JP 7069435B1 JP 2021563348 A JP2021563348 A JP 2021563348A JP 2021563348 A JP2021563348 A JP 2021563348A JP 7069435 B1 JP7069435 B1 JP 7069435B1
Authority
JP
Japan
Prior art keywords
numerical data
information processing
image data
data
symbol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021563348A
Other languages
English (en)
Other versions
JPWO2022254528A1 (ja
Inventor
佑介 山梶
邦彦 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP7069435B1 publication Critical patent/JP7069435B1/ja
Publication of JPWO2022254528A1 publication Critical patent/JPWO2022254528A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes

Abstract

情報処理装置(1)は、特定空間における少なくとも1つの数値データ(Nm11)の分布を表現する画像データ(Im1)を処理する。情報処理装置(1)は、記憶部(30)と、推論部(20)とを備える。記憶部(30)には、画像認識プログラムが保存されている。推論部(20)は、画像認識プログラムを実行することにより画像データ(Im1)から少なくとも1つの数値データ(Nm11)に関する特定情報(Ft)を抽出する。少なくとも1つの数値データ(Nm11)の各々に対応する外観を有するシンボルは、特定空間において当該数値データ(Nm11)が関連付けられる位置に配置されている。

Description

本開示は、画像データに関する処理を行う情報処理装置に関する。
従来、画像データに関する処理を行う情報処理装置が知られている。たとえば、特開2018-92453号公報(特許文献1)には、複数のセンサデータの数値に基づいた画素情報を統合することによって生成された画像データに教師ラベルを付与することによって学習用データを生成し、当該学習データに対する機械学習によって学習モデルを生成する学習装置が開示されている。当該学習装置によれば、複数の数値データをまとめて分析しやすい形式に変換するとともに、複数の数値データを機械学習によって一度に学習することができる。
特開2018-92453号公報
特許文献1に開示されている複数のセンサは、様々な位置に配置されている。複数のセンサによってそれぞれ取得される複数のセンサデータの各々と、当該センサデータに対応するセンサの位置との関連性は、複数のセンサデータから生成される学習用データに固有の特徴になり得る。しかし、特許文献1においては、複数のセンサの位置情報を学習用データに反映させることについて考慮されていない。
本開示は、上述のような課題を解決するためになされたものであり、その目的は、数値データと位置情報との関連性を画像データに対する処理へ反映することを、当該処理を行う情報処理装置によって簡易に実現することである。
本開示の一局面に係る情報処理装置は、特定空間における少なくとも1つの数値データの分布を表現する画像データを処理する。情報処理装置は、記憶部と、推論部とを備える。記憶部には、画像認識プログラムが保存されている。推論部は、画像認識プログラムを実行することにより画像データから少なくとも1つの数値データに関する特定情報を抽出する。少なくとも1つの数値データの各々に対応する外観を有するシンボルは、特定空間において当該数値データが関連付けられる位置に配置されている。
本開示の他の局面に係る情報処理装置は、特定空間における少なくとも1つの数値データの分布を表現する画像データを処理する。情報処理装置は、記憶部と、学習部とを備える。記憶部には、画像データから少なくとも1つの数値データに関する特定情報を抽出する画像認識モデルが保存されている。学習部は、画像認識モデルを学習済みモデルとする。少なくとも1つの数値データの各々に対応する外観を有するシンボルは、特定空間において当該数値データが関連付けられる位置に配置されている。
本開示に係る情報処理装置によれば、少なくとも1つの数値データの各々に対応する外観を有するシンボルが特定空間において当該数値データが関連付けられる位置に配置されていることにより、数値データと位置情報との関連性を画像データに対する処理へ反映することを、当該処理を行う情報処理装置によって簡易に実現することができる。
実施の形態1に係る情報処理装置の機能構成を示すブロック図である。 図1の情報処理装置によって処理される画像データの一例である画像データを示す図である。 空調機および複数の温度センサが配置された、3次元空間である空調空間を示す図である。 プリント基板に構成される回路の一例である降圧チョッパ回路の回路構成を示す図である。 図4の降圧チョッパ回路に対応する画像データの一例である画像データを示す図である。 図4の降圧チョッパ回路に対応する画像データの他の例である画像データを示す図である。 図1の情報処理装置のハードウェア構成を示すブロック図である。 実施の形態1の変形例1に係る情報処理装置の機能構成を示すブロック図である。 図8の情報処理装置のハードウェア構成を示すブロック図である。 実施の形態1の変形例2に係る情報処理装置の機能構成を示すブロック図である。 図10の情報処理装置のハードウェア構成を示すブロック図である。 実施の形態2に係る情報処理装置の機能構成を示すブロック図である。 図12の情報処理装置のハードウェア構成を示すブロック図である。 図12の数値データセットの一例を示す図である。 或るパラメータと目標値との対応関係を示す散布図である。 他のパラメータと目標値との対応関係を示す散布図である。 2つのパラメータの対応関係を示す散布図である。 等高線の一例を示す図である。 ヒストグラムの一例を示す図である。 複数の数値データから形成された散布図、および当該散布図の最大値となる包絡線である直線と、最小値となる包絡線である直線とを併せて示す図である。 複数の数値データから形成された散布図、および当該散布図の最大値となる包絡線である放物線と、最小値となる包絡線である放物線とを併せて示す図である。 図12の推論部によって行われる処理の一例を示すフローチャートである。 実施の形態3に係る情報処理装置の機能構成を示すブロック図である。 図23の情報処理装置のハードウェア構成を示すブロック図である。 画像認識モデルに入力される信号が更新信号によって更新される様子を模式的に示す図である。 手書き数字の分類問題であるMNISTの画像データが更新された様子を示す図である。 実施の形態4に係るシンボルの一例であるシンボルの構成を示す図である。 実施の形態4に係るシンボルの他の例であるシンボルの構成を示す図である。 実施の形態5に係る情報処理装置の機能構成を示すブロック図である。 図29の情報処理装置のハードウェア構成を示すブロック図である。 実施の形態7に係る情報処理装置の機能構成を示すブロック図である。 図31の情報処理装置のハードウェア構成を示すブロック図である。 分布が偏っている散布図の一例を示す図である。 一様分布の一例を示す図である。 実施の形態8に係る情報処理装置の機能構成を示すブロック図である。 図35の情報処理装置のハードウェア構成を示すブロック図である。 学習済みとされた図35の画像生成モデルを用いて生成された、電子回路の一部であるノイズフィルタの画像データを示す図である。 学習済みとされた図35の画像生成モデルによって生成された、ノイズフィルタの他の画像データを示す図である。
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付してその説明は原則として繰り返さない。
実施の形態1.
図1は、実施の形態1に係る情報処理装置1の機能構成を示すブロック図である。図1に示されるように、情報処理装置1は、学習部10と、推論部20と、記憶部30とを備える。記憶部30には、画像認識モデルθ1が保存されている。情報処理装置1には、画像データが入力される。図1には、当該画像データの例として、画像データIm1,Im2が示されている。画像データIm1は学習部10に入力され、画像データIm2は推論部20に入力される。
学習部10は、画像データIm1を含む学習データLd1を用いた機械学習により、画像認識モデルθ1を学習済みモデルとする。画像データIm1は、複数のソースデータSd11~Sd1J(Jは2以上の自然数)にそれぞれ対応する複数のシンボルSy11~Sy1Jを含む。ソースデータSd1j(jは1以上J以下の自然数)は、数値データNm1jと、種類データTy1jと、位置データPs1jとを含む。シンボルSy1jの外観は、数値データNm1jおよび種類データTy1jによって決定される。画像データIm1におけるシンボルSy1jの位置は、ソースデータSd1jにおいて数値データNm1jに関連付けられた位置データPs1jによって決定される。画像データIm1は、特定空間における複数の数値データNm11~Nm1Jの分布を表現する。なお、学習データLd1に含まれる画像データに対応する複数のソースデータの数は、自然数Jに限定されない。
画像認識モデルθ1は、画像データIm1と同様の、複数のソースデータに対応する画像データから当該複数のソースデータによって特徴付けられる特定情報を抽出する。具体的には、画像認識モデルθ1は、たとえば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)、MLP(Multi-Layer Perceptron)、RNN(Recurrent Neural Network)、注意喚起(Attention)機構を有するモデル、注意喚起の応用であるViT(Vision Transformer)、グラフニューラルネットワーク(GNN:Graph Neural Network)あるいはその応用のグラフ畳み込みニューラルネットワーク(GCN:Graph Convolutional Neural Network)などのニューラルネットワーク、勾配ブースティング決定木(GBDT:Gradient Boosting Decision Tree)、またはサポートベクターマシン(SVC:Support Vector Classification)を含む。畳み込みニューラルネットワークは、たとえば残差ネットワーク(ResNet:Residual Network)、VGGNet(Very Deep Convolutional Network)、またはEfficientNetを含む。
学習部10は、たとえば、CNN、MLP、またはRNNに対する深層学習、または勾配ブースティング決定木に対する勾配ブースティング法のような機械学習アルゴリズムを画像認識モデルθ1に対して行う。ただし、学習部10は、学習処理を行う前に学習データLd1に含まれる複数の画像データの各々に含まれるシンボルの情報を読み取る前処理、当該シンボルの輪郭線を抽出する前処理、またはエラー要因となるノイズ成分を除去する前処理を行ってもよい。学習部10は、前処理の結果に応じて、学習処理を変更してもよい。たとえば、画像認識モデルθ1がCNNを含む場合、CNNのフィルタの大きさを学習データLd1に含まれるシンボルの大きさに応じて変更してもよい。一般的なCNNのフィルタの大きさは3×3または5×5等が用いられる場合が多い。ただし、CNNがチャネル方向にM(Mは自然数)層を有する場合には1×1×Mのフィルタも用いられる。フィルタサイズは、7×7または9×9などのようにサイズが大きくなるほど画像内の広域の情報を読み取ることができるが、フィルタサイズにより計算量が指数関数的に大きくなる。そのため、フィルタサイズを小さくする一方で隠れ層の総数を増やして画像内の広域の特徴量を抽出することが一般的である。画像認識モデルθ1に含まれるCNNのフィルタの大きさは、当該シンボルの大きさと同等かそれ以上の大きさのフィルタであることが望ましい。ただし、CNNのフィルタが大きくなると学習処理の計算量が急激に増大するため、3層以上の隠れ層(hidden layer)を設けることが可能であるなら、当該シンボルの大きさよりも小さなフィルタが画像認識モデルθ1のCNNにおいて用いられてもよい。これは、CNNの出力層に近づくにつれて、隠れ層の各々において活性化関数を設けることによって画像データがぼやけるという効果が発生し、その結果、CNNのフィルタのサイズが比較的大きい場合と同じ効果を実現することができるためである。また、比較的小さなフィルタを用いることによって、画像データの細部まで分析することができるため、計算リソースを確保することが可能であれば、当該小さなフィルタを用いてCNNを多層化することが望ましい。
学習部10が行う学習処理が教師あり学習である場合、学習データLd1に含まれる画像データに正解として関連付けられる正解データはどのようなデータであってもよい。たとえば、室内空間(特定空間)の温湿度センサによって測定される温度および湿度をシンボルとして含む画像データが画像認識モデルθ1の入力データであり、当該室内空間におけるユーザの快適さの指標が画像認識モデルθ1の出力データである場合、学習データLd1に含まれる画像データは温湿度センサによって測定される数値データの分布に対応する。当該画像データは、当該温湿度センサの当該室内空間における位置に配置されたシンボルを含む。当該画像データに関連付けられる正解データは当該指標値である。このような画像データと正解データとの組合せ(教師データ)は、少なくとも100個以上必要であり、好ましくは1万個以上用意されていることが望ましい。学習データLd1に含まれる画像データにおいて表現される空間(特定空間)は2次元空間である必要はなく3次元以上の空間であってもよい。ただし、学習処理として半教師学習が行われる場合においては、画像データよりも正解データが少なくともよい。また、学習処理として自己教師学習などのクラスタリングを行う教師なし学習の場合においては、画像データだけであってもよい。半教師学習およびクラスタリングを行う教師なし学習の各々において、100個以上のデータを用意することが望ましい。
学習データLd1に含まれる画像データとしては、たとえば、工場内の無線機器の配置、受信感度、送信出力を数値データとして当該無線機器の工場内の位置に当該数値データに対応するシンボルが配置された画像データであってもよい。この場合、当該画像データから画像認識モデルθ1によって推論されるデータは、工場内の特定位置での無線環境データであってもよい。さらに、プリント基板上の複数のIC(Integrated Circuit)、または回路部品の各々に対応する数値データをシンボルとして含む画像データが画像認識モデルθ1に入力される場合、それらがプリント基板に実装されたときのICの出力、またはプリント基板の外部に伝導する信号または空間を伝わる信号として伝搬する信号量の目標値を正解データとしてもよい。
画像データIm2は、複数のソースデータSd21~Sd2K(Kは2以上の自然数)にそれぞれ対応する複数のシンボルSy21~Sy2Kを含む。ソースデータSd2k(kは1以上K以下の自然数)は、数値データNm2kと、種類データTy2kと、位置データPs2kとを含む。シンボルSy2kの外観は、ソースデータSd2kの数値データNm2kおよび種類データTy2kによって決定される。画像データIm2におけるシンボルSy2kの位置は、ソースデータSd2kにおいて数値データNm2kに関連付けられた位置データPs2kによって決定される。画像データIm2は、特定空間における複数の数値データNm21~Nm2Kの分布を表現する。
推論部20は、学習済みの画像認識モデルθ1を用いて、画像データIm2から、複数のソースデータSd21~Sd2Mによって特徴付けられる特定情報Ftを抽出し、特定情報Ftを出力する。たとえば、推論部20は、情報処理装置1の入出力部(図1においては不図示)に特定情報Ftを出力してもよい。なお、推論部20に入力される画像データに対応する複数のソースデータの数は、自然数Kに限定されない。
図2は、図1の情報処理装置1によって処理される画像データの一例である画像データIm10を示す図である。図2に示されるように、画像データIm10は、シンボル21-1,21-2,21-3,22-1,22-2,29-1,29-2を含む。
シンボル21-1~21-3の各々の外観の形状は、ひし形である。シンボル21-1~21-3は、外観の大きさについて互いに異なる。シンボル21-1~21-3は、外観の色彩または模様について同じである。シンボル22-1,22-2の各々の外観の形状は、三角形である。シンボル22-1,22-2は、外観の大きさについて互いに異なる。シンボル22-1,22-2は、外観の色彩または模様について同じである。シンボル21-1,22-1,23-1は、外観の色彩または模様について互いに異なる。シンボル29-1,29-2の各々の外観の形状は、四角形である。シンボル29-1,29-2は、外観の大きさについて互いに異なる。シンボル29-1,29-2は、外観の色彩または模様について同じである。
なお、シンボルの外観の形状は、四角形、ひし形、および三角形以外の形状(たとえば多角形、円、または楕円)であってもよい。また、相似な2つの三角形の一方の三角形を、当該三角形の重心に対して当該三角形を回転させて他方の三角形とは異なるシンボルとしてもよい。相似な2つの長方形の一方の長方形の長辺と短辺の比を変えることにより、当該長方形を他方の長方形とは別のシンボルとしてもよい。
シンボル21-1~21-3,22-1,22-2,29-1,29-2の各々は、N次元(Nは2以上の自然数)空間に配置された物体に関連する数値データを表現している。図2においては、一例として、2次元空間に配置された物体(たとえば、プリント基板上に実装された回路部品)に関連する数値データ(たとえば抵抗値、コイルのインダクタンス値、またはコンデンサの容量値)を各シンボルが表現している。図1の情報処理装置1に入力される画像データに含まれるシンボルは、たとえば、3次元以上の空間に配置された物体(空調空間に配置された温度センサまたは湿度センサ)に関連する数値データを表してもよい。
図3は、空調機Acおよび複数の温度センサStmが配置された、3次元空間である空調空間Rmを示す図である。たとえば、空調空間Rmの天井Ceの中央と天井Ceの隅にそれぞれ異なる2つの温度センサStmが配置されている場合、天井Ceの中央に配置された温度センサStmによって測定された温度(数値データ)に対応するシンボル、および天井Ceの隅に配置された温度センサStmによって測定された温度センサによって測定された温度(数値データ)に対応するシンボルが、空調空間Rmの画像データにおいて天井Ceの中央の位置と天井Ceの隅の位置にそれぞれ配置される。なお、図1の情報処理装置1に入力される画像データによって表現される空間は、当該空間内の座標が定義されていればどのような空間であってもよく、たとえば、ネットワーク空間またはやCAD(Computer-Aided Design)上の仮想設計空間など物理的な空間を有さない2次元以上の多次元の仮想空間であってもよい。また、空調空間Rmには必ずしも物理的な温度センサStmが配置されている必要はなく、赤外線センサまたは赤外線カメラ等の非接触で遠隔の物体の状態を測定する機器が空調空間Rmに配置されてもよい。さらに、当該機器とドップラーライダなどの奥行方向の気流の流れを調べる装置とを組み合わせることで、温度センサStmと同等の情報を得てもよい。
シンボルによって表現される数値データの種類は、当該シンボルが有する模様、形状、色、またはドット等が組み合わされた当該シンボルの外観によって表現される。シンボルが有する模様は、たとえば、グラデーション、丸、または点等が組み合わされたパターンとして表現される。シンボルが有する形状は、たとえば、円、楕円、または多角形として表現される。シンボルが有する色は、たとえば、3つの原色である赤、緑、および青、ならびにそれらが組み合わされたカラーチャート(RGBカラーモデル)によって表現される。
情報処理装置1に入力される画像データに含まれるシンボルは、複数のドットが組み合わされたシンボルであってもよい。複数のドットが組み合わされたシンボルの外観は、たとえば格子状、または長方形が予め定められた条件で分割された形状を有する。当該シンボルは、複数の領域を有し、当該複数の領域の各々に上記の色または模様が挿入されている。
図2に示される複数のシンボルは、外観について互いに異なる。そのため、情報処理装置1における学習処理および推論処理において、或るシンボルと他のシンボルとを画像認識モデルθ1が区別し易い。図2に示されるシンボルの表現態様に加えて、さらに色またはドットでの表現を組合せることも可能である。シンボルは、上記した表現態様の組み合わせであればどのような態様で表現されてもよい。
以下では、図4,図5,図6を用いて、図1に示される情報処理装置1に入力される画像データのさらなる具体例として、当該画像データがプリント基板に実装された回路部品に関連する数値データの分布を表現する場合について説明する。
図4は、プリント基板に構成される回路の一例である降圧チョッパ回路9の回路構成を示す図である。図4においてX軸およびY軸は、互いに直交している。図4に示されるように、降圧チョッパ回路9は、プリント基板90と、MOSFET(Metal-Oxide-Semiconductor Field Effect Transistor)を含むパワー半導体91と、ダイオード92と、インダクタ93と、コンデンサ94とを含む。パワー半導体91、ダイオード92、インダクタ93、およびコンデンサ94の各々は、プリント基板90上に実装された回路部品である。パワー半導体91は、ソース(S)、ドレイン(D)、およびゲート(G)を含む。パワー半導体91のソース(S)は、ダイオード92のカソードおよびインダクタ93の一方端に接続されている。インダクタ93の他方端は、コンデンサ94の一方電極に接続されている。ダイオード92のアノードは、コンデンサ94の他方電極に接続されている。パワー半導体91のドレイン(D)およびダイオード92のアノードには不図示の電源に接続される。インダクタ93の他方端およびコンデンサ94の他方電極は、不図示の負荷または異なる電源回路に接続される。パワー半導体91、ダイオード92、インダクタ93、およびコンデンサ94の各々には、プリント基板90上に定義された2次元平面の座標が関連付けられている。パワー半導体91、ダイオード92、インダクタ93、およびコンデンサ94の各々の座標は、たとえば、当該回路部品がプリント基板90上において占める領域の重心の座標または当該領域に含まれる任意の点の座標である。パワー半導体91、ダイオード92、インダクタ93、およびコンデンサ94の各々の数値データ、種類、および座標(位置情報)が図1に示される1つのソースデータに対応する。
図5は、図4の降圧チョッパ回路9に対応する画像データの一例である画像データIm20を示す図である。図5に示されるように、画像データIm20は、シンボル23,24,25,26を含む。シンボル23~26は、パワー半導体91の数値データ、ダイオード92の数値データ、インダクタ93の数値データ、およびコンデンサ94の数値データにそれぞれ対応する。画像データIm20は、図2の画像データIm10とは異なり、シンボル間を接続する配線27-1,27-2,27-3,27-4も含む。配線27-1は、シンボル23とシンボル25とを接続する。配線27-2は、シンボル23と24とを接続する。配線27-3は、シンボル25と26とを接続する。配線27-4は、シンボル24と26とを接続する。画像データIm20に対応する正解データとしては、たとえば、降圧チョッパ回路9から得られる出力信号の波形または振幅等の当該出力信号の物理特性、電磁両立性(EMC:Electromagnetic Compatibility)に関するプリント基板90からの電磁ノイズの出力、当該電磁ノイズの周波数特性、降圧チョッパ回路9の外部からプリント基板90に混入する電磁ノイズの入力電圧、または当該電磁ノイズの周波数特性を含んだEMC特性を挙げることができる。
プリント基板90に実装される回路部品の種類が10種類以上となる場合には、シンボルの形状だけで回路部品の種類を区別するのが困難になり得る。一般的には、プリント基板に実装される回路部品の種類は、受動部品と能動部品とが組み合わされて使用されることにより、100種類以上になり得る。このような場合、複数のドットの組合せによって多数の種類が想定される回路部品の数値データに対応するシンボルを表現することが可能である。たとえば、シンボルが3×3の複数のドットであって、複数のドットの各々が2値情報(1ビット)を表現する場合、当該シンボルの向きを一定として、当該シンボルは、516通り(=2)の種類を表現することができる。シンボルが4×4の複数のドットである場合、当該シンボルの向きを一定として、すなわち65536通り(=216)の種類を表現することができる。複数のドットの組合せであるシンボルの外観の形状は、正方形である必要はなく、たとえば、台形または長方形等、どのような形状であってもよい。当該形状は、閉じられた領域の中に描かれた複数のドットの組合せであればどのような形状であってもよい。1つのドットは、1ピクセルである必要はなく複数のピクセルの組合せであってもよい。複数のドットが、互いに色が異なる少なくとも2つのドットを含んでもよい。シンボルに対応する物体に関する全ての情報がシンボルによって表現される必要はない。当該シンボルに識別子(ID:identification)を関連付けて当該識別子をシンボルに記載すればよい。更に各ドットは白点および黒点のいずれかである必要はなく、灰色または灰色以外の色を有していてもよい。ただし、白黒以外の色を使う場合にはCNNの層数を増やすことになるので、白黒のコントラストのみで表現することができるドットについては、白黒とその中間色以外の色を使わないことが望ましい。このように各ドットに対しても情報を持たせることによって、同じ寸法のシンボルが持つ情報量を増やすことができるため、特定の物体の位置にピンポイントでシンボルを配置することができる。
図6は、図4の降圧チョッパ回路9に対応する画像データの他の例である画像データIm20Aを示す図である。図6に示されるように、画像データIm20Aは、シンボル23A,24A,25A,26Aを含む。シンボル23A~26Aは、パワー半導体91の数値データ、ダイオード92の数値データ、インダクタ93の数値データ、およびコンデンサ94の数値データにそれぞれ対応する。シンボル23A~26Aの各々は、3×3のドットを含む。シンボル23A~26Aには、識別子ID01~ID04がそれぞれ記載されている。以下の表1に示されるように、識別子ID01~ID04の各々には、予め部品の種類および部品特性等が関連付けられている。
Figure 0007069435000001
上記においては、電磁気学を用いる設計に用いられる数値データについて重点的に説明したが、図1の情報処理装置1に入力される画像データは、流体設計、熱設計、または応力設計等、電磁気学とは異なる物理現象に関する数値データを含んでもよい。また、当該画像データは、電磁気学と熱力学とが組み合わされた複数の物理現象に関する数値データを含んでいてもよい。たとえば、正解データとして電磁気学の電気信号の時間変化の結果と熱力学の温度上昇の時間変化の結果とを画像データに関連付けてもよい。学習処理として深層学習を用いる場合には、CNNの入力層には同じ画像データを入力し、隠れ層においてデータ伝播を分岐させて、分類問題、または回帰問題に応じてソフトマックス関数等の適切なロジスティック関数を選択することにより、互いに異なる複数の物理量に対応する画像認識モデルθ1の出力を実現することができる。さらに、シンボルに対応する数値データは物理現象とは無関係なデータであってもよい。異なる2つの数値データが相互に依存しており、当該2つの数値データが直交関係になくてもよい。
シンボルに対応する数値データの種類としては、たとえば、温度センサによって測定された温度、湿度センサによって測定された湿度、コンデンサの容量値、またはコイルのインダクタンスを挙げることができる。或る画像データに含まれる複数のシンボルにそれぞれ対応する複数の数値データは、コンデンサの容量値およびコイルのインダクタンスのように回路部品という観点で同種類である必要はなく、特定空間における位置情報を定義可能な数値データであれば、どのような数値データであってよい。また、同じコンデンサであっても、積層セラミックコンデンサ、フィルムコンデンサ、およびアルミ電解コンデンサ等を異なる複数のシンボルを対応させることによって異なる種類のコンデンサを識別してもよい。さらに、同じコイルであっても、ノーマルモードチョークコイル、コモンモードチョークコイル、ハイブリッドチョークコイル、およびトランス等にそれぞれ異なる複数のシンボルを対応させることによって異なる種類のコイルを識別してもよい。
数値データの大きさ(振幅)は、同じ種類の物体(たとえばセンサ)に関連する数値データの相対的な大きさを表す。当該相対的な大きさは、たとえば、シンボルそのものの大きさ、シンボルを構成する色、当該相対的な大きさの情報を含んだ複数のドットの組合せ画像によって表現される。シンボルの色には、たとえば、RGBカラーモデルによる色の指定に加えて、透明度が指定されてもよい。たとえば、当該センサによって測定された数値データが同じ種類の他のセンサとの関係で相対的に小さい場合には、当該数値データに対応するシンボルの透明度が高く(薄く)設定され、相対的に大きい場合には透明度が相対的に低く(濃く)設定されてもよい。
シンボルの大きさとは、画像データ内において表現されるシンボルの大きさであり、たとえば、或るセンサによって測定された数値データが、同じ種類の他のセンサとの関係で相対的に小さい場合には当該数値データに対応するシンボルは相対的に小さく表現され、相対的に大きい場合には当該シンボルを相対的に大きく表現される。
数値データに対応するシンボルの、他の数値データに対応するシンボルとの関係における相対的な透明度の比または大きさの比は、数値データと他の数値データとの比に比例または反比例している必要はない。当該相対的な透明度の比または大きさの比は、たとえば、対数、指数、または周期関数等の任意の組合せの関数に数値データと他の数値データとの比を入力して得られる値に比例した値であってもよい。たとえば、当該関数として、底が10の常用対数関数を用いることができる。
或るコンデンサの1u(10-6)Fの容量値と、他のコンデンサの1p(10-12)Fの容量値との比は、10倍(=10-6/10-12)である。1pFの数値データを画像データにおいて3ピクセルのシンボルで表現し、数値データのシンボルの大きさが2つの数値データの比に比例するように設定される場合、1uFの数値データのシンボルの表現に必要なピクセル数は3×10個となるため、当該シンボルを画像データに含めることが現実的に不可能になる。一方、当該比を常用対数関数に入力して得られる値は、6倍となる。常用対数関数を用いることにより、1pFを画像データにおいて3ピクセルで表現する場合、1uFは当該画像データにおいて18(=3×6)ピクセルで表現することができる。そのため、同じプリント基板の画像データに1pFに対応するシンボルおよび1uFに対応するシンボルの双方を含ませることができる。さらに、複数のドットが組み合わされたシンボルにおいては、シンボルの大きさを複数のドットによって表現することができる。また、複数のドットの組合せによって表現されたシンボルと識別子とを関連付けて、2つのシンボルにそれぞれ関連付けられた2つのIDとの比較によって相対的な大きさが表現されてもよい。ただし、このように対数を用いる場合、精度の高い設計値を見つけることは困難になることが多い。たとえば、9pFと10pFとの差がほとんどなくなり、場合によっては10pFと100pFとを識別することも困難になる可能性がある。しかし、概算値を算出することができれば、その解に近い概算値を初期値として最適化問題を解くことができる。初期値が解に近ければ、一般的な最適化手法(たとえば、最急降下法またはニュートン法等)によって、短時間で最適化問題を解くことができる。
シンボルを1つ以上含む画像データは、変化するシンボルの形状または位置情報が除かれて、学習処理が行われたタイミングと推論処理が行われるタイミングで、同じか、または推論処理のタイミングにおいて生じ得る変化分が学習処理において画像データの変化分として学習部10に入力されることが望ましい。そのため、学習データLd1に含まれる画像データは静止画データであることが望ましい。また、動画データのように画像が時間経過に応じて変わる画像データであっても、情報処理装置1において実現されることが望まれる所望の特性に対して影響がない画像データに関しては、学習処理の前処理において画像データの中から不要な箇所を除去するか、または、画像データの変化分が想定された学習データを用いて学習処理が行われることが望ましい。上記のように数値情報またはID情報を持つシンボルを画像データ内に埋め込む手法を数値画像埋め込み(Numerical Symbol Embedding)と定義する。
また、数値画像埋め込みの一例として、プリント基板の両面に部品が実装されるプリント基板のように、複数の画像データが互いに関連している場合においても、当該複数の画像データを情報処理装置1に一体的に入力して、各層の画像データを層間の方向(チャネル方向)に畳み込むことにより、複数の画像データの間のシンボル間の関係を学習および推論することができる。なお、層の方向(空間方向)と層間の方向とが同時に畳み込まれる処理が行われてもよいし、MobileNetのように空間方向のみに畳み込む処理(Depthwise Convolution)とチャネル方向のみに畳み込む処理(Pointwise Convolution)とが順に行われてもよい。たとえば、情報処理装置1によれば、プリント基板の表面に実装された部品と裏面に実装された部品との間の磁気結合または電界結合という空間結合の成分によって特徴付けられる情報を複数の画像データから抽出することができる。
画像データ内における、数値データに関連する物体(対象)の物理的な寸法が比較的大きく、当該物体が画像データにおいて表現される空間の大半を占める場合、画像データ内における当該数値データに対応するシンボルは、上記の対象の中央、また、一意に定められた特定位置に配置されてもよい。たとえば、プリント基板上に配置された電力変換用のリアクトルのように、プリント基板のほぼ半分の面積を占める場合、当該プリント基板に対応する画像データにおいては、リアクトル内の特定位置に当該リアクトルの数値データに対応するシンボルが配置されてもよい。
一方、当該対象の物理的な寸法が比較的小さい場合、当該対象の数値データに対応するシンボルの中心は、上記の対象の中央、または予め定められた特定位置に配置されてもよい。たとえば、当該対象がコイルの場合、当該コイルに対応する数値データは、当該コイルの重心等に配置されてもよい。このように画像データに数値データを埋め込むことによって、コイル間の磁気結合または浮遊容量などの等価回路では表現が難しい物理特性も考慮可能な情報処理装置を構築することができる。
また、1つの位置に複数の数値データが関連付けられる場合においては、当該複数の数値データのそれぞれに対応する複数の画像データを用意して、当該複数の画像データの同じ位置に複数の数値データにそれぞれ対応する複数のシンボルを配置してもよい。たとえば、数値画像埋め込みの別の一例として温度センサと湿度センサとが一体となった温湿度センサの場合には、温湿度センサによって測定された温度(数値データ)に対応するシンボルを当該温湿度センサが配置されている或る画像データの位置に配置し、温湿度センサによって測定された湿度(数値データ)に対応するシンボルを当該温湿度センサが配置されている他の画像データの位置に配置してもよい。ただし、1つの位置に関連付けられる複数の数値データが比較的多くない場合には、1枚の画像データに複数のシンボルを並べて配置しても構わない。たとえば、温湿度センサによって測定される温度および湿度にそれぞれ対応する2つのシンボルは、互いの相対位置を変化させずに隣り合わせで配置されてもよい。
シンボルの種類は、ひし形、円、台形、および多角形等の形状、ならびにハッチング(パターン)の向き等の模様に加えて、RGBカラーモデルによる色の組合せによって表現されてもよい。さらに、シンボルの外観の形状は、当該シンボルの位置において中心または重心に対して当該シンボルを回転させて、回転されたシンボルが回転前のシンボルと区別されてもよい。
ただし、上記の組合せによって表現可能なシンボルの数には限りがある。シンボルの種類および数が比較的少ない場合には複数のソースデータに含まれる特徴が画像データに十分に反映されるため、当該ソースデータに含まれる特徴を学習済みの画像認識モデルθ1によって高精度に認識することができる。しかし、画像データに含まれる複数のシンボルの数が増加すると、複数のシンボルの外観の違いが比較的小さくなり、複数のシンボルの分類が困難になり得る。たとえば、互いに異なる20個のセンサまたは回路部品に関する画像データを生成する場合、使用可能なシンボル数が限られていることにより、5角形のシンボルおよび6角形のシンボルのように外観が互いに類似している2つのシンボルを使うと、当該2つのシンボル間の外観の違いが小さくなる。このような場合には、当該シンボルと複数のドットが組み合わされたシンボルとを1つの数値データに対して併用するか、または複数のドットを組み合わせて1つの数値データに対応するシンボルを構成することが望ましい。また、複数のドットの組合せによって構成されたシンボルの形状は、四角形である必要はなく、当該形状は多角形または楕円等、どのような形状であってもよい。また、シンボルの背景色は白である必要はなく、単色であればどのような色であってもよい。
シンボルに対応する数値データの大きさは、当該シンボルの寸法、当該シンボルの色の濃淡、およびこれらの組合せによって表現され得る。また、上記したように、複数のドットの組合せによっても、シンボルに対応する数値データの大きさを表現することができる。シンボルの寸法は、真数、対数、または或る1つの関数を用いて計算される値であればどのような値であってもよい。また、シンボルの色の濃淡についてもシンボルの大きさと同様である。シンボルの色の濃淡は、グレースケールで表現されてもよいし、カラーの画像データにおいてRGBの比を変えて表現されてもよい。シンボルの色の濃淡がRGBによって表現され、かつ画像認識モデルθ1が畳み込みニューラルネットワークを含む場合には、画像データがCNNの入力のチャネル方向に3つに分割されて、チャネル毎の畳み込み演算を入力層より後段で行うことにより、チャネル毎の濃淡をグレースケールにおける濃淡と同様に表現することができる。さらに、シンボルの種類を複数のドットの組合せによって表現することにより当該シンボルの大きさを当該シンボルの寸法によって表現してもよいし、シンボルの種類を形状で表現して当該シンボルの大きさを複数のドットの組合せで表現してもよいし、シンボルの種類と形状とを複数のドットの組合せで表現してもよい。ただし、上述した両面のプリント基板を入力とする場合、または複数のセンサデータを同一の位置に複数配置した情報を異なる層に(チャネル方向に分けて)入力する場合、RGBと同じチャネル方向に情報を増やすことになるため、画像認識モデルθ1を正しく学習させることができない可能性がある。そのため、たとえば、両面のプリント基板でRGBの色情報を使用する場合においてはR、G、およびBの各々で両面のプリント基板を表現するか、または色情報を使用せずに、シンボルの種類、形状、またはドットの組み合わせ等で両面のプリント基板を表現することが望ましい。
従来の情報処理装置において、上記のように空間的な位置または向きに意味がある数値データを処理する場合には、位置座標を数値データに入れるか、または数値データを処理する情報処理装置と、画像を処理する他の情報処理装置と、当該2つの情報処理装置を結合する他の情報処理装置とが必要であった。しかし、これら3つの情報処理装置の各々を個別に学習させることは困難であった。一方、実施の形態1においては、数値データに関連する物体の空間的な絶対位置または相対位置に当該数値データに対応するシンボルが画像データにおいて配置されていることによって、当該画像データに座標のような位置情報と数値データとを含ませることができる。実施の形態1に係る情報処理装置によれば、数値データ(たとえば物性値)および当該数値データに関連する物体の位置情報という複合的な情報を有する画像データを1つの情報処理装置に入力することができる。実施の形態1によれば、複数の情報処理装置を組み合わせる必要がないため、1つの情報処理装置によって複数の画像データを用いる機械学習を簡易に実行することができる。
画像データはシンボルだけで構成される必要はなく、シンボル以外の情報を含んでいてもよい。たとえば、室内環境をカメラで撮影した当該室内環境の画像データに対して、センサ機器が有するデータをシンボルとして当該画像データに配置してもよい。あるいは、画像データがプリント基板に対応する場合に、プリント基板に実装するICまたは受動回路等の回路部品の各々をシンボルとして当該画像データに配置するとともに、複数のシンボル間を接続する配線を画像データ内に配置してもよい。
図7は、図1の情報処理装置1のハードウェア構成を示すブロック図である。図7に示されるように、情報処理装置1は、処理回路51と、メモリ52(記憶部)と、ストレージ53(記憶部)と、入出力部54とを含む。処理回路51は、メモリ52に格納されるプログラムを実行するCPU(Central Processing Unit)を含む。処理回路51は、GPU(Graphics Processing Unit)を含んでもよい。情報処理装置1の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアあるいはファームウェアはプログラムとして記述され、ストレージ53に格納される。処理回路51は、ストレージ53に記憶されたプログラムをメモリ52に展開して当該プログラムを実行する。なお、CPUは、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいはDSP(Digital Signal Processor)とも呼ばれる。
メモリ52は、揮発性の記憶装置であり、たとえば、DRAM(Dynamic Random Access Memory)、および/またはSRAM(Static Random Access Memory)を含む。ストレージ53は、不揮発性の記憶装置であり、たとえば、フラッシュメモリ(SSD(Solid State Drive))、HDD(Hard Disk Drive)、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory))、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、および/またはDVD(Digital Versatile Disc)を含む。
ストレージ53には、画像認識モデルθ1と、機械学習プログラムPg1と、画像認識プログラムPg2とが保存されている。機械学習プログラムPg1は、画像認識モデルθ1に対して機械学習を行うためのプログラムである。画像認識プログラムPg2は、画像認識モデルθ1を用いて画像データから特定情報を推論するためのプログラムである。機械学習プログラムPg1および画像認識プログラムPg2において、画像認識モデルθ1が参照される。機械学習プログラムPg1を実行する処理回路51は、図1の学習部10として機能する。画像認識プログラムPg2を実行する処理回路51は、図1の推論部20として機能する。
入出力部54は、ユーザからの操作を受けるとともに、処理結果をユーザに出力する。入出力部54は、たとえば、マウス、キーボード、タッチパネル、ディスプレイ、およびスピーカを含む。
実施の形態1の変形例1.
実施の形態1においては、学習部および推論部の双方を備える情報処理装置について説明した。実施の形態1の変形例1においては、学習部を備えない情報処理装置について説明する。図8は、実施の形態1の変形例1に係る情報処理装置1Aの機能構成を示すブロック図である。情報処理装置1Aの構成は、図1の情報処理装置1から学習部10が除かれた構成である。これ以外の情報処理装置1Aの構成は、図1の情報処理装置1の構成と同様であるため、当該構成についての説明を繰り返さない。
図8に示されるように、記憶部30には学習済みの画像認識モデルθ1が記憶されている。画像認識モデルθ1は、情報処理装置1Aとは別の学習装置によって行われた機械学習によって学習済みモデルとされている。
図9は、図8の情報処理装置1Aのハードウェア構成を示すブロック図である。情報処理装置1Aのハードウェア構成は、図7のストレージ53から機械学習プログラムPg1が除かれたハードウェア構成である。これ以外の情報処理装置1Aのハードウェア構成は情報処理装置1のハードウェア構成と同様であるため、当該ハードウェア構成についての説明を繰り返さない。
実施の形態1の変形例2.
実施の形態1の変形例2においては、推論部を備えない情報処理装置について説明する。図10は、実施の形態1の変形例2に係る情報処理装置1Bの機能構成を示すブロック図である。情報処理装置1Aの構成は、図1の情報処理装置1から推論部20が除かれた構成である。これ以外の情報処理装置1Bの構成は、図1の情報処理装置1の構成と同様であるため、当該構成についての説明を繰り返さない。
図11は、図10の情報処理装置1Bのハードウェア構成を示すブロック図である。情報処理装置1Bのハードウェア構成は、図7のストレージ53から画像認識プログラムPg2が除かれたハードウェア構成である。これ以外の情報処理装置1Bのハードウェア構成は情報処理装置1のハードウェア構成と同様であるため、当該ハードウェア構成についての説明を繰り返さない。
以上、実施の形態1および変形例1,2に係る情報処理装置によれば、数値データと位置情報との関連性を画像データに対する処理へ反映することを、当該処理を行う情報処理装置によって簡易に実現することができる。
実施の形態2.
実施の形態2においては、数値データに含まれる複数のパラメータ間の関係を散布図に変換して、当該散布図(画像データ)の形状から複数のパラメータ間の関係式(特定情報)を推論する構成について説明する。図12は、実施の形態2に係る情報処理装置2の機能構成を示すブロック図である。情報処理装置2の機能構成は、図1の情報処理装置1にグラフ生成部40が追加された機能構成である。これ以外の機能構成は情報処理装置1と同様であるため、当該機能構成に関する説明を繰り返さない。
図12に示されるように、学習データLd2は、数値データセットSn1を含む。数値データセットSn1は、複数の数値データNp11~Np1Jを含む。数値データNp1jは、複数のパラメータx1_j~xp_j(pは2以上の自然数)を含む。複数のパラメータx1_j~xp_jは、説明変数および目的変数を含む。
グラフ生成部40は、数値データセットSn1を受けて、散布図Sp11(画像データ)を含む散布図セットSs1を生成し、散布図セットSs1を学習部10に出力する。散布図Sp11は、複数のシンボルPt11~Pt1Jを含む。複数のシンボルPt11~Pt1Jは、数値データNp11~Np1Jにそれぞれ対応するとともに、散布図Sp11にプロットされている複数の点にそれぞれ対応する。
グラフ生成部40は、数値データセットSn2を受けて、散布図Sp21(画像データ)を含む散布図セットSs2を生成し、散布図セットSs2を推論部20に出力する。数値データセットSn2は、複数の数値データNp21~Np2Kを含む。数値データNp2kは、複数のパラメータx1_k~xp_kを含む。散布図Sp21は、複数のシンボルPt21~Pt2Kを含む。複数のシンボルPt21~Pt2Kは、数値データNp21~Np2Kにそれぞれ対応するとともに、散布図Sp21にプロットされている複数の点にそれぞれ対応する。
図13は、図12の情報処理装置2のハードウェア構成を示すブロック図である。情報処理装置2のハードウェア構成は、図7に示されるストレージ53にグラフ生成プログラムPg3が追加された構成である。これ以外の情報処理装置2のハードウェア構成は情報処理装置1と同様であるため、説明を繰り返さない。図13に示されるように、グラフ生成プログラムPg3は、数値データセットを受けて、散布図セットを生成するためのプログラムである。グラフ生成プログラムPg3を実行する処理回路51は、図12のグラフ生成部40として機能する。
図14は、図12の数値データセットSn1の一例を示す図である。図14においては、図12の自然数pが3である場合が示されている。図14に示されるように、数値データセットSn1に含まれる複数の数値データNp11~Np1Jの各々は、説明変数であるパラメータx1,x2と、目的変数である目標値yとを含む。なお、図14においては、図12のパラメータxp(x3)を目標値yと表現している。
図15は、或るパラメータx1と目標値yとの対応関係を示す散布図Sp11である。図15に示されるように、散布図Sp11は、パラメータx1,x2にそれぞれ対応する2つの座標軸を有する。図16は、他のパラメータx2と目標値yとの対応関係を示す散布図Sp12である。図16に示されるように、散布図Sp12は、パラメータx2,yにそれぞれ対応する2つの座標軸を有する。図17は、2つのパラメータx1,x2の対応関係を示す散布図Sp13である。図17に示されるように、散布図Sp13は、パラメータx1,x2にそれぞれ対応する2つの座標軸を有する。
実施の形態2においては、数値データに含まれるパラメータが散布図における座標であるため、当該数値データが位置情報も兼ねている。なお、散布図の次元数は、2に限定されず、3以上であってもよい。たとえば、パラメータx1をx軸とし、パラメータx2をy軸とし、目標値yをz軸とすることにより、3次元の散布図が形成されてもよい。また、散布図の各点は丸である必要はなく、任意の大きさで任意の形状を取ってよい。ただし、或る点と他の点とが互いに半分以上重なると一方の点の情報が失われてしまうため、点の寸法は、他の点と半分以上重ならない寸法以下の大きさであることが望ましい。
数値データから形成される画像データは、散布図に限定されず、たとえば、図18に示されるような等高線Cnt、または図19に示されるようなヒストグラムHstであってもよい。ただし、画像データの形式がどのような形式であってもよいが、当該画像データに対する学習処理、および推論処理は同じアルゴリズムのグラフ生成部で生成した画像データであることが望ましい。
散布図の軸の範囲は数値データに含まれる複数のパラメータの各々の最大値と最小値とが含まれる範囲であることが望ましく、情報処理装置に画像データが入力される場合には軸の値(目盛り)が当該画像データに記載されないことが望ましい。数値データ数が比較的少ない(たとえば100点以下である)場合においては、複数の数値データから形成される画像データは等高線であることが望ましい。複数の数値データに対する補間によって画像データにおいてグラフとして表現されるデータが連続となるようにしてもよく、当該補間によって数値データの数(点数)が少ない場合でも複数の数値データの傾向を把握することができる。敵対的生成ネットワーク(GAN:Generative Adversarial Network)のような生成モデルによって、新たな数値データを生成してもよい。等高線またはヒストグラムのように密度の濃い領域、または振幅の大きい領域の色の濃淡を濃く、密度の薄い領域または振幅の小さい領域の色の濃淡を薄くする必要はなく、これらの領域は同じ高さ、または同じ大きさの領域として表現されてもよい。ただし、数値データを増やすことができる場合には増やすことが望ましく、分布が均一(一様分布)になるように数値データを増やすことはさらに望ましい。
次に、複数の数値データから形成された散布図から、互いに平行な、当該散布図の最大値および最小値となる包絡線、近似直線、または近似曲線を抽出することについて説明する。包絡線、近似直線、または近似曲線を散布図から抽出する方法は、どのような方法でもよく、たとえば、ヒルベルト変換、事前に用意された関係式が分かっている散布図との総当たり法、これらが平行線かどうかを2値分類で判定する事前に学習済みの畳み込みニューラルネットワークを用いた画像処理、または画像を水平移動させた一致度を算出する画像処理などによる平行成分の抽出を含む。
図20は、複数の数値データから形成された散布図、および当該散布図の最大値となる包絡線である直線C1(第1包絡線)と、最小値となる包絡線である直線C2(第2包絡線)とを併せて示す図である。散布図に分布する複数の点は、第1包絡線と第2包絡線との間に分布している。第1包絡線と第2包絡線との特定パラメータを表す特定軸(図21においては目的変数yの座標軸)方向の間隔は、当該複数の点を間に含む平行な2つの曲線のうち最も短い。説明を簡単にするため、図20においては、包絡線C1,C2が目的変数を表す1次関数であり、互いに平行であるとする。図20に示されるように、包絡線C1,C2の傾きはa1として求められる。包絡線C1,C2の各々を表す1次関数は、目的変数yを表す関係式である。当該関係式は、パラメータx1に関する項a1×x1を含む。傾きa1が求められることにより、図20に示される散布図を構成するパラメータと目的変数との間に和、もしくは差の関係があることが分かる。なお、目的変数を表す多項式における傾きとは、次数が最も高いパラメータの項の係数とする。
図21は、複数の数値データから形成された散布図、および当該散布図の最大値となる包絡線(第1包絡線)である放物線C11と、最小値となる包絡線(第2包絡線)である放物線C12とを併せて示す図である。図21においては、散布図の包絡線が多項式として表される場合の一例として、当該多項式が2次の凸関数である場合が示されている。図21に示されるように、包絡線C11,C12が平行となっていることにより、散布図を形成する2つのパラメータの間に和または差の関係があることが分かる。包絡線C11,C12の傾きは、係数a2である。
たとえば、図20において、f(・)を或る関数とする場合、目標値y(第1パラメータ)と、パラメータx1(第2パラメータ)と、パラメータx2(第3パラメータ)との間には、y=a1×x1+f(x2)の関係があることが分かる。ここで、目的変数yとパラメータx1に関する項a1×x1との差(y-a1×x1)を新たなパラメータx3(第4パラメータ)として、パラメータx3とx2との間の関係式(x3=f(x2))を求めることにより、関数f(・)を推定することができる。複数の数値データは正の値のみ、または負の値のみで構成されていることが多いため、y-a1×x1の対数を求めること、またはf(x2)の対数を求めることによって、散布図における和と差の成分を抽出することができる。目標値yの最小値をbとすると、y-a1×x1をy-a1×x1-bに置き換えることにより、y-a1×x1-bの対数を求めることができる。複数の数値データに含まれるパラメータの平均値もしくは分散値を変更すること、または当該パラメータの最小値が0より大きくなるような標準化または規格化が行われてもよい。
ただし、関数fがf(x2)=a2×x2+d2(a2,d2は定数)のように表現される場合には必ずしも対数を求める処理が行われる必要はない。また、パラメータyとx1との関係がy=a1×x1+b1(b1は定数)と表現される場合のように平行成分を散布図から抽出することができない場合においては、各パラメータに対して対数を取ることによって、所望の数式を生成することができる。さらに、説明変数x1とx2とが平行な場合にはx2=a3×x1+d3(a3,d3は定数)のように平行とみなせる成分から数式を生成し、各成分から連立方程式を解くことによって、所望の数式を作り出すことができる。
たとえば、説明変数x1,x2の散布図に相関がなければパラメータy,x1,x2の関係はy=f(x1)+f(x2)と表現されるため、y=f(x1)の成分とy=f(x2)の成分をそれぞれ抽出することにより、目的変数yの数式を導くことができる。また、パラメータy,x1,x2の関係がy=f(x1,x2)と表現される場合、上述のように説明変数x1,x2の散布図から説明変数x1,x2の関係がx2=a3×x1+d3と表現されれば、連立方程式の解法に基づいて当該式の成分を説明変数x1に代入することにより、パラメータy,x1の関係を或る関数gを用いてy=g(x1)と表現することができる。その結果、当該条件で平行を抽出すること、または両辺対数を算出すること等の処理を行うことにより所望の数式を導くことができる。
図22は、図12の推論部20によって行われる処理の一例を示すフローチャートである。以下ではステップを単にSと記載する。図22に示されるように、推論部20は、S201において、第1パラメータと第2パラメータとの関係を表す第1散布図から、平行な第1包絡線および第2包絡線を抽出し、処理をS202に進める。推論部20は、S202において、第1包絡線および第2包絡線の傾きから、第1パラメータを表す、第1パラメータと第2パラメータとの第1関係式を導出し、処理をS203に進める。推論部20は、S203において、第1パラメータと、S202で算出された関係式に含まれる第2パラメータに関する項との差である第4パラメータを算出し、処理をS204に進める。推論部20は、S204において、S203で算出された第4パラメータに対する特定演算から取得される値の対数から、第3パラメータと第4パラメータとの関係を表す新たな散布図(第2散布図)を生成し、処理をS205に進める。S203において行われる特定演算は、第4パラメータの絶対値の対数の導出過程における四則演算を含む。推論部20は、S205において、S204において生成された第2散布図から第3パラメータと第4パラメータとの第2関係式を導出し、処理を終了する。
散布図から平行な包絡線を導く過程において、人工知能(学習済みのモデル)を用いる情報処理装置が用いられる場合、平行と非平行の2値分類問題に対応するモデルを用いることにより、平行な成分のみを散布図から精度よく抽出することができる。また、非平行な成分が含まれることにより分析しにくい散布図であっても、事前学習しておいた多値分類問題に対応する画像処理用のモデルを用いることによって、複数のパラメータの関係式が算出されてもよい。また、数値データに含まれるパラメータを足し算または引き算成分を分離することによって減らした後に、散布図を機械学習させた学習済みモデル、ガウス過程を含むベイズ最適化、または遺伝的アルゴリズム等を用いる手法によって複数のパラメータの関係式を導き、全ての包絡線の導出結果を合算して目的変数をパラメータで表現するための数式が算出されてもよい。この多値分類問題において上述のとおり対数を求めることによって指数関数、掛け算成分、足し算成分のすべてが和と差との1次関数になる。そのため、分類の数を大幅に減らすことができる。その結果、分類精度を向上させることができる。たとえば、y∝(x1)とy∝(x1)2.5は別の分類問題として処理する必要がある。当該関係式の指数はアナログ値となるので細かく分類する学習が必要となる。一方、当該関係式の対数を求めることにより、当該関係式はlog(y)∝log(x1)と表現することができるため、ただ1つの式によってパラメータy,x1の関係を表現することができる。これにより、分類する数を減らすことができるため、学習時に用いるデータを少なくすることができるだけでなく、分類精度を向上させることができる。
数値データのみで複数のパラメータの関係式を抽出する従来の方法と比較して、数値データの散布図から当該関係式を導出することにより、総当たり、または全てのデータを用いる遺伝的アルゴリズム等の手法よりも短時間で高精度に複数のパラメータの関係式を導出することができる。複数の数値データの各々を分析すると数値データの数が多くなるに従ってパラメータ間の関係性が多くなるため指数関数的に計算量が増大していく。一方、散布図などの画像データであれば、数値データの数に関係なく当該画像データに対する画像処理の計算によって解を算出することができる。また、散布図、等高線、またはヒストグラムの作成に要する計算量は比較的小さく、当該作成に必要な処理の並列化も可能である。そのため、たとえば、複数のパラメータの各々が1億点以上のビックデータであることは、当該ビッグデータの処理の計算量を律速させる条件にはならない。さらに、数値データの散布図から当該関係式を導出する方法によれば、計算の度に前提知識に基づかずに計算を始める遺伝的アルゴリズムなどとは異なり、平行または非平行の判定処理、平行または非平行の抽出処理等にCNN等のニューラルネットワークを用いる場合においても学習済みモデル(前提知識)を再利用することができる。そのため、当該方法において数式を予測する際は推論のみで良いので、高速に関係式を導くことができる。
ただし、本実施の形態で導かれた数式は概算値(第一次近似)であり、定数を含めて厳密な値で算出することは難しいため、さらに、散布図から複数のパラメータの関係式、または当該関係式の複数の候補を算出した後に、当該関係式を初期条件として最急降下法またはニュートン法など最適化手法で当該関係式の定数項をフィッティングして、最もフィッティング精度の高いものを当該関係式の解として算出してもよい。一般的にこのようにニュートン法を用いると解が極小値に落ち込むこと、または過学習によって学習済みのモデルによって未知のデータを表現できなくなってしまう場合があるが、当該関係式が固定された定数のみを含む場合には解が極小値に落ち込みにくく、かつ過学習しにくい処理を実現することができる。たとえば、得られた測定値から等価回路を算出する場合、等価回路を構成する部品の組み合わせ、および等価回路を構成する部品の各パラメータの概算値が分かっていればフィッティングによって厳密なパラメータを算出することは容易である。そのため、本実施の形態に記載の方法は、部品の組み合わせ、および部品の各パラメータの概算値を提供する。
一般的な数値データが用いられる場合において、パラメータ毎の最大値または最小値を結んでも完全な平行にはならない場合が多い。費やすことが可能な計算時間または計算リソースにもよるが、おおよそ傾きの±10%以内を平行とみなしてもよい。ただし、計算リソースに余裕がある場合は傾きの±1%以内を平行とし、計算リソースに余裕がない場合には傾きの±20%以内を平行としても構わない。平行であることの判定が厳しいほど複数のパラメータの関係式の精度は高くなるが、必要な計算リソースが多くなる。ただし、実施の形態2によれば、計算リソースに余裕がない場合であっても、複数のパラメータの関係式のおおよその近似式を容易に得ることができる。また、包絡線は必ずしも直線である必要はなく、多項式、三角関数、またはこれらの組み合わせであってもよい。最大値の包絡線、および最小値の複数のパラメータの関係式が互いに平行である場合、上記の多項式近似の係数、または三角関数の周期性が散布図から算出されてもよい。
パラメータ間の関係から足し算成分または引き算成分を分離して目標値(目的変数)またはパラメータ(説明変数)の対数を求めることにより、掛け算成分、指数成分、または対数成分を足し算または引き算として計算することができる。これにより、足し算または引き算を分離したアルゴリズムと同じアルゴリズムによって更にパラメータ間を散布図によって分析し、複数のパラメータの関係式を導くことができる。また、対数を求めても2つの包絡線が平行にならない場合には、足し算または引き算成分がパラメータ間の関係に残っていると考えられるため、包絡線の導出の過程で計算の誤りを正すことができる。
対数を用いない場合においては、四則演算、指数、対数、または三角関数等の複雑な演算が組合されるため、散布図を処理する情報処理装置には事前に膨大な数の組合せ結果を予測、または比較図を作る必要があった。一方、平行成分でおおよその傾向を把握して、平行成分だけでは表現できない成分のみを情報処理装置によって分析し、複数のパラメータの関係式を導くことにより、演算の組合せの数が減った分、従来よりも高速かつ精度よく必要な関係式を導くことができる。特に、数式同定(Symbolic Regression)と呼ばれる技術分野においては、データから数式を導く問題はNP(Non-deterministic Polynomial)困難な問題として知られており、従来のデータ間の比較演算処理だけでは現実的な計算機と計算時間で正解を導くことは困難であった。それに対して、実施の形態2によれば、散布図、等高線、またはヒストグラム等の画像を介することにより、比較演算を不要とすることができる。特に散布図を用いる場合を散布図関数同定(Scattering Symbolic Regression)と定義し、等高線またはヒストグラムなどの画像を用いる場合を画像関数同定(Image Symbolic Regression)と定義する。さらに、散布図関数同定または画像関数同定における対数処理によってデータの関係性を分解処理するため、実施の形態2によれば、上記のNP困難な問題であってもデータ数に関係なく関係式を導くことができる。ただし、対数を求める処理において対数の引数(真数)は0より大きい実数に限定されるため、0またはマイナスの数については標準化または平均化等のスケール処理によって、0より大きい実数に変換される。また、数値データに含まれるパラメータは、ノルムが0ではない複素数であってもよい。当該ノルムが0になる場合においては、計算機イプシロンのような微小量を当該ノルムに足すことによって対数の引数とすることができる。
上記においては数値データを散布図に変換することについて説明したが、実施の形態1において説明したシンボルを含む画像データを、平滑化することによって数値データに変換して、当該数値データを実施の形態2の方法で処理して、複数のパラメータの関係式が導かれてもよい。この場合、M×Nピクセル(M,Nは正の整数)の画像データを1,000枚用意したとすると、複数の画像データの各々を平滑化することにより、1,000行かつM×N列の数値データを作ることができる。これらの数値データを用いることにより、1,000点の数値データから、列間のパラメータの関係を表す散布図、各列のパラメータと正解ラベルとの散布図を(M×N+1)枚作ることができる。
また、画像データの場合、当該画像データに含まれる複数のピクセルの各々を直接散布図にすると、当該画像データに含まれるシンボルに関する情報が劣化する。これは画像データにおいて互いに隣り合う2つのピクセルの情報が失われるためである。それを防ぐために、ガウシアンフィルタ等の数式によって表現可能な特定フィルタを用いて畳み込み処理を行うこと、またはローパスフィルタ、バンドパスフィルタ、最大値プーリング、もしくは平均値プーリング等の数式で表現可能な画像フィルタとなる関数を適用した画像データから散布図を作成して、当該散布図から包絡線の数式化が行われてもよい。このようにすることで、数式表現は複雑になるが、因果関係が明確な状態で目標値とパラメータとの関係を表現することができる。
さらに、高精度な複数のパラメータの関係式を得たい場合においては、畳み込みニューラルネットワークにおける畳み込み演算または活性化関数などを散布図に適用して、その出力結果となる特徴量から、上記と同じ方法で数値データに変換し、その数値データから作られる散布図から複数のパラメータの関係式が導かれてもよい。この場合においては、畳み込みニューラルネットワークにおいて行われる演算は複数の行列式として表現される。畳み込みニューラルネットワークに含まれる特定フィルタを用いて行った特徴量抽出の結果から、複数のパラメータの関係式を導くことができるため、畳み込みニューラルネットワークによって得られた結果を数式として判断することができる。
また、実施の形態1におけるシンボルにおいて、複数のシンボル間の相関を考慮した式を関係式として出力してもよい。特に、プリント基板上に実装された複数の回路部品を画像データに含まれる複数のシンボルとする場合、複数のシンボル間の磁気結合である相互インダクタンス、または電界結合である寄生容量(または浮遊容量)による空間結合により、IC単体または回路部品単体の動作とは、プリント基板上に実装されたICまたは回路部品の動作が異なる場合において、当該関係式を導出することにより、両者の関係性を把握することができる。従来、当該関係性は、電磁界シミュレーション、または実測等において処理され、その導出過程はブラックボックスとして把握困難な値である。しかし、実施の形態2によれば、回路図または回路シミュレーションには表れない空間結合を画像データとして表現可能であるため、従来とは異なる効果が得られる。さらに、当該関係式を用いて、回路設計の目標に対して最適な位置関係を、シミュレーションおよび実測を行うことなく予測することができる。画像データにおいては、時間経過に応じてシンボルの位置または大きさが変化してもよい。また、2つのシンボルを接続する配線等、シンボル以外の情報が変化する条件も学習データに含まれてもよい。さらに、時間経過に応じて変化しない箇所は、画像データにおいて表現されなくてもよい。EMC分野において画像データにおいて表現される必要がある箇所は、ノイズフィルタ、スナバ回路、またはシールド構造等、変化し得る箇所に限定されてもよい。画像データにおいて表現される箇所を限定することにより、複数のパラメータの関係式の導出に必要な計算リソースまたは/および計算時間を低減することができる。
以上、実施の形態2に係る情報処理装置によれば、数値データと位置情報との関連性を画像データに対する処理へ反映することを、当該処理を行う情報処理装置によって簡易に実現することができる。
実施の形態3.
実施の形態3においては、画像データを更新することにより、当該画像データに含まれるシンボルに対する画像認識モデルの認識精度を向上させる構成について説明する。図23は、実施の形態3に係る情報処理装置3の機能構成を示すブロック図である。情報処理装置3の機能構成は、図1の情報処理装置1に画像更新部50が追加された機能構成である。これ以外の情報処理装置3の機能構成は情報処理装置1と同様であるため、当該機能構成に関する説明を繰り返さない。
図23に示されるように、画像データIm1,Im2は、画像更新部50に入力される。画像更新部50は、画像データIm1,Im2を更新して、更新された画像データIm1,Im2を学習部10および推論部20にそれぞれ出力する。
図24は、図23の情報処理装置3のハードウェア構成を示すブロック図である。情報処理装置3のハードウェア構成は、図7に示されるストレージ53に画像更新プログラムPg4が追加された構成である。これ以外の情報処理装置3のハードウェア構成は情報処理装置1と同様であるため、説明を繰り返さない。図24に示されるように、画像更新プログラムPg4は、画像データを更新するためのプログラムである。画像更新プログラムPg4を実行する処理回路51は、図23の画像更新部50として機能する。
以下では、図23の画像更新部50において行われるノイズの重畳による入力信号(画像データ)の更新処理について説明する。
画像認識モデルθ1が畳み込みニューラルネットワークを含む場合、画像認識モデルθ1に入力された画像データは、畳み込みニューラルネットワークの各層のフィルタを構成する行列式(重みづけ行列)によって更新される。ただし、学習時には学習データLd1と類似する学習データを用いた学習によって得られた他の画像認識モデルに対して転移学習を行うことにより、他の画像認識モデルから学習済みの画像認識モデルθ1を構成してもよい。転移学習を用いることにより、未学習の画像認識モデルθ1を学習済みモデルとする場合よりも、学習コストを低下させることができる。
画像認識モデルθ1に入力される信号(画像データ)をsとすると、信号sに含まれるシンボルが3次元構造物に配置された物体に関連する数値データに対応する場合、信号sは、3次元のテンソル行列として表現される。当該シンボルが2次元平面に配置された物体に関連する数値データに対応する場合、信号sは、ベクトル行列として表現される。当該シンボルが直線上に配置された物体に関連する数値データに対応する場合、信号sは、スカラー行列として表現される。信号sは、4次元以上の多次元の行列として表現されてもよい。また、画像認識モデルθ1の出力(目標値y)も、スカラー行列、ベクトル行列、またはテンソル行列のいずれであってもよい。たとえば、深層学習においては出力層直前の隠れ層の関数を変更することにより、どのような構造の出力でも生成することができる。
符号関数を以下の式(1)のように定義されたsignとする。
Figure 0007069435000002
二乗和誤差または交差エントロピー等の任意の損失関数をLとし、変更される微小量をεとする。信号sは、以下の式(2)のように更新される。式(2)においては、損失関数Lの変化方向(傾きの符号)とは逆向き(逆の符号)の更新信号が信号sに加えられる。
Figure 0007069435000003
また、敵対的攻撃(Adversarial Attack)と呼ばれる技術においては、信号sは、以下の式(3)のように更新される。式(3)においては、信号sが、式(3)においては、損失関数Lの変化方向と同じ向き(同じ符号)の更新信号(ノイズ)が信号sに加えられる。敵対的攻撃は、ノイズに対する画像認識モデルθ1のロバスト性を確保することを目的とする。
Figure 0007069435000004
実施の形態3においては、損失関数Lの傾きの符号を反転させる式(2)を用いて、損失関数Lが最小化するように画像データを更新して、画像認識モデルθ1に対する画像データの認識精度を向上させる。なお、式(2)を用いる方法は敵対的攻撃(データにノイズを加えて画像認識モデルの判定結果を間違えさせる方法)を逆方向に使い、データにノイズを加えて画像認識モデルの判定結果の精度を向上させる技術である。そのため、式(2)を用いる方法を友好的攻撃(Friendly Attack)と定義する。
図25は、友好的攻撃を用いて画像認識モデルθ1に入力される信号sが更新信号dsによって更新される様子を模式的に示す図である。図25に示されるように、信号sに対応する画像データ22にノイズdsに対応する画像データ27が重畳されることにより、信号sは画像データ28に対応する信号に更新される。
図26は、手書き数字の分類問題であるMNIST(Modified National Institute of Standards and Technology)の画像データが式(2)によって更新された様子を示す図である。図26に示される4つの画像データ(a),(b),(c),(d)は、数字の5を表す。以下の表2は、画像データ(a),(b),(c),(d)の各々に対して行われたノイズを加える更新処理の試行回数、当該画像データが3と認識される精度、および当該画像データが5と認識される精度の対応を表す。
Figure 0007069435000005
表2に示されるように、5と認識される精度が0.05%の画像データ(a)にノイズを加えることにより、更新処理の試行回数の増加に応じて、5と認識される精度を向上させることができる。更新処理の試行回数が60回である画像データ(d)が5と認識される精度は、99.98%である。図26に示される画像データが入力される畳み込みニューラルネットワークは、3層の隠れ層を有する。当該畳み込みニューラルネットワークによれば、画像認識に要する計算時間は、GPU等の専用ハードウェアを搭載していない汎用PC(Personal Computer)によると、1つのシンボルにつき3秒以下である。隠れ層の数が3層程度の比較的小さなモデルであれば、スマートフォン等でも1つのシンボルの画像認識の計算が10秒程度で可能である。さらに、形状の区別に曖昧性の比較的高い手書き文字とは異なり、実施の形態3においては丸または四角等の形状の区別に曖昧性が比較的少ないシンボルが用いられるため、学習済みの画像認識モデルθ1の認識精度の初期値が99%程度と高い状態から更新処理を始めることができる。そのため、上記の更新処理によって認識精度が99.999%以上の画像データを生成することができる。
また、上記のように更新されたシンボルを実施の形態1に示される画像データに配置することにより、当該シンボルに対する画像認識モデルθ1の認識精度を向上させることができる。さらに、当該画像データを処理する情報処理装置において画像認識モデルθ1として畳み込みニューラルネットワークが使用される場合には、当該畳み込みニューラルネットワークの少なくとも入力層に最も近い層におけるフィルタのサイズは、認識対象のシンボルに含まれるピクセル数よりも小さいことが望ましい。
なお、画像データにノイズを重畳する更新処理を用いることにより、任意の画像データを鍵として認識させることができる。たとえば、事前に学習された画像認識モデルを使用者(ユーザ)毎に指定された、異なる画像データによって転移学習させて、使用者毎に性質の異なる学習済みの画像認識モデルを作成する。その後、当該画像認識モデルに対して使用者が鍵としたい画像データを学習させ、画像データにノイズを重畳することにより、使用者しか高精度(たとえば検出精度99.99%以上)で認識することができない画像データによって鍵を作ることができる。転移学習、および実施の形態3において行われる友好的攻撃は計算コストが比較的小さいため、高性能な計算機が配置されたクラウド環境に画像データを送る必要がなく、モバイル端末(たとえばスマートフォン)のような計算機であっても、リアルタイムに鍵を生成することができる。その結果、セキュリティ面においても従来の鍵よりも優れた鍵を作成することができる。
なお、上記ではユーザ毎に作成した画像認識モデルを鍵穴とするとともに、当該画像認識モデルの友好的攻撃によって生成された画像データを鍵とする場合について説明した。しかし、画像認識モデルを鍵とし、画像データを鍵穴としてもよい。すなわち、前者の場合には画像認識モデルとなる重み行列を情報処理装置に保持しておき、情報処理装置が所望の画像データを認識したときに、鍵を解除する。一方、後者の場合には画像データを情報処理装置に保持しておき、画像認識モデルとなる重み行列を有する情報処理装置が、当該画像データを認識したときに、鍵を解除する。ただし、ニューラルネットワークを用いる場合においては、画像データの認識精度を100%とすることは困難であるため、たとえば当該認識精度を99.99%以上とすること、または汚れが付着し易い場所においては認識精度を99%以上とする等、環境に合わせて閾値が設定されることが望ましい。特に、汚れが付着し易い場所においては、画像認識モデルの学習データに汚れの画像を含む画像データを含めること、または敵対的攻撃によって汚れ等のノイズに強い頑強な画像データを生成することが望ましい。
以上、実施の形態3に係る情報処理装置によれば、数値データと位置情報との関連性を画像データに対する処理へ反映することを、当該処理を行う情報処理装置によって簡易に実現することができる。
実施の形態4.
実施の形態4においては、画像データに含まれるシンボルに対する画像認識モデルの認識精度を向上させる構成について説明する。実施の形態4に係る情報処理装置は、図1の情報処理装置1と同様であるため、同様の構成に関する説明を繰り返さない。以下では、実施の形態4において特徴的なシンボルの構成について説明する。
図27は、実施の形態4に係るシンボルの一例であるシンボル41の構成を示す図である。図27に示されるように、シンボル41の内部に、シンボル41の大きさ、シンボル41のドットの細かさ、またはシンボル41の向きを把握するためのサブシンボル42が追加されている。シンボル41の内部に、複数のサブシンボル42が追加されてもよい。シンボル41内の少なくとも1つのサブシンボル42の判定に機械学習が用いられる必要はない。たとえば、QR(Quick Response)コードリーダのような画像処理装置によってサブシンボルの情報が取得され、学習済みの画像認識モデルが用いられる情報処理装置に当該情報が入力されてもよい。情報処理装置は、当該情報から、たとえば畳み込みニューラルネットワークにおけるフィルタ(またはカーネル)の大きさ、または向き等の情報を特定することができる。特に、当該向きの補正、プーリングにおけるフィルタサイズ、フィルタの大きさ、またはフィルタを畳み込む向き等が特定される。サブシンボル42の位置は必ずしもシンボル41の四隅のいずれかである必要はない。シンボル41が2次元の画像である場合、シンボル41の2箇所以上にサブシンボル42を配置することによって、シンボル41の傾きを含めた判定を行うことができる。その結果、シンボル41を含む画像データが入力される情報処理装置の認識精度を向上させることができる。また、N(≧3)次元の空間が表現された画像データにおいては、シンボル41の領域を明確化するために、複数のサブシンボル42をN箇所以上に配置することが望ましく、(N+1)箇所以上に配置することがさらに望ましい。その結果、情報処理装置の認識精度を向上させることができる。
また、シンボル41の向きがサブシンボル42によって示されることにより、形状が同じで向きが異なる複数のシンボル(たとえば、上向きの三角のシンボルと下向きの三角のシンボル)を互いに異なる種類の数値データにそれぞれ対応させて1つの画像データに配置することができる。その結果、画像認識モデルθ1の認識精度が高いシンボルを、形状、ハッチング、または色を増やすことなく、当該シンボルと同形状のシンボルの向きを変えることによって作成することができる。
図28は、実施の形態4に係るシンボルの他の例であるシンボル41Aの構成を示す図である。図28に示されるように、シンボル41Aは、複数のドットの組合せとして構成されている。シンボル41Aに含まれるドットDt1にサブシンボル42Aが配置されてもよい。たとえば、シンボル41Aがp×q(p,qは正の整数)個のドットを含む場合、或るドット内において1/p×1/qの大きさのタイル(四角形)をサブシンボル42Aとして、当該ドットの中央部に配置することにより、シンボル41Aの大きさ、または向きを示すことができる。なお、複数のドットの組合せとして構成されたシンボルの形状は、必ずしも正方形である必要はなく、長方形、またはひし形など任意の形状であってよい。さらに、複数のドットの組合せは、等間隔の格子状である必要はなく、対数および指数等が組み合わされた四則演算を用いるルールによって決定される大きさ、および形状を有すれば、どのような組合せであってもよい。
以上、実施の形態4に係る情報処理装置によれば、数値データと位置情報との関連性を画像データに対する処理へ反映することを、当該処理を行う情報処理装置によって簡易に実現することができる。
実施の形態5.
実施の形態5においては、数値パラメータに含まれる複数のパラメータから目的変数との関連が相対的に低いパラメータを削除して、学習処理および推論処理を高速化する構成について説明する。図29は、実施の形態5に係る情報処理装置5の機能構成を示すブロック図である。情報処理装置5の機能構成は、図12の情報処理装置2に次元削減部60が追加された機能構成である。これ以外の情報処理装置5の機能構成は情報処理装置2と同様であるため、当該機能構成に関する説明を繰り返さない。
図29に示されるように、数値データセットSn1,Sn2は、次元削減部60に入力される。次元削減部60は、数値データセットSn1,Sn2に含まれる複数の数値データの各々の次元を削減してグラフ生成部40に出力する。なお、図29に示されている数値データの次元数はpである。
図30は、図29の情報処理装置5のハードウェア構成を示すブロック図である。情報処理装置5のハードウェア構成は、図13に示されるストレージ53に次元削減プログラムPg6が追加された構成である。これ以外の情報処理装置5のハードウェア構成は情報処理装置1と同様であるため、説明を繰り返さない。図30に示されるように、次元削減プログラムPg6は、数値データの次元を削減するためのプログラムである。次元削減プログラムPg6を実行する処理回路51は、図29の次元削減部60として機能する。
以下では、実施の形態5において特徴的なパラメータの削除(次元削減)処理について説明する。
数値データに含まれる複数のパラメータが比較的多い場合、当該複数のパラメータの全ての組合せの散布図を生成することには多くの時間を要する。たとえば、比較的少ないデータ量であるMNISTの画像データであっても、当該画像データは784(=28×28)個のピクセルを有する。そのため、MNISTの画像データを、複数のパラメータを有する数値データと捉える場合、当該数値データは、784個のパラメータを有する。ただし、当該画像データの四隅付近のピクセルはほとんど情報を有さないため、当該ピクセルと、目的変数(正解ラベル)との間には関係性がほとんど認められない場合が多い。そのため、数値データに含まれるパラメータから目的変数との関係性が低いパラメータを削除しても、目的変数を維持することができる。画像データ以外の数値データに関しても同様に不要なパラメータを削除することが可能である。その結果、実施の形態5に係る情報処理装置が実行する学習処理および推論処理を、実施の形態2に係る情報処理装置よりも高速化することができる。
数値データから削除可能なパラメータとしては、値を変化させても正解ラベルが変化しないパラメータ、または正解ラベルに依存していないパラメータを挙げることができる。パラメータの値を変化させても正解ラベルが変化しない場合は、当該パラメータと目的変数との関係を示す散布図において、当該パラメータを示す軸に平行な直線に沿って点が分布する場合である。パラメータが正解ラベルに依存していない場合は、ホワイトノイズのように当該パラメータと正解ラベルとの関係を示す散布図において均一な分布が認められる場合である。或るパラメータと正解ラベルとの関係を示す散布図において、点の分布態様がこれらのようである場合には、当該パラメータを数値データから削除することができる。また、散布図における点の分布態様からパラメータの必要性を判定することができない場合には、当該パラメータと正解ラベルとの間の相互相関を算出し、当該相関関係が小さいパラメータを除去することができる。また、パラメータがアナログ値(連続量)である場合においては深層学習を含む機械学習によって学習済みとされた学習モデルを用いて摂動法を行ってもよい。一方、パラメータにデジタル値(不連続量)を含む場合においては、デジタル値毎に他のパラメータを分け、各パラメータに対して摂動法を行うことも望ましい。たとえば、パラメータが1,2,3,4というデジタル値を有する場合、パラメータが1の場合、パラメータが2の場合、パラメータが3の場合、およびパラメータが4の場合の各々の場合で摂動法が行われてもよい。すなわち、学習モデルに入力されるパラメータの変動に対する当該学習モデルの出力である目的変数の変動を観測し、目的変数の変動が比較的小さいパラメータが数値データから除去されてもよい。
情報処理装置5においては、このように、不要なパラメータが数値データから除去されてから散布図が作成され、当該散布図から関係式が算出される。除去されなかった主要成分としてのパラメータの散布図から関係式が算出された後に、一度除去されたパラメータを用いて関係式を更新して、当該関係式を高精度化してもよい。たとえば、目標値から主要成分のパラメータから作成された関係式の成分を減算して、残った残差成分と除去されたパラメータとを用いて新たな関係式が算出されてもよい。この場合には主要成分の定数の誤差のため残差に誤差が蓄積するため、パラメータが多く関係式の精度が低下する場合には残差成分を用いる必要はない。
上記で説明したように、散布図の分布態様から必要性を判定することができないパラメータに関しては、機械学習を用いてパラメータを削除することができる。散布図を用いて必要性を判定する方法において目標値の決定に影響力の小さい不要なパラメータを除去した後、残ったパラメータに対してパラメータを学習可能な機械学習のアルゴリズムによって学習を行う。不要なパラメータが削除されているため、当該機械学習の計算時間を短縮することができる。当該機械学習の結果を用いて、摂動法によって各パラメータの結果への影響度を計算することができる。摂動法とは入力パラメータが変化したときの目標値の変化を観測する方法である。具体的には、学習済みの学習モデルに学習データ近傍の数値を入力し、目標値の変化量を観測する。
以下では、ばねの端部に接続された物体のエネルギー保存則を表す以下の式(4)を例にして、パラメータの削除について説明する。
Figure 0007069435000006
式(4)において、Eは、物体の有するエネルギーを表す。mは、物体の質量を表す。vは、物体の速度を表す。gは、重力加速度を表す。hは、物体の高さを表す。kは、ばね定数を表す。xは、ばねの変位を表す。エネルギーEが目的変数である。質量m、速度v、重力加速度g、高さh、ばね定数k、および変位xがパラメータ(説明変数)である。散布図による分類においてエネルギーEに関係のない重力加速度gをパラメータから除く。その後に、勾配ブースティング法により決定木における質量m、速度v、高さh、ばね定数k、および変位xの各々の特徴量の重要性(Feature Importance)が計算される。表3は、質量m、速度v、高さh、ばね定数k、および変位xの各々の特徴量の重要性を示す。
Figure 0007069435000007
特徴量の重要性は、目的変数を決めるために決定木で使われた回数を示す。定数である重力加速度gは結果への影響度が比較的小さい。一方、変位xおよび速度vは、表3より分特徴量の重要性が略同じである。また、変位xおよび速度vは、式(4)において2乗されていることから、目的変数Eに他のパラメータよりも大きな影響を有する。このように、パラメータの各々について、目的変数への影響度、または特徴量の重要性を算出して、重力加速度gのような不要なパラメータを削減することにより、散布図に関する関係式を導出するために必要な計算時間を削減することができる。たとえば、n個のパラメータがある場合、O(n)のオーダーで必要な散布図が増えていくため、1つパラメータを削減することにより、n(=n{n+1}/2-{n(n-1)}/2)個の散布図を減らすことができる。
上記においては決定木を用いる場合について説明したが、他の機械学習においては、並び替えによる重要性判定(Permutation Importance)が用いられる場合がある。また、入力値を1パラメータずつ変化させて、目的変数の変化量を測る摂動法を用いてもよい。なお、摂動法を用いる場合のパラメータ量がアナログ値の場合は、当該変化量は、当該アナログ値の最大値と最小値との差が最大値の1%以下であることが望ましい。当該パラメータ量がデジタル値の場合、隣り合う値(たとえばパラメータが整数値Nの場合にはN-1とN+1)等、元のデータに近い値を摂動法の入力値とすることが望ましい。
上記のように目的変数に対する各パラメータの重要性を表す重み付けを行った後に、使用可能な計算リソースまたは計算時間に照らして、削減されるパラメータの個数が変更され得る。計算リソースが比較的少ない場合、または結果が算出されるまでの計算時間を短くすることが望まれる場合には、上記のエネルギー保存則の例において2乗に比例し、主要なパラメータである変位xおよび速度vを用いてエネルギーEを求めることも可能である。一般的な計算機においては、パラメータ数が重要性の重み付けの順位の上位10個程度になるまで削減することが望ましい。
一方、目的変数とパラメータとの間に相関が全く認められない場合、または全てのパラメータと目的変数との間に類似した相関が認められる場合には、目的変数に対して必要なパラメータが入力されていないと考えられる。この場合、パラメータ(たとえば測定条件等)を見直す必要がある。また、どのパラメータも同様の数値となる場合にはパラメータと目的変数との間に強い相関が存在する可能性がある。この場合、目的変数および複数のパラメータは、各パラメータ間の散布図または相互相関から強い依存関係を有するデータとなっている。そのため、目的変数に対する各パラメータの重要性を表す重み付けは、観測点を減らす等のパラメータの測定方法の改善等にも用いることができる。これは、従来の相互相関だけでは判断することができないことであり、散布図または機械学習を用いたアルゴリズムによって、高精度な結果を予測することができる。
上記では特徴量の重要性、または並び替えによる重要性判定、および摂動法からパラメータの削減(次元削減)を行う方法を説明した。次元削減は、主成分分析(PCA:Principal Component Analysis)、特異値分解(SVD:Singular Value Decomposition)、独立成分分析(ICA:Independent Component Analysis)、および線形判別分析(SDA:Linear Discriminant Analysis)などが組み合わされて行われてもよい。また、これらの手法と並び替えによる重要性判定とが組み合わされた方法が用いられてもよい。ただし、上記の計算はいずれも計算量が比較的大きい。そのため、数値データが非常に多くのパラメータを含むビッグデータである場合には、上記の計算を行う前に散布図を用いた計算を行い、不要なパラメータを除去する処理を行うことにより、大幅な計算をすることなくパラメータの削減を行うことができる。また、数値データが比較的小さなデータである場合には、等高線またはヒストグラムを用いることにより、過学習を生じさせずに数値データの特性を把握することができる。たとえば、物理実験のように、1,000以上のデータを集められない場合には、データの取り得る分布もしくは密度を表現することができる等高線、またはデータの大まかな分布を表現することができるヒストグラムを用いる方法は有効である。
以上、実施の形態5に係る情報処理装置によれば、数値データと位置情報との関連性を画像データに対する処理へ反映することを、当該処理を行う情報処理装置によって簡易に実現することができる。
実施の形態6.
実施の形態6においては、散布図等の画像データから算出される関係式の活用例について説明する。1つの条件に対して比較的長い計算時間を要するミュレーション、実験、またはパラメータ数が多いシミュレーション条件において、従来の方法によると、どのパラメータを優先して計算する必要があるかを判断することは困難な場合が多かった。このような場合、モンテカルロ法、または等間隔で全てのパラメータを均一に分散させて計算する方法が用いられることが多い。このような網羅的な計算を防止するために、遺伝的アルゴリズム等を用いてパラメータ数を削減する方法が用いられることがある。しかし、当該方法は、計算量が大きいだけでなく判断の根拠も不明確である。そのため、物理現象等、根拠が必要な設計が求められる場合には、遺伝的アルゴリズム等を用いてのパラメータ数の削減は不向きであった。
一方、実施の形態6においては、シミュレーション条件とシミュレーション結果との組合せから、1回のシミュレーションまたは数回のシミュレーション毎に、シミュレーション結果とシミュレーション条件に関するパラメータとの間の関係式を算出することにより、次のシミュレーション条件を容易に決めることができる。たとえば、実施の形態2,5において説明された構成によって、以下の式(5)のように表される関係式が導かれたとする。
Figure 0007069435000008
式(5)において、Pは、目的変数である。zは、位置パラメータである。uは、材質パラメータである。式(5)において、目的変数Pの導出において位置パラメータzの2乗の値、および材質パラメータuの平方根が使用される。そのため、材質パラメータuよりも位置パラメータzを観測し、目的変数Pに対する微調整の段階において材質パラメータuを観測した方が効率よく所望の目的変数Pに達することができる。また、他のシミュレーション条件に類似するシミュレーション条件でシミュレーションを行う場合に、当該他のシミュレーション条件に対応する式(5)のような関係式を事前に把握しておくことにより、通常よりも少ない回数のシミュレーションによって所望の目的変数が出力されるシミュレーション条件に達することができる。このようにシミュレーション結果から得られた知見を関係式として残すことができるだけでなく、類似の設計に対して同じ関係式を用いることにより、シミュレーション毎に関係式を算出しなくても済むため、目的変数を所望の値とすることができるシミュレーション条件の発見を高速化に行うことができる。
従来の遺伝的アルゴリズム等の方法には、新しいシミュレーション条件が加わると、それまでのシミュレーション結果を再利用することができず、関係式の再計算を要する問題があった。そのため、逆問題が生じることにより、シミュレーション毎の計算コストが大きくなり易い。一方、実施の形態6における散布図の学習方法においては、画像認識モデルの再利用となる推論のみの演算が可能となり、画像認識モデルによる関係式の導出を数秒から数分以内に完了することができる。当該学習処理は、シミュレーションまたは実験の間に次のパラメータを決めること、およびシミュレーションまたは実験の終了後に、目的変数を所望の値とすることができるシミュレーション条件または実験の観測条件の抽出に用いることもできる。
また、実施の形態6に係る学習方法は、実験またはシミュレーションだけではなく、製品価格の設定または製品の評価等の或る条件の下での結果が導かれる構成、あるいは時間経過に応じて変化する機械の故障予測または人の行動予測等の入力と出力との関係が定義された構成であれば、どのような構成であっても適用することができる。特に時間経過に応じて変化する構成に関する時系列データについては、ショートタイムフーリエ変換によって横軸を時間とし、縦軸を周波数特性とするスペクトログラムに変換することで2次元の画像データにすることができる。当該画像データを散布図に替えて使用することにより、散布図に対する処理と同様の処理によってスペクトログラムに関する関係式を導出することができる。ただし、散布図の場合と異なり、スペクトログラムを事前に画像認識モデルθ1に学習させておく必要がある。また、実施の形態1における画像データであっても数値データを画像データにシンボルとして配置することにより、当該画像データに関連する関係式を導出ことができる。たとえば基板CAD(Computer-Aided Design)において、回路部品の回路定数またはIDをシンボルとして基板CAD内に配置し、当該基板CADを電磁界シミュレーションに入力して、シミュレーション結果を教師データとすることにより、CADとシミュレーション結果との間に関係に対応する関係式を導出することができる。
また、機械学習においては、ハイパーパラメータのチューニングに多くの時間を要する場合がある。各ハイパーパラメータに対する画像認識モデルθ1の精度を計算し、それらを用いて関係式を導出することにより、ハイパーパラメータチューニングの高速化を実現することができる。逐次計算によって当該関係式を算出しても良い。全ての計算が完了してから当該関係式を算出し、別の学習タイミングにおいて当該関係式を用いることによって各機械学習に最適なハイパーパラメータを算出し易くなる。また、関係式により、ハイパーパラメータ間の関係性も把握することができるため、当該関係式を用いてハイパーパラメータを算出することができる。その結果、類似のデータに対して類似のアルゴリズムを用いる場合、変更する必要がないハイパーパラメータを除去するとともに、優先的に変更する必要があるハイパーパラメータを抽出することができ、2回目の試行以降の設計効率を向上させることができる。
以上、実施の形態6に係る情報処理装置によれば、数値データと位置情報との関連性を画像データに対する処理へ反映することを、当該処理を行う情報処理装置によって簡易に実現することができる。
実施の形態7.
実施の形態7においては、実施の形態2において説明された散布図の分布が偏っている場合に、当該分布を一様分布に変換する構成について説明する。図31は、実施の形態7に係る情報処理装置7の機能構成を示すブロック図である。情報処理装置7の機能構成は、図12のグラフ生成部40が40Aに置き換えられた構成である。これ以外の情報処理装置7の機能構成は情報処理装置2と同様であるため、当該機能構成に関する説明を繰り返さない。
図31に示されるように、グラフ生成部40Aは、数値データセットSn1に含まれる複数の数値データの分布が一様化された一様分布を表す散布図Sp11を含む散布図セットSs1を生成し、散布図セットSs1を学習部10に出力する。グラフ生成部40Aは、数値データセットSn2に含まれる複数の数値データの分布が一様化された一様分布を表す散布図Sp21を含む散布図セットSs2を生成し、散布図セットSs2を推論部20に出力する。
図32は、図31の情報処理装置7のハードウェア構成を示すブロック図である。情報処理装置7のハードウェア構成は、図13に示されるグラフ生成プログラムPg3がPg7に置き換えられた構成である。これ以外の情報処理装置7のハードウェア構成は情報処理装置2と同様であるため、説明を繰り返さない。図32に示されるように、グラフ生成プログラムPg7は、数値データセットを受けて、当該数値データセットに含まれる複数の数値データから生成される複数の一様分布を含む散布図セットを生成するためのプログラムである。グラフ生成プログラムPg7を実行する処理回路51は、図31のグラフ生成部40Aとして機能する。
以下では、グラフ生成部40Aによって行われる一様分布の生成処理について説明する。
物理実験等の自然現象を対象にする構成において得られる散布図は、正規分布(ガウス分布)ではない特有の分布、または一様分布ではない特有な分布を有する場合が多い。また、測定条件となるパラメータに関しても経験則で最も所望の特性が得られる領域を重点的に測定することが多いため、測定結果の分布に偏りが生じる場合がある。さらに、実測または試行回数が限られる多くの環境においてデータを十分に取得することができない場合、学習データの不足により、学習処理が十分に行えない。たとえば、100点以下の少ないデータでは、高い精度を有する学習済みモデルを深層学習によって生成することは困難である。そのような場合、実施の形態2で説明された散布図に替えて等高線を用いる方法が有効である。特にパラメータと目標値(正解データ)とがセットになった教師データの数が1,000個以下程度の場合には、図17に示されるような等高線を用いる方法が有効である。
一方、データが1,000個以上のある場合においては、不要なパラメータが含まれていても、従来知られている機械学習アルゴリズムによって目的変数を精度よく算出することが可能な学習済みモデルを生成することができる。
分類問題における機械学習アルゴリズムには、確率的勾配降下法(SGD:Stochastic Gradient Descent)、サポートベクターマシン、k近傍法(k-NN:k-Nearest Neighbors)、ディープニューラルネットワーク(DNN:Deep Neural Network)を用いる深層学習、勾配ブースティング(Gradient Boosting)、決定木等が含まれる。回帰問題における機械学習アルゴリズムには、SGD、ラッソ回帰(Lasso:Least absolute shrinkage and selection operator)、エラステック回帰(ElasticNet)、サポートベクター回帰(SVR:Support Vector Regression)、勾配ブースティング、深層学習、あるいはこれらの組合せであるアンサンブル学習等が含まれる。さらに、各機械学習アルゴリズムの結果の平均値が用いられてもよい。
データが1,000個以上ある場合においてもデータの分布に偏りがある場合においては、実施の形態2において説明された散布図における平行成分の抽出は難しくなる。一般的に、物理現象に関するデータは正規分布に従うことが多い。そのような場合、散布図においてデータの平均値周辺の濃度が濃く、その周辺部では濃度が薄くなる。この場合において散布図におけるデータの分布は平行な特性を持っていても、図33に示されるような円状の分布に近づくため、当該分布から平行成分の抽出することは困難である。このような場合において、グラフ生成部40Aは、各パラメータ間での散布図に対してクラスタリングを行い、散布図を複数の境界領域に分割する。なお、散布図は2つのパラメータずつに分割して処理されてもよい。しかし、データを同時に処理することができるメモリを確保可能であるなら、M個のパラメータとN個の目的変数とがある場合、最大でM+N次元空間でクラスタリングを行い、境界領域を求めることが望ましい。また、パラメータにデジタル値(非連続な離散値)が含まれる場合においては、当該パラメータの離散値ごとにクラスタリングを行うことが望ましい。さらに、グラフ生成部40Aは、各パラメータに対して図34に示されるような一様分布を作成し、当該一様分布を上記のクラスタリング結果(複数の境界領域)に適用することによって、当該散布図を更新する。グラフ生成部40Aは、更新された散布図を学習部10または推論部20に出力する。
なお、図33に示される散布図におけるパラメータx1の範囲は、x1_min以上x1_max以下である。図34に示される一様分布の散布図におけるパラメータx1の範囲は、図33に示される散布図におけるパラメータx1の範囲と同じである。このように、一様分布は元のデータの範囲内で作成されることが望ましいが、物理的な連続性が確認できているパラメータに対しては、元のデータに対する外挿を行うために、元のデータよりも広い範囲の一様分布を用いてもよい。たとえば、式(4)に示されるエネルギー方程式における速度vのように、或る物理量に比例すると予想されるパラメータに対しては、速度vのデータの範囲が1m/s~10m/sであるときに、一様分布の範囲を-10m/s~20m/sとしても構わない。さらに、必要な領域が狭くてもよい場合においては、5m/s~7m/sの一様分布が生成されてよい。
上記で説明されたクラスタリングには、サポートベクタークラスタリング(SVC:Support Vector Clustering)、およびCNNを用いるクラスタリングが含まれる。上記で説明されたクラスタリングは、k-means法等の古典的な機械学習、および深層学習等が組み合わされた方法であれば、どのような方法であってもよい。また、クラスタリングにおいて定義される距離には、一般的なユークリッド距離、マハラノビス距離、マンハッタン距離等が含まれる。
上述のように、散布図において分布するデータの個数が少ない場合においては深層学習によって高い精度を有する学習済みモデルを生成することが困難である。しかし、一様分布によりデータを増やすことができれば深層学習を用いることができる。ただし、元のデータに対して任意の学習を行い、元のデータの一部のテストデータを用いて評価した精度と、一様分布によって作り出したデータに対して学習を行って元のデータの一部のテストデータを用いて評価した精度とを比較した結果、前者の精度よりも後者の精度が10%以上低下する場合には一様分布の作り方を見直すことが望ましい。特に上述されたように、一様分布の範囲を狭めること、クラスタリングの方法を変更すること、またはデータを処理する機械学習のアルゴリズムを変更することにより、精度を低下させずにデータを生成することができる。
ただし、データの分布のばらつき次第では、上記のクラスタリングでは補間が難しい場合がある。このような場合には深層学習ではなく、ランダムフォレスト、勾配ブースティング法、従来の機械学習、またはアンサンブル学習等により、実施の形態7に係る情報処理装置によって、90%以上の高い精度で解を予測することが可能な関係式を推論することができる。ただし、学習データに対する精度が向上しても過学習による場合が多いため、テストデータを学習データとは別に予め用意する必要があること、または交差処理による方法を用いて評価する必要があることは従来と同様である。さらに、複数の機械学習の推定値の平均または多数決を算出するアンサンブル学習が用いられてもよい。
以上、実施の形態7に係る情報処理装置によれば、数値データと位置情報との関連性を画像データに対する処理へ反映することを、当該処理を行う情報処理装置によって簡易に実現することができる。
実施の形態8.
実施の形態8においては、実施の形態1に係る情報処理装置によって処理される所望の特性を有する画像データが、生成モデルによって自動的に生成される構成について説明する。図35は、実施の形態8に係る情報処理装置8の機能構成を示すブロック図である。情報処理装置8の機能構成は、図1の情報処理装置1に画像生成部80および画像生成モデルθ2が追加されているとともに、学習部10が10Aに置き換えられた機能構成である。これら以外の情報処理装置8の機能構成は情報処理装置1と同様であるため、当該機能構成に関する説明を繰り返さない。
図36に示されるように、学習部10Aは、画像データIm1を含む学習データLd1を用いた機械学習により、画像認識モデルθ1および画像生成モデルθ2を学習済みモデルとする。画像生成部80は、画像生成モデルθ2を用いて、複数のソースデータSd21~Sd2Kから、画像データIm2を生成し、画像データIm2を推論部20に出力する。
図36は、図35の情報処理装置8のハードウェア構成を示すブロック図である。情報処理装置8のハードウェア構成は、図7に示されるストレージ53に画像生成モデルθ2および画像生成プログラムPg8が追加されているとともに、機械学習プログラムPg1がPg1Aに置き換えられた構成である。これら以外の情報処理装置8のハードウェア構成は情報処理装置1と同様であるため、説明を繰り返さない。図36に示されるように、機械学習プログラムPg1Aは、画像認識モデルθ1および画像生成モデルθ2に対して機械学習を行うためのプログラムである。画像生成プログラムPg8は、複数のソースデータから当該複数のソースデータにそれぞれ対応する複数のシンボルを含む画像データを生成するためのプログラムである。機械学習プログラムPg1Aおよび画像生成プログラムPg8において、画像生成モデルθ2が参照される。機械学習プログラムPg1Aを実行する処理回路51は、図35の学習部10Aとして機能する。画像生成プログラムPg8を実行する処理回路51は、図35の画像生成部80として機能する。
画像生成モデルθ2としては、たとえば、深層学習の応用例の一つである敵対的生成ネットワークで所望の特性を持つ画像を生成することができる。敵対的生成ネットワークとは、2つのCNN等のネットワークを同時に学習させて、一方のネットワークにデータ(生成器)を生成させ、他方のネットワーク(識別器)に生成されたデータが本物であるか否かを判定する機能を持たせる構成である。
図37は、学習済みとされた図35の画像生成モデルθ2を用いて生成された、電子回路の一部であるノイズフィルタ70の画像データIm8を示す図である。図37に示されるように、ノイズフィルタ70は、コンデンサ31-1,31-2と、コイル32-1,32-2とを含む。コンデンサ31-1,31-2の部品定数と、コイル32-1,32-2の部品定数とが変更された3,000条件の下で電磁界解析が計算される。コンデンサ31-1,31-2と、コイル32-1,32-2とは、画像データIm8において互いに異なるシンボルで表現されている。コンデンサ31-1,31-2、およびコイル32-1,32-2の各々の部品定数は、当該部品に対応するシンボルの大きさ(線の太さ)として表現されている。画像データIm8は、敵対的生成ネットワークに含まれるDCGAN(Deep Convolutional Generative Adversarial Networks)と呼ばれる構成を用いて、50,000万回程度の試行回数を行い、マルチコアのCPUによって1時間以下の学習処理によって生成された画像データである。
図38は、学習済みとされた図35の画像生成モデルθ2によって生成された、ノイズフィルタ70の他の画像データIm8A,8B,8C,8D,8E,8F,8G,8Hを示す図である。画像データIm8A~8Hの順に、ノイズフィルタ70の減衰量が大きくなる。学習済みの画像生成モデルθ2を用いた画像データIm8A~8Hの生成はマルチコアのCPUによって10秒以内に完了し得る。
図38に示されるように、減衰量が大きくなるにつれて、画像データにおけるシンボルが大きく(線が太く)なる傾向が認められる。ただし、一様に大きくなっていないのは部品間の空間結合(電界結合または磁界結合)により、ノイズフィルタ70の減衰量が異なるためである。このように、非線形な特性を有する物体の数値データに関しても、当該数値データをシンボルとして表現することができる。このように、学習済みの画像生成モデルθ2を用いることにより、画像データに含まれる物体の使用者(当該物体が回路の場合は設計者)が意図する特性の数値データを有する画像データを生成することができる。画像データに含まれるシンボルの大きさ、寸法、または形状から、当該シンボルに対応する数値データを把握することができる。
なお、ノイズフィルタの例では部品定数をパラメータとしたが、実施の形態1において説明された部品のID等をシンボルに割り当てることにより、熱または振動等の物理現象にとどまらず、在庫管理、人の動線制御、またはシステム設計等のより広い分野にも画像生成モデルによって画像データを生成する構成を適用することができる。
以上、実施の形態8に係る情報処理装置によれば、数値データと位置情報との関連性を画像データに対する処理へ反映することを、当該処理を行う情報処理装置によって簡易に実現することができる。
今回開示された各実施の形態は、矛盾しない範囲で適宜組み合わせて実施することも予定されている。今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1,1A,1B,2,3,5,7,8 情報処理装置、9 降圧チョッパ回路、10,10A 学習部、20 推論部、30 記憶部、40,40A グラフ生成部、50 画像更新部、51 処理回路、52 メモリ、53 ストレージ、54 入出力部、60 次元削減部、70 ノイズフィルタ、80 画像生成部、90 プリント基板、91 パワー半導体、92 ダイオード、93 インダクタ、Ac 空調機、Pg1,Pg1A 機械学習プログラム、Pg2 画像認識プログラム、Pg3,Pg7 グラフ生成プログラム、Pg4 画像更新プログラム、Pg6 次元削減プログラム、Pg8 画像生成プログラム、Stm 温度センサ。

Claims (32)

  1. 特定空間における複数の数値データの分布を表現する画像データを処理する情報処理装置であって、
    画像認識プログラムが保存された記憶部と、
    前記画像認識プログラムを実行することにより前記画像データから前記複数の数値データに関する特定情報を抽出する推論部とを備え、
    前記複数の数値データの各々は、当該数値データの種類ごとに形状または模様が異なる外観を有するシンボルであって、前記シンボルは、前記特定空間において当該数値データに関連付けられた対象が前記特定空間内に占める領域に配置されている、情報処理装置。
  2. 前記記憶部には、学習済みの画像認識モデルがさらに保存され、
    前記画像認識モデルは、画像フィルタおよびニューラルネットワークの少なくとも1つを含み、
    前記推論部は、前記画像認識モデルを用いて前記特定情報を抽出する、請求項1に記載の情報処理装置。
  3. 前記画像データに対応する前記画像認識モデルの出力と前記画像データに対応する目標値との差を定義する損失関数が最小化するように前記画像データにノイズを重畳して前記画像データを更新する画像更新部をさらに備える、請求項2に記載の情報処理装置。
  4. 前記画像データから前記画像認識モデルを生成する学習部をさらに備える、請求項2または3に記載の情報処理装置。
  5. 前記記憶部には、前記画像データを生成する生成モデルがさらに保存され、
    前記情報処理装置は、前記生成モデルを用いて前記画像データを生成するグラフ生成部をさらに備える、請求項1~4のいずれか1項に記載の情報処理装置。
  6. 前記生成モデルは、敵対的生成ネットワークを含む、請求項5に記載の情報処理装置。
  7. 前記複数の数値データは、前記特定空間に配置された少なくとも1つの物体にそれぞれ関連付けられ、
    前記特定空間において前記複数の数値データの各々が関連付けられる位置は、当該数値データが関連付けられる物体が前記特定空間において配置されている位置であり、
    前記外観は、前記シンボルに対応する数値データの大きさ、および当該数値データに関連する物体の種類に対応している、請求項1~6のいずれか1項に記載の情報処理装置。
  8. 前記シンボルは、前記大きさおよび前記種類の少なくとも一方を表す複数のドットの組合せを含む、請求項7に記載の情報処理装置。
  9. 前記シンボルは、前記大きさおよび前記シンボルの向きの少なくとも1つを示すサブシンボルを含む、請求項7または8に記載の情報処理装置。
  10. 前記特定空間は、少なくとも1つの回路部品が実装されるプリント基板上の2次元平面を表し、
    前記シンボルは、前記少なくとも1つの回路部品のいずれかに対応する、請求項7~9のいずれか1項に記載の情報処理装置。
  11. 前記特定空間は、少なくとも1つのセンサが配置される3次元空間を表し、
    前記シンボルは、前記少なくとも1つのセンサのいずれかに対応する、請求項7~9のいずれか1項に記載の情報処理装置。
  12. 前記複数の数値データの各々は、少なくとも1つのパラメータを含み、
    前記画像データは、前記少なくとも1つのパラメータにそれぞれ対応する少なくとも1つの座標軸を有するグラフを含む、請求項1~4のいずれか1項に記載の情報処理装置。
  13. 前記複数の数値データから前記グラフを生成するグラフ生成部をさらに備える、請求項12に記載の情報処理装置。
  14. 前記グラフは、2次元以上の散布図を含む、請求項13に記載の情報処理装置。
  15. 前記グラフ生成部は、
    前記2次元以上の散布図に対してクラスタリングを行って前記2次元以上の散布図を複数の境界領域に分割し、
    前記少なくとも1つのパラメータの各々に対して一様分布を生成し、
    前記一様分布を前記複数の境界領域に適用して、前記2次元以上の散布図を更新する、請求項14に記載の情報処理装置。
  16. 前記複数の数値データは、第1パラメータと、第2パラメータとを含み、
    前記数値データから生成されたグラフは、前記第1パラメータと前記第2パラメータとの関係を表す第1散布図を含み、
    前記推論部は、
    前記第1散布図から、平行な第1包絡線および第2包絡線を抽出し、
    前記第1包絡線および前記第2包絡線の傾きから、前記第1パラメータを表す、前記第1パラメータと前記第2パラメータとの第1関係式を導出する、請求項12~15のいずれか1項に記載の情報処理装置。
  17. 前記複数の数値データは、第3パラメータと、第4パラメータとをさらに含み、
    前記推論部は、
    前記第3パラメータおよび前記第4パラメータの少なくとも一方に対する特定演算、または前記第3パラメータおよび前記特定演算から取得される第5パラメータの少なくとも一方に対する前記特定演算から取得される値の対数から、前記第3パラメータと前記第4パラメータとの関係、または前記第3パラメータと前記第5パラメータとの関係を表す第2散布図を生成し、
    前記第2散布図から、平行な第3包絡線および第4包絡線を抽出し、
    前記第3包絡線および前記第4包絡線の傾きから、前記第3パラメータと前記第4パラメータとの関係式、または前記第3パラメータと前記第5パラメータとの関係式を導出する、請求項12~16のいずれか1項に記載の情報処理装置。
  18. 前記少なくとも1つのパラメータは、目的変数を含み、
    前記目的変数に対する前記少なくとも1つのパラメータの重要性の順位を用いて、前記少なくとも1つのパラメータの次元削減を行う次元削減部をさらに備える、請求項12~17のいずれか1項に記載の情報処理装置。
  19. 前記次元削減部は、摂動法を用いて前記順位を算出する、請求項18に記載の情報処理装置。
  20. 前記少なくとも1つのパラメータは、シミュレーション条件に関するパラメータ、実験の観測条件に関するパラメータ、または機械学習のハイパーパラメータを含む、請求項12~17のいずれか1項に記載の情報処理装置。
  21. 前記複数の数値データは、目的変数を含み、
    前記画像更新部は、友好的攻撃によって前記画像データを更新し、
    前記推論部は、前記友好的攻撃によって更新された前記画像データから前記画像認識モデルを用いて前記目的変数を抽出する、請求項3に記載の情報処理装置。
  22. 前記画像認識モデルは、ユーザ毎に指定された画像データを学習データとする転移学習によって生成される、請求項21に記載の情報処理装置。
  23. 特定空間における複数の数値データの分布を表現する画像データを処理する情報処理装置であって、
    前記画像データから前記複数の数値データに関する特定情報を抽出する画像認識モデルが保存された記憶部と、
    前記画像認識モデルを学習済みモデルとする学習部とを備え、
    前記複数の数値データの各々は、当該数値データの種類ごとに形状または模様が異なる外観を有するシンボルであって、前記シンボルは、前記特定空間において当該数値データに関連付けられた対象が前記特定空間内に占める領域に配置されている、情報処理装置。
  24. 特定空間における少なくとも1つの数値データの分布を表現する画像データを処理する情報処理装置であって、
    画像認識プログラムが保存された記憶部と、
    前記画像認識プログラムを実行することにより前記画像データから前記少なくとも1つの数値データに関する特定情報を抽出する推論部とを備え、
    前記少なくとも1つの数値データの各々に対応する外観を有するシンボルは、前記特定空間において当該数値データに関連付けられた対象が前記特定空間内に占める領域に配置され、
    前記記憶部には、学習済みの画像認識モデルがさらに保存され、
    前記推論部は、前記画像認識モデルを用いて前記特定情報を抽出し、
    前記画像データに対応する前記画像認識モデルの出力と前記画像データに対応する目標値との差を定義する損失関数が最小化するように前記画像データにノイズを重畳して前記画像データを更新する画像更新部をさらに備える、情報処理装置。
  25. 特定空間における少なくとも1つの数値データの分布を表現する画像データを処理する情報処理装置であって、
    画像認識プログラムが保存された記憶部と、
    前記画像認識プログラムを実行することにより前記画像データから前記少なくとも1つの数値データに関する特定情報を抽出する推論部とを備え、
    前記少なくとも1つの数値データの各々に対応する外観を有するシンボルは、前記特定空間において当該数値データに関連付けられた対象が前記特定空間内に占める領域に配置され、
    前記記憶部には、前記画像データを生成する生成モデルがさらに保存され、
    前記情報処理装置は、前記生成モデルを用いて前記画像データを生成するグラフ生成部をさらに備える、情報処理装置。
  26. 特定空間における少なくとも1つの数値データの分布を表現する画像データを処理する情報処理装置であって、
    画像認識プログラムが保存された記憶部と、
    前記画像認識プログラムを実行することにより前記画像データから前記少なくとも1つの数値データに関する特定情報を抽出する推論部とを備え、
    前記少なくとも1つの数値データの各々に対応する外観を有するシンボルは、前記特定空間において当該数値データに関連付けられた対象が前記特定空間内に占める領域に配置され、
    前記少なくとも1つの数値データは、前記特定空間に配置された少なくとも1つの物体にそれぞれ関連付けられ、
    前記特定空間において前記少なくとも1つの数値データの各々が関連付けられる位置は、当該数値データが関連付けられる物体が前記特定空間において配置されている位置であり、
    前記外観は、前記シンボルに対応する数値データの大きさ、および当該数値データに関連する物体の種類に対応している、情報処理装置。
  27. 特定空間における少なくとも1つの数値データの分布を表現する画像データを処理する情報処理装置であって、
    画像認識プログラムが保存された記憶部と、
    前記画像認識プログラムを実行することにより前記画像データから前記少なくとも1つの数値データに関する特定情報を抽出する推論部とを備え、
    前記少なくとも1つの数値データの各々に対応する外観を有するシンボルは、前記特定空間において当該数値データに関連付けられた対象が前記特定空間内に占める領域に配置され、
    前記少なくとも1つの数値データの各々は、少なくとも1つのパラメータを含み、
    前記画像データは、前記少なくとも1つのパラメータにそれぞれ対応する少なくとも1つの座標軸を有するグラフを含む、情報処理装置。
  28. 特定空間における少なくとも1つの数値データの分布を表現する画像データを処理する情報処理装置であって、
    前記画像データから前記少なくとも1つの数値データに関する特定情報を抽出する画像認識モデルが保存された記憶部と、
    前記画像認識モデルを学習済みモデルとする学習部と、
    前記画像データに対応する前記画像認識モデルの出力と前記画像データに対応する目標値との差を定義する損失関数が最小化するように前記画像データにノイズを重畳して前記画像データを更新する画像更新部とを備え、
    前記少なくとも1つの数値データの各々に対応する外観を有するシンボルは、前記特定空間において当該数値データに関連付けられた対象が前記特定空間内に占める領域に配置されている、情報処理装置。
  29. 特定空間における少なくとも1つの数値データの分布を表現する画像データを処理する情報処理装置であって、
    前記画像データから前記少なくとも1つの数値データに関する特定情報を抽出する画像認識モデル、および前記画像データを生成する生成モデルが保存された記憶部と、
    前記画像認識モデルを学習済みモデルとする学習部と、
    前記生成モデルを用いて前記画像データを生成するグラフ生成部とを備え、
    前記少なくとも1つの数値データの各々に対応する外観を有するシンボルは、前記特定空間において当該数値データに関連付けられた対象が前記特定空間内に占める領域に配置されている、情報処理装置。
  30. 特定空間における少なくとも1つの数値データの分布を表現する画像データを処理する情報処理装置であって、
    前記画像データから前記少なくとも1つの数値データに関する特定情報を抽出する画像認識モデルが保存された記憶部と、
    前記画像認識モデルを学習済みモデルとする学習部とを備え、
    前記少なくとも1つの数値データの各々に対応する外観を有するシンボルは、前記特定空間において当該数値データに関連付けられた対象が前記特定空間内に占める領域に配置され、
    前記少なくとも1つの数値データは、前記特定空間に配置された少なくとも1つの物体にそれぞれ関連付けられ、
    前記特定空間において前記少なくとも1つの数値データの各々が関連付けられる位置は、当該数値データが関連付けられる物体が前記特定空間において配置されている位置であり、
    前記外観は、前記シンボルに対応する数値データの大きさ、および当該数値データに関連する物体の種類に対応している、情報処理装置。
  31. 特定空間における少なくとも1つの数値データの分布を表現する画像データを処理する情報処理装置であって、
    前記画像データから前記少なくとも1つの数値データに関する特定情報を抽出する画像認識モデルが保存された記憶部と、
    前記画像認識モデルを学習済みモデルとする学習部とを備え、
    前記少なくとも1つの数値データの各々に対応する外観を有するシンボルは、前記特定空間において当該数値データに関連付けられた対象が前記特定空間内に占める領域に配置され、
    前記少なくとも1つの数値データの各々は、少なくとも1つのパラメータを含み、
    前記画像データは、前記少なくとも1つのパラメータにそれぞれ対応する少なくとも1つの座標軸を有するグラフを含む、情報処理装置。
  32. 同じ種類の前記数値データに対して、三角形および四角形を含む多角形ならびに円および楕円を含む多角形以外の形状のうちの一つが選択されて前記シンボルとして定義され、
    前記シンボルは、前記特定空間において、前記数値データが占める領域の重心座標または前記数値データが占める領域内の任意の点の座標に配置される、請求項1~31のいずれか1項に記載の情報処理装置。
JP2021563348A 2021-05-31 2021-05-31 情報処理装置 Active JP7069435B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/020708 WO2022254528A1 (ja) 2021-05-31 2021-05-31 情報処理装置

Publications (2)

Publication Number Publication Date
JP7069435B1 true JP7069435B1 (ja) 2022-05-17
JPWO2022254528A1 JPWO2022254528A1 (ja) 2022-12-08

Family

ID=81607966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021563348A Active JP7069435B1 (ja) 2021-05-31 2021-05-31 情報処理装置

Country Status (4)

Country Link
EP (1) EP4328854A4 (ja)
JP (1) JP7069435B1 (ja)
CN (1) CN117377968A (ja)
WO (1) WO2022254528A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124639A (ja) * 2017-01-30 2018-08-09 日本電気株式会社 データ分析システム、データ分析方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867224B2 (en) * 2016-09-28 2020-12-15 3M Innovative Properties Company Occlusion-resilient optical codes for machine-read articles
JP6877978B2 (ja) 2016-12-06 2021-05-26 日本電気通信システム株式会社 学習装置、学習方法およびプログラム
JP6964857B2 (ja) * 2017-03-28 2021-11-10 国立大学法人神戸大学 画像認識装置、画像認識方法、コンピュータプログラム、及び製品監視システム
JP6757378B2 (ja) * 2018-08-28 2020-09-16 株式会社モルフォ 画像識別装置、画像識別方法及び画像識別プログラム
US20220036140A1 (en) * 2018-09-26 2022-02-03 Riken Classification device, classification method, program, and information recording medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124639A (ja) * 2017-01-30 2018-08-09 日本電気株式会社 データ分析システム、データ分析方法およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
遠藤 結城 ほか,移動手段推定のための表現学習を用いたGPSログからの特徴抽出,情報処理学会論文誌 データベース(TOD) [online],情報処理学会,2015年,第8巻, 第3号,pp.12-23,[検索日 2015.12.25], インターネット:<URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=145433&file_id=1&file_no=1>
遠藤 結城 ほか: "移動手段推定のための表現学習を用いたGPSログからの特徴抽出", 情報処理学会論文誌 データベース(TOD) [ONLINE], vol. 第8巻, 第3号, JPN6021027038, 2015, pages 12 - 23, ISSN: 0004698241 *

Also Published As

Publication number Publication date
CN117377968A (zh) 2024-01-09
EP4328854A1 (en) 2024-02-28
JPWO2022254528A1 (ja) 2022-12-08
EP4328854A4 (en) 2024-05-01
WO2022254528A1 (ja) 2022-12-08

Similar Documents

Publication Publication Date Title
Angra et al. Machine learning and its applications: A review
Kannan et al. Effective fuzzy c-means clustering algorithms for data clustering problems
Babichev et al. An evaluation of the objective clustering inductive technology effectiveness implemented using density-based and agglomerative hierarchical clustering algorithms
US20130177235A1 (en) Evaluation of Three-Dimensional Scenes Using Two-Dimensional Representations
Yang et al. Object matching with hierarchical skeletons
CN113272827A (zh) 卷积神经网络中分类决策的验证
Iqbal et al. Learning feature fusion strategies for various image types to detect salient objects
Chew et al. Large-scale 3D point-cloud semantic segmentation of urban and rural scenes using data volume decomposition coupled with pipeline parallelism
JP2019191895A (ja) データ分析システム及びデータ分析方法
Hamidzadeh et al. Identification of uncertainty and decision boundary for SVM classification training using belief function
CN107609507B (zh) 基于特征张量和支持张量机的遥感图像目标识别方法
Tsai et al. Machine learning based common radiologist-level pneumonia detection on chest X-rays
Cirrincione et al. The growing curvilinear component analysis (GCCA) neural network
Pinjarkar et al. Deep CNN combined with relevance feedback for trademark image retrieval
Kar et al. Tropical cyclones classification from satellite images using blocked local binary pattern and histogram analysis
Liu et al. Adaptive image segmentation by using mean‐shift and evolutionary optimisation
Zeybek Inlier point preservation in outlier points removed from the ALS point cloud
JP7069435B1 (ja) 情報処理装置
CN115937568B (zh) 一种玄武岩构造背景分类方法、系统、装置及存储介质
Feng et al. Fuzzy clustering image segmentation based on particle swarm optimization
Berikov et al. On a weakly supervised classification problem
Shukla et al. Automated face retrieval using bag-of-features and sigmoidal grey wolf optimization
Kurniati et al. GLCM-Based Feature Combination for Extraction Model Optimization in Object Detection Using Machine Learning
Ramathilaga et al. Two novel fuzzy clustering methods for solving data clustering problems
Tamura et al. Time series classification using macd-histogram-based recurrence plot

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211025

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7069435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150