JP7390715B2 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7390715B2
JP7390715B2 JP2020024587A JP2020024587A JP7390715B2 JP 7390715 B2 JP7390715 B2 JP 7390715B2 JP 2020024587 A JP2020024587 A JP 2020024587A JP 2020024587 A JP2020024587 A JP 2020024587A JP 7390715 B2 JP7390715 B2 JP 7390715B2
Authority
JP
Japan
Prior art keywords
data
network
dimensional
state
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020024587A
Other languages
Japanese (ja)
Other versions
JP2021128706A (en
Inventor
俊介 大門
慎二 川上
英治 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2020024587A priority Critical patent/JP7390715B2/en
Priority to PCT/JP2021/005838 priority patent/WO2021166933A1/en
Publication of JP2021128706A publication Critical patent/JP2021128706A/en
Application granted granted Critical
Publication of JP7390715B2 publication Critical patent/JP7390715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

従来、対象物を識別するための技術が提案されている。例えば、特許文献1には、対象物が有するランダムな特徴をスキャンし、スキャンしたランダムな特徴を所定のルールに従って変換してラベルを生成し、当該ラベルを用いて対象物を識別する技術が記載されている。 Conventionally, techniques for identifying objects have been proposed. For example, Patent Document 1 describes a technology that scans random features of an object, converts the scanned random features according to predetermined rules to generate a label, and uses the label to identify the object. has been done.

米国特許7577844号明細書US Patent No. 7,577,844

対象物の特徴が、必ずしも測定可能ではない場合があると考えらえる。特許文献1に記載の技術では、スキャンできない特徴を対象物が有している場合には、対象物を当該特徴に基づいて、対象物を識別できないと考えられる。 It is thought that the characteristics of an object may not necessarily be measurable. With the technique described in Patent Document 1, if an object has a feature that cannot be scanned, it is considered that the object cannot be identified based on the feature.

そこで、本発明は、測定することが困難な特徴を対象物が有する場合であっても、当該特徴に基づいて対象物を識別することを可能とする情報処理装置、情報処理方法及びプログラムを提供することを目的とする。 Therefore, the present invention provides an information processing device, an information processing method, and a program that make it possible to identify an object based on the characteristic even if the object has a characteristic that is difficult to measure. The purpose is to

本発明の一態様に係る情報処理装置は、対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、第2ネットワークが、状態データを復元するm次元のデータを出力するように、第1ネットワーク及び第2ネットワークを学習する第1学習部と、対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、第2ベクトルに基づくデータを入力とする、第1学習部により学習された学習済みの第2ネットワークと、について、学習済みの第2ネットワークが、第2ベクトルに基づき対象物の状態を推定する推定データを出力するように、第3ネットワークを学習する第2学習部と、を備える。 An information processing device according to one aspect of the present invention inputs m-dimensional (m: a natural number of 2 or more) state data regarding the state of an object, and generates an n-dimensional (n: a natural number, m>n) first vector. Regarding the first network that outputs and the second network that receives data based on the first vector as input and outputs m-dimensional data, the second network outputs m-dimensional data that restores state data. , a first learning unit that learns the first network and the second network, and receives p-dimensional (p: a natural number of 2 or more, p>n) physical data of the object as input and outputs an n-dimensional second vector. Regarding the third network and the trained second network trained by the first learning unit that receives data based on the second vector as input, the trained second network and a second learning unit that learns the third network so as to output estimation data for estimating the state.

この態様によれば、対象物の状態に含まれる特徴が測定困難であっても、対象物の物理データを用いることで対象物の状態を推定することができる。この推定によって、測定することが困難な特徴に基づいて対象物を識別することが可能となる。 According to this aspect, even if the characteristics included in the state of the object are difficult to measure, the state of the object can be estimated by using the physical data of the object. This estimation allows objects to be identified based on characteristics that are difficult to measure.

上記態様において、第2学習部により学習された学習済みの第3ネットワークと、学習済みの第3ネットワークにより出力される第2ベクトルに基づくデータを入力する学習済みの第2ネットワークとを用いて、学習済みの第3ネットワークに物理データを入力することで、学習済みの第2ネットワークにより推定データを生成する推定部、をさらに備えてもよい。 In the above aspect, using the trained third network trained by the second learning unit and the trained second network inputting data based on the second vector outputted by the trained third network, The device may further include an estimation unit that generates estimated data using the trained second network by inputting physical data to the trained third network.

この態様によれば、対象物の状態を推定する推定データが得られる。この推定データを用いることで、対象物を識別することが可能となる。 According to this aspect, estimation data for estimating the state of the object can be obtained. By using this estimated data, it becomes possible to identify the target object.

上記態様において、推定部により生成された推定データに基づいて、対象物の識別子を生成する識別部、をさらに備えてもよい。 The above aspect may further include an identification unit that generates an identifier for the object based on the estimation data generated by the estimation unit.

この態様によれば、生成された識別子を用いることで、より簡便に対象物を識別することが可能になる。 According to this aspect, by using the generated identifier, it becomes possible to more easily identify the target object.

上記態様において、状態データは、2次元空間又は3次元空間のm個の位置の各々について対象物の状態に応じた値を対応付けたデータであってもよい。 In the above aspect, the state data may be data in which values corresponding to the state of the object are associated with each of m positions in a two-dimensional space or a three-dimensional space.

この態様によれば、状態データが2次元空間又は3次元空間における対象物の状態に応じたデータとなる。推定データは、状態データと同様に2次元空間における対象物の状態を推定するデータとなる。このような推定データでは、対象物の状態が経時変化したとしても識別子としての機能が失われにくいため、対象物をより長期間に渡って識別することが可能になる。 According to this aspect, the state data corresponds to the state of the object in two-dimensional space or three-dimensional space. The estimation data is data for estimating the state of the object in the two-dimensional space, similar to the state data. Such estimated data is unlikely to lose its function as an identifier even if the state of the object changes over time, making it possible to identify the object over a longer period of time.

上記態様において、物理データは、対象物における波の干渉による物理現象に基づくデータであってもよい。 In the above aspect, the physical data may be data based on a physical phenomenon caused by wave interference in the target object.

この態様によれば、波の干渉による物理現象に基づくデータには、対象物の状態が反映されている。このため、波の干渉による物理現象に基づくデータを用いることで、より正確に対象物の状態を推定することができる。この結果、より精度よく対象物を識別することが可能になる。 According to this aspect, the state of the object is reflected in the data based on the physical phenomenon caused by wave interference. Therefore, by using data based on physical phenomena caused by wave interference, the state of the object can be estimated more accurately. As a result, it becomes possible to identify the target object with higher accuracy.

上記態様において、物理データは、対象物の電気伝導の磁場依存性を、対象物にかかる磁場と対象物の電気伝導との2次元のグラフで表現するデータであってもよい。 In the above aspect, the physical data may be data expressing the magnetic field dependence of the electrical conduction of the object in a two-dimensional graph of the magnetic field applied to the object and the electrical conduction of the object.

この態様によれば、ナノスケールの現象に基づくデータを物理データとして用いることができる。このため、対象物における特徴が微細であっても、対象物を識別することが可能になる。 According to this aspect, data based on nanoscale phenomena can be used as physical data. Therefore, even if the features of the object are minute, it is possible to identify the object.

上記態様において、物理データは、対象物に光が照射される際に生成されるスペックルパターンを、2次元の画像で表現するデータであってもよい。 In the above aspect, the physical data may be data that expresses a speckle pattern generated when the object is irradiated with light as a two-dimensional image.

この態様によれば、対象物に光を照射することで物理データを取得できる。このため、より簡便に対象物を識別することが可能になる。 According to this aspect, physical data can be acquired by irradiating the object with light. Therefore, it becomes possible to identify the target object more easily.

本発明の他の態様に係る情報処理方法は、対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、第2ネットワークが、状態データを復元するm次元のデータを出力するように、第1ネットワーク及び第2ネットワークを学習することと、対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、第2ベクトルに基づくデータを入力とする、学習済みの第2ネットワークと、について、学習済みの第2ネットワークが、第2ベクトルに基づき対象物の状態を推定する推定データを出力するように、第3ネットワークを学習することと、を含む。 An information processing method according to another aspect of the present invention receives m-dimensional (m: a natural number of 2 or more) state data regarding the state of an object as input, and generates an n-dimensional (n: a natural number, m>n) first vector. and a second network that receives data based on the first vector and outputs m-dimensional data, such that the second network outputs m-dimensional data that restores the state data. The first network and the second network are trained, and the third network receives p-dimensional (p: a natural number of 2 or more, p>n) physical data of the object as input and outputs an n-dimensional second vector. network and a trained second network that receives data based on the second vector as input, such that the trained second network outputs estimation data that estimates the state of the object based on the second vector. and learning a third network.

この態様によれば、対象物の状態に含まれる特徴が測定困難であっても、対象物の物理データを用いることで対象物の状態を推定することができる。この推定によって、測定することが困難な特徴に基づいて対象物を識別することが可能となる。 According to this aspect, even if the characteristics included in the state of the object are difficult to measure, the state of the object can be estimated by using the physical data of the object. This estimation allows objects to be identified based on characteristics that are difficult to measure.

本発明の他の態様に係るプログラムは、コンピュータに、対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、第2ネットワークが、状態データを復元するm次元のデータを出力するように、第1ネットワーク及び第2ネットワークを学習することと、対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、第2ベクトルに基づくデータを入力とする、学習済みの第2ネットワークと、について、学習済みの第2ネットワークが、第2ベクトルに基づき対象物の状態を推定する推定データを出力するように、第3ネットワークを学習することと、を実行させる。 A program according to another aspect of the present invention inputs m-dimensional (m: a natural number of 2 or more) state data regarding the state of an object to a computer, and inputs an n-dimensional (n: a natural number, m>n) first Regarding a first network that outputs a vector and a second network that receives data based on the first vector and outputs m-dimensional data, the second network outputs m-dimensional data that restores state data. As shown in FIG. 3 network and a trained second network that receives data based on the second vector as input, the trained second network outputs estimation data that estimates the state of the object based on the second vector. and learning the third network as follows.

この態様によれば、対象物の状態に含まれる特徴が測定困難であっても、対象物の物理データを用いることで対象物の状態を推定することができる。この推定によって、測定することが困難な特徴に基づいて対象物を識別することが可能となる。 According to this aspect, even if the characteristics included in the state of the object are difficult to measure, the state of the object can be estimated by using the physical data of the object. This estimation allows objects to be identified based on characteristics that are difficult to measure.

本発明によれば、測定することが困難な特徴を有する対象物について、当該特徴に基づいて対象物を識別することを可能とする情報処理装置、情報処理方法及びプログラムを提供することができる。 According to the present invention, it is possible to provide an information processing device, an information processing method, and a program that make it possible to identify an object having characteristics that are difficult to measure based on the characteristics.

本発明の一実施形態に係る情報処理装置の構成を示す機能ブロック図である。FIG. 1 is a functional block diagram showing the configuration of an information processing device according to an embodiment of the present invention. 本実施形態に係る学習部が学習するネットワークの構成の一例を示す概略図である。FIG. 2 is a schematic diagram showing an example of a configuration of a network learned by a learning unit according to the present embodiment. 第1ネットワークと第2ネットワークとが接続されることで形成されたネットワークを示す図である。It is a diagram showing a network formed by connecting a first network and a second network. 電子デバイスの2次元的な電子分布を表す状態データの一例を示す図である。FIG. 2 is a diagram illustrating an example of state data representing a two-dimensional electron distribution of an electronic device. 第3ネットワークと、学習済みの第2ネットワークとが接続されることで形成されたネットワークを示す図である。It is a figure which shows the network formed by connecting the 3rd network and the learned 2nd network. 本実施形態に係る電子デバイスにおける電気伝導度の揺らぎの磁場依存性を表すグラフである。It is a graph showing magnetic field dependence of fluctuation of electric conductivity in an electronic device concerning this embodiment. 本実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。1 is a diagram illustrating an example of a hardware configuration of an information processing device according to an embodiment. FIG. 本実施形態に係る情報処理装置がネットワークを学習し、学習済みのネットワークに基づいて対象物の識別子を生成するまでの処理を示すフローチャートである。2 is a flowchart illustrating a process in which the information processing apparatus according to the present embodiment learns a network and generates an identifier for an object based on the learned network. 本実施例において作製した量子細線の構造を示す図である。FIG. 2 is a diagram showing the structure of a quantum wire produced in this example. 試料の電気抵抗の揺らぎの磁場依存性を測定した結果を示す図であるFIG. 2 is a diagram showing the results of measuring the magnetic field dependence of fluctuations in the electrical resistance of a sample. 量子細線の微細構造を推定する推定データを示す図である。FIG. 3 is a diagram showing estimation data for estimating the fine structure of a quantum wire.

添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 Preferred embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in each figure, those with the same reference numerals have the same or similar configurations.

[第1実施形態]
図1は、本発明の一実施形態に係る情報処理装置10の構成を示す機能ブロック図である。本実施形態に係る情報処理装置10は、対象物の状態データを入力とし、当該状態データを復元するデータを生成するネットワークを生成する。また、本実施形態に係る情報処理装置10は、対象物の物理データを入力とし、当該対象物の状態を推定する推定データを生成するネットワークを学習する機能を有する。さらに、本実施形態に係る情報処理装置10は、生成した推定データに基づき、検査対象物を識別する機能を有する。なお、本明細書において、「ネットワークを学習する」とは、「ネットワークの重みづけパラメータを学習する」ことを含むものとする。
[First embodiment]
FIG. 1 is a functional block diagram showing the configuration of an information processing device 10 according to an embodiment of the present invention. The information processing apparatus 10 according to the present embodiment receives state data of an object as input and generates a network that generates data for restoring the state data. Furthermore, the information processing device 10 according to the present embodiment has a function of learning a network that receives physical data of a target object and generates estimation data for estimating the state of the target object. Furthermore, the information processing device 10 according to the present embodiment has a function of identifying an inspection target based on the generated estimation data. Note that in this specification, "learning a network" includes "learning weighting parameters of a network."

対象物は、物理データを取得可能な各種の物体であってよいが、本実施形態では、対象物はナノレベルのサイズの欠陥及び不純物を有するナノデバイスであるものとする。ここで、ナノデバイスの欠陥及び不純物の分布を、当該ナノデバイスを破壊することなく測定することはできないものとする。状態データは、対象物の状態に関するデータであり、対象物の構造、不純物、欠陥など測定不可能な量に関するデータを含む。本実施形態では、状態データは、電子デバイスにおける電子の分布を表すデータであるものとする。 The target object may be any type of object for which physical data can be obtained, but in this embodiment, the target object is a nanodevice having nano-level defects and impurities. Here, it is assumed that the distribution of defects and impurities in a nanodevice cannot be measured without destroying the nanodevice. The condition data is data regarding the condition of the object, and includes data regarding unmeasurable quantities such as the structure, impurities, and defects of the object. In this embodiment, it is assumed that the state data is data representing the distribution of electrons in the electronic device.

また、物理データは、対象物の測定可能な物理量に基づくデータである。より具体的には、物理データは、例えば、対象物における波の干渉による物理現象に基づくデータであってよい。本実施形態では、物理データは、対象物における電子の波の干渉による物理現象に基づくデータであり、具体的には、ナノデバイスにおける電気伝導度の磁場依存性を表すデータであるものとする。 Further, the physical data is data based on measurable physical quantities of the object. More specifically, the physical data may be data based on physical phenomena due to wave interference in the object, for example. In this embodiment, the physical data is data based on a physical phenomenon caused by interference of electron waves in a target object, and specifically, data representing the dependence of electrical conductivity on a magnetic field in a nanodevice.

図1を参照して、本実施形態に係る情報処理装置10の構成について詳細に説明する。図1に示すように、情報処理装置10は、記憶部100、学習部110、推定部120及び識別部130を備える。 With reference to FIG. 1, the configuration of the information processing device 10 according to the present embodiment will be described in detail. As shown in FIG. 1, the information processing device 10 includes a storage section 100, a learning section 110, an estimation section 120, and an identification section 130.

記憶部100は、各種の情報を記憶する機能を有する。記憶部100は、例えば、対象物の物理データ及び学習済みのネットワークに関する情報(例えば、ネットワークの重みづけパラメータ)などを記憶している。記憶部100が記憶している各種の情報は、必要に応じて、学習部110又は推定部120により参照される。 The storage unit 100 has a function of storing various types of information. The storage unit 100 stores, for example, physical data of the object and information regarding a learned network (for example, network weighting parameters). The various types of information stored in the storage unit 100 are referred to by the learning unit 110 or the estimation unit 120 as needed.

学習部110は、深層ニューラルネットワークを含む各種の学習モデルを学習する機能を有する。学習部110は、例えば、自己符号化器、変分自己符号化器、敵対的生成ネットワーク、全結合ニューラルネットワーク、畳み込みニューラルネットワーク、回帰型ニューラルネットワーク又はボルツマンマシンなどの各種のネットワークを学習してもよい。 The learning unit 110 has a function of learning various learning models including deep neural networks. The learning unit 110 may learn various networks such as an autoencoder, a variational autoencoder, a generative adversarial network, a fully connected neural network, a convolutional neural network, a recurrent neural network, or a Boltzmann machine. good.

図2は、本実施形態に係る学習部110が学習するネットワーク20の構成の一例を示す概略図である。本実施形態に係るネットワーク20は、第1ネットワーク210、第2ネットワーク220及び第3ネットワーク230を含む。本実施形態では、第1ネットワーク210及び第2ネットワーク220は、畳み込みニューラルネットワークであり、第3ネットワークは、全結合ニューラルネットワークである。なお、第1ネットワーク210、第2ネットワーク220及び第3ネットワーク230は、本実施形態に記載のモデル及び構造に限定されるものではない。 FIG. 2 is a schematic diagram showing an example of the configuration of the network 20 learned by the learning unit 110 according to the present embodiment. The network 20 according to this embodiment includes a first network 210, a second network 220, and a third network 230. In this embodiment, the first network 210 and the second network 220 are convolutional neural networks, and the third network is a fully connected neural network. Note that the first network 210, second network 220, and third network 230 are not limited to the model and structure described in this embodiment.

第1ネットワーク210の出力層218は、表現空間240を介して、第2ネットワーク220の入力層222に接続されている。また、第3ネットワーク230の出力層238は、表現空間240を介して、第2ネットワーク220の入力層222に接続されている。 The output layer 218 of the first network 210 is connected to the input layer 222 of the second network 220 via a representation space 240. Further, the output layer 238 of the third network 230 is connected to the input layer 222 of the second network 220 via the representation space 240.

以下、図3から図6を参照して、学習部110がネットワーク20を学習する方法について、より詳細に説明する。図3は、第1ネットワーク210と第2ネットワーク220とが接続されることで形成されたネットワーク22を示す図である。図3に示すネットワーク22は、第1ネットワーク210をエンコーダ、第2ネットワーク220をデコーダとする変分自己符号化器である。本実施形態では、第1ネットワーク210及び第2ネットワーク220は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)である。CNNには、例えば、バッチノーマライゼーションが適用されてもよく、活性化関数としてLeakly ReLU関数が用いられてもよい。なお、第1ネットワーク210及び第2ネットワーク220を構成するニューラルネットワークは、CNNに限定されるものではない。 The method by which the learning unit 110 learns the network 20 will be described in more detail below with reference to FIGS. 3 to 6. FIG. 3 is a diagram showing a network 22 formed by connecting a first network 210 and a second network 220. The network 22 shown in FIG. 3 is a variational autoencoder in which the first network 210 is an encoder and the second network 220 is a decoder. In this embodiment, the first network 210 and the second network 220 are convolutional neural networks (CNN). For example, batch normalization may be applied to the CNN, and a Leaky ReLU function may be used as an activation function. Note that the neural networks forming the first network 210 and the second network 220 are not limited to CNN.

図3に示すように、第1ネットワーク210は、入力層212、複数の層で構成された第1セット214、複数の層で構成された第2セット216及び出力層218を含む。入力層212は第1セット214の最も入力に近い層に接続されており、第1セット214の最も出力に近い層は第2セット216の最も入力に近い層に接続されており、第2セット216の最も出力に近い層は出力層218に接続されている。 As shown in FIG. 3, the first network 210 includes an input layer 212, a first set of layers 214, a second set of layers 216, and an output layer 218. The input layer 212 is connected to the layer closest to the input of the first set 214, the layer closest to the output of the first set 214 is connected to the layer closest to the input of the second set 216, and the layer closest to the input of the first set 214 is connected to the layer closest to the input of the second set 216. The layer closest to the output of 216 is connected to output layer 218 .

入力層212には、m次元(m:2以上の自然数)の状態データが入力される。入力層212の次元数は、状態データの次元数と同一であってよい。入力層212の次元数は特に限定されないが、例えば、3600次元であってもよい。入力層212は、例えば、縦が60画素であり、横が60画素である3600次元の画像の状態データを入力として受け付ける。また、本実施形態では、状態データは、2次元空間のm個の位置の各々について対象物の状態に応じた値を対応付けたデータである。具体的には、状態データは、2次元空間のm個の位置の各々について対象物の電子の密度を対応付けた、電子の分布を表すデータである。 The input layer 212 receives m-dimensional (m: a natural number of 2 or more) state data. The number of dimensions of the input layer 212 may be the same as the number of dimensions of the state data. The number of dimensions of the input layer 212 is not particularly limited, but may be, for example, 3600 dimensions. The input layer 212 receives as input, for example, state data of a 3600-dimensional image having 60 pixels in the vertical direction and 60 pixels in the horizontal direction. Further, in this embodiment, the state data is data in which values corresponding to the state of the object are associated with each of m positions in the two-dimensional space. Specifically, the state data is data representing the distribution of electrons, which associates the electron density of the object with each of m positions in the two-dimensional space.

第1セット214は、入力層212に入力された状態データを圧縮する。図3には、第1セット214として、5つの層が示されているが、第1セット214の層の数は、特に限定されず、例えば256層であってもよい。また、第1セット214の各層の次元数は特に限定されないが、例えば、900次元(縦30×横30)であってよい。 The first set 214 compresses the state data input to the input layer 212. Although five layers are shown in FIG. 3 as the first set 214, the number of layers in the first set 214 is not particularly limited, and may be, for example, 256 layers. Further, the number of dimensions of each layer of the first set 214 is not particularly limited, but may be, for example, 900 dimensions (30 vertically x 30 horizontally).

第2セット216は、第1セット214のデータをさらに圧縮する。図3には、第2セット216として、5つの層が示されているが、第2セット216の層の数は、特に限定されず、例えば512層であってよい。第2セット216の各層の次元数は、特に限定されないが、例えば、225次元(縦15×横15)であってよい。 The second set 216 further compresses the data of the first set 214. Although five layers are shown in FIG. 3 as the second set 216, the number of layers in the second set 216 is not particularly limited and may be, for example, 512 layers. The number of dimensions of each layer of the second set 216 is not particularly limited, but may be, for example, 225 dimensions (15 vertically x 15 horizontally).

出力層218は、第2セット216により圧縮されたデータを、n次元(n:自然数、m>n)の第1ベクトルに圧縮し、表現空間に出力する。出力層218が出力する第1ベクトルの次元数は、特に限定されないが、例えば、7次元であってよい。 The output layer 218 compresses the data compressed by the second set 216 into an n-dimensional (n: natural number, m>n) first vector and outputs it to the representation space. The number of dimensions of the first vector output by the output layer 218 is not particularly limited, but may be seven dimensions, for example.

第2ネットワーク220は、入力層222、複数の層で構成された第3セット224、複数の層で構成された第4セット226及び出力層228を含む。入力層222には、7次元の第1ベクトルにもとづくデータが入力される。また、入力層222には、リパラメタライゼーショントリックに基づくデータが入力されてもよい。 The second network 220 includes an input layer 222, a third set 224 of layers, a fourth set 226 of layers, and an output layer 228. The input layer 222 receives data based on a seven-dimensional first vector. Furthermore, data based on reparameterization tricks may be input to the input layer 222.

第3セット224は、入力層222に入力されたデータについて、次元を拡張することでデータを生成する機能を有する。また、第4セット226は、第3セット224において生成されたデータについて、次元を拡張してデータを生成する機能を有する。第3セット224は、例えば、第2セット216と対称的な構成を有していてよく、第4セット226は、第1セット214と対称的な構成を有していてよい。 The third set 224 has a function of generating data by expanding the dimensions of the data input to the input layer 222. Furthermore, the fourth set 226 has a function of expanding the dimensions of the data generated in the third set 224 to generate data. Third set 224 may have a symmetrical configuration with second set 216, and fourth set 226 may have a symmetrical configuration with first set 214, for example.

出力層228は、m次元のデータを出力する。すなわち、本実施形態では、第2ネットワーク220の出力層228の次元数は、第1ネットワーク210の入力層212の次元数と同一である。 The output layer 228 outputs m-dimensional data. That is, in this embodiment, the number of dimensions of the output layer 228 of the second network 220 is the same as the number of dimensions of the input layer 212 of the first network 210.

次いで、本実施形態に係る学習部110が、第1ネットワーク210及び第2ネットワーク220を学習する処理について説明する。学習部110は、第1ネットワーク210の入力層212に状態データを入力する。本実施形態では、状態データは、2次元空間の複数の位置の各々について対象物の状態に応じた値を対応付けたデータであるものとする。より具体的には、本実施形態では、状態データは、ナノデバイスの2次元的な電子分布を表すデータであるものとする。 Next, a process in which the learning unit 110 according to this embodiment learns the first network 210 and the second network 220 will be described. The learning unit 110 inputs state data to the input layer 212 of the first network 210. In this embodiment, the state data is data in which values corresponding to the state of the object are associated with each of a plurality of positions in a two-dimensional space. More specifically, in this embodiment, the state data is data representing the two-dimensional electron distribution of the nanodevice.

なお、状態データは、実際に測定されたデータであってもよいし、公知の手法による数値計算により生成されたデータであってもよい。例えば、ナノデバイスが複数の円形の欠陥を有するナノサイズの金属ワイヤーである場合に、公知の手法で電子分布の算出し、当該金属ワイヤーにおける電子分布の状態データを生成してよい。或いは、状態データを生成するためのデータベースを用いてもよい。例えば、金属ワイヤーの情報(例えば、金属ワイヤーの形状、欠陥の数、欠陥の形状、又は欠陥の位置など)と金属ワイヤーの電子分布を対応付けたデータベースを用いて、状態データを生成してもよい。 Note that the state data may be actually measured data or may be data generated by numerical calculation using a known method. For example, when the nanodevice is a nano-sized metal wire having a plurality of circular defects, the electron distribution may be calculated using a known method to generate state data of the electron distribution in the metal wire. Alternatively, a database may be used to generate state data. For example, state data may be generated using a database that associates metal wire information (for example, the shape of the metal wire, the number of defects, the shape of the defects, or the position of the defects) with the electron distribution of the metal wire. good.

図4は、ナノデバイスの2次元的な電子分布を表す状態データ300の一例を示すである。図4では、白いほど電子の密度が高く、黒いほど電子の密度が低くなっている。本実施形態に係るナノデバイスには、2つの円形の欠陥(穴)が形成されている。このため、状態データ300には、電子が存在しない円形の第1欠陥302及び第2欠陥304が形成されている。本実施形態では、このように円形の欠陥が形成されたナノデバイスの電子分布を表す状態データが第1ネットワーク210の入力層212に入力される。 FIG. 4 shows an example of state data 300 representing a two-dimensional electron distribution of a nanodevice. In FIG. 4, the whiter the color, the higher the electron density, and the darker the color, the lower the electron density. Two circular defects (holes) are formed in the nanodevice according to this embodiment. Therefore, in the state data 300, circular first defects 302 and second defects 304 in which no electrons are present are formed. In this embodiment, state data representing the electron distribution of the nanodevice in which circular defects are formed is input to the input layer 212 of the first network 210.

学習部110は、第1ネットワーク210の入力層212に状態データを入力し、第2ネットワーク220の出力層228が状態データを復元するデータを出力するように、第1ネットワーク210及び第2ネットワーク220を学習する。これにより、例えば、3600次元の状態データを7次元の第1ベクトルに圧縮し、第1ベクトルから状態データを復元するデータを生成できるようになる。すなわち、3600次元の状態データを7次元のデータで表現することができるようになる。学習部110は、第1ネットワーク210及び第2ネットワーク220の学習を終えると、これらのネットワークの重みづけパラメータなどを記憶部100に記憶させる。 The learning unit 110 inputs state data to the input layer 212 of the first network 210 and controls the first network 210 and the second network 220 so that the output layer 228 of the second network 220 outputs data for restoring the state data. Learn. This makes it possible, for example, to compress 3600-dimensional state data into a 7-dimensional first vector and generate data for restoring the state data from the first vector. In other words, 3600-dimensional state data can be expressed with 7-dimensional data. After learning the first network 210 and the second network 220, the learning unit 110 causes the storage unit 100 to store the weighting parameters of these networks.

図5は、第3ネットワーク230と、図3を参照して説明した方法により学習された学習済みの第2ネットワーク220とが接続されることで形成されたネットワーク24を示す図である。学習部110は、図5に示すネットワーク24を用いて、第3ネットワーク230を学習する。ここでは、学習済みの第2ネットワーク220の構成は、図3を参照して説明した第2ネットワーク220の構成と実質的に同一であるため、ここでは説明を省略する。 FIG. 5 is a diagram showing a network 24 formed by connecting the third network 230 and the learned second network 220 learned by the method described with reference to FIG. 3. The learning unit 110 uses the network 24 shown in FIG. 5 to learn the third network 230. Here, the configuration of the learned second network 220 is substantially the same as the configuration of the second network 220 described with reference to FIG. 3, so the description thereof will be omitted here.

第3ネットワーク230は、入力層232、第1中間層234、第2中間層236及び出力層238を備える。本実施形態では、第3ネットワーク230は、全結合ネットワークである。当該全結合ネットワークには、例えば、ドロップアウトが適用されてもよい。また、当該全結合ネットワークに適用される活性化関数は特に限定されないが、例えば、ReLU関数が適用されてもよい。 The third network 230 includes an input layer 232, a first intermediate layer 234, a second intermediate layer 236, and an output layer 238. In this embodiment, the third network 230 is a fully connected network. For example, dropout may be applied to the fully connected network. Further, the activation function applied to the fully connected network is not particularly limited, but for example, a ReLU function may be applied.

第3ネットワーク230の入力層にはp次元(p:2以上の自然数、p>n)の物理データが入力される。物理データの次元数は、入力層232の次元数と同一である。第3ネットワーク230の入力層232の次元数は特に限定されないが、例えば、100次元であってよい。さらに、入力層232の層数は、1層に限らず複数の層により構成されてもよく、例えば、2層であってもよい。このとき、入力層232の2層目の次元数は、例えば8192次元であってよい。また、第1中間層234、第2中間層236及び出力層238の次元数は特に限定されないが、例えば、8192次元であってもよい。 P-dimensional (p: a natural number of 2 or more, p>n) physical data is input to the input layer of the third network 230. The number of dimensions of the physical data is the same as the number of dimensions of the input layer 232. The number of dimensions of the input layer 232 of the third network 230 is not particularly limited, but may be, for example, 100 dimensions. Furthermore, the number of layers of the input layer 232 is not limited to one layer, and may be composed of a plurality of layers, for example, may be two layers. At this time, the number of dimensions of the second layer of the input layer 232 may be, for example, 8192 dimensions. Further, the number of dimensions of the first intermediate layer 234, the second intermediate layer 236, and the output layer 238 is not particularly limited, but may be, for example, 8192 dimensions.

次いで、学習部110が図5に示すネットワーク24を用いて、第3ネットワーク230を学習する方法について説明する。学習部110は、第3ネットワーク230の入力層232に物理データを入力する。本実施形態では、学習部110は、ナノデバイスの電気伝導度の磁場依存性を表す物理データを入力層232に入力する。
本実施形態に係る電子デバイスは、円形状の穴(以下、「アンチドット」とも称する。)を有する量子細線であるものとし、アンチドットの配置が互いに異なる複数の量子細線のモデルのそれぞれについて、電気伝導度の磁場依存性(物理データ)が用意される。本実施形態では、学習部110は、電気伝導度の磁場依存性そのものではなく、用意された全ての物理データの平均を電気伝導度の磁場依存性から差し引いて得られた結果を第3ネットワーク230に入力し、ネットワークを学習させる。これにより、電気伝導度の磁場依存性そのものを用いてネットワークを学習させる場合よりも学習効率が向上する。
Next, a method for learning the third network 230 by the learning unit 110 using the network 24 shown in FIG. 5 will be described. The learning unit 110 inputs physical data to the input layer 232 of the third network 230. In this embodiment, the learning unit 110 inputs physical data representing the magnetic field dependence of the electrical conductivity of the nanodevice to the input layer 232.
The electronic device according to this embodiment is a quantum wire having circular holes (hereinafter also referred to as "antidots"), and for each of a plurality of quantum wire models in which the antidots are arranged differently, The magnetic field dependence of electrical conductivity (physical data) is prepared. In the present embodiment, the learning unit 110 subtracts the average of all prepared physical data from the magnetic field dependence of electrical conductivity, rather than the magnetic field dependence of electrical conductivity itself, and uses the result obtained by subtracting the result from the third network 230. and train the network. This improves the learning efficiency compared to the case where the network is trained using the magnetic field dependence of electrical conductivity itself.

図6は、本実施形態に係る電子デバイスにおける電気伝導度の揺らぎの磁場依存性を表すグラフである。図6では、横軸が磁場、縦軸が電気伝導度の揺らぎである。図6に示す電気伝導度の揺らぎは、計算された電気伝導度の磁場依存性に対して、全ての物理データの平均値を差し引いて得られたグラフである。プロットされたグラフの点の数は、例えば100点程度であってよい。 FIG. 6 is a graph showing the magnetic field dependence of fluctuations in electrical conductivity in the electronic device according to the present embodiment. In FIG. 6, the horizontal axis represents the magnetic field, and the vertical axis represents fluctuations in electrical conductivity. The electrical conductivity fluctuation shown in FIG. 6 is a graph obtained by subtracting the average value of all physical data from the calculated magnetic field dependence of electrical conductivity. The number of points on the plotted graph may be, for example, about 100 points.

本実施形態では、電気伝導度の磁場依存性は、数十mK程度の極低温度にて測定されるものとする。これにより、メゾスコピック系における磁気抵抗効果として現れる普遍的コンダクタンスの揺らぎ(UCF:Universal Conductance Fluctuations)を測定することができる。 In this embodiment, it is assumed that the magnetic field dependence of electrical conductivity is measured at an extremely low temperature of about several tens of mK. This makes it possible to measure universal conductance fluctuations (UCF) that appear as magnetoresistive effects in mesoscopic systems.

UCFは、不純物を含んだ試料の形状によって決まる。従って、試料の形状に基づき、UCFを数値計算することができる。しかしながら、測定された電気抵抗の磁場依存性から試料の形状を逆算することはできない。本実施形態では、UCFのパターン(電気抵抗の磁場依存性)と、試料の形状に関する状態データとの間の関係を機械学習することで、UCFの測定値から試料の形状を推定する推定データを生成することを可能とする。なお、学習に用いられる電気伝導度の磁場依存性に関する物理データ又は試料の形状に関する状態データは、実際に測定することで得られたデータであってもよいし、公知の技術を用いて算出することで得られたデータであってもよい。 The UCF is determined by the shape of the sample containing impurities. Therefore, the UCF can be calculated numerically based on the shape of the sample. However, the shape of the sample cannot be calculated from the magnetic field dependence of the measured electrical resistance. In this embodiment, by machine learning the relationship between the UCF pattern (magnetic field dependence of electrical resistance) and state data regarding the shape of the sample, we generate estimation data for estimating the shape of the sample from the measured values of the UCF. It is possible to generate. Note that the physical data regarding the magnetic field dependence of electrical conductivity or state data regarding the shape of the sample used for learning may be data obtained through actual measurement, or may be calculated using known techniques. It may also be data obtained by

図6に示したグラフの物理データが第3ネットワーク230の入力層232に入力されると、出力層238からn次元の第2ベクトルが出力される。出力層238は、例えば7次元の第2ベクトルを、表現空間240に出力してもよい。出力された第2ベクトルが学習済みの第2ネットワーク220の入力層222に入力されると、出力層228からm次元のデータが出力される。 When the physical data of the graph shown in FIG. 6 is input to the input layer 232 of the third network 230, an n-dimensional second vector is output from the output layer 238. The output layer 238 may output, for example, a seven-dimensional second vector to the representation space 240. When the output second vector is input to the input layer 222 of the trained second network 220, m-dimensional data is output from the output layer 228.

学習部110は、学習済みの第2ネットワーク220が、第3ネットワーク230により出力された第2ベクトルに基づき対象物の状態を推定する推定データを生成するように、第3ネットワーク230を学習する。具体的には、物理データ及び当該物理データに対応する状態データを教師データとして、第3ネットワークを学習させる。物理データは、対象物の物理量を測定して得られたデータであってよく、例えば、電気伝導度の磁場依存性のデータであって良い。また、状態データは、当該物理データが測定された、対象物の状態(例えば、ナノデバイスの微細構造を表すデータ)であってもよい。 The learning unit 110 trains the third network 230 so that the trained second network 220 generates estimation data for estimating the state of the object based on the second vector output by the third network 230. Specifically, the third network is trained using physical data and state data corresponding to the physical data as teacher data. The physical data may be data obtained by measuring physical quantities of the object, and may be, for example, data on magnetic field dependence of electrical conductivity. Further, the state data may be the state of the object (for example, data representing the fine structure of a nanodevice) for which the physical data was measured.

本実施形態では、学習部110は、学習済みの第2ネットワーク220が、対象物の状態を推定する推定データを生成するように、第3ネットワーク230を学習する。より具体的には、学習部110は、学習済みの第2ネットワーク220が生成する推定データを、第3ネットワーク230に入力される物理データに対応する状態データに近づけるように、第3ネットワーク230を学習する。学習部110は、学習を終えると、学習した第3ネットワーク230の重みづけパラメータなどに関する情報を記憶部100に記憶させる。 In the present embodiment, the learning unit 110 trains the third network 230 so that the trained second network 220 generates estimation data for estimating the state of the object. More specifically, the learning unit 110 trains the third network 230 so that the estimated data generated by the trained second network 220 approaches the state data corresponding to the physical data input to the third network 230. learn. After completing the learning, the learning unit 110 causes the storage unit 100 to store information regarding the learned weighting parameters of the third network 230 and the like.

本実施形態では、第3ネットワーク230に入力された物理データが、7次元のデータに圧縮され、圧縮されたデータに基づき推定データが生成される。このように、一旦、物理データの次元を圧縮することで、学習に必要なパラメータの数を削減することが可能になり、より高速で第3ネットワーク230を学習させることができる。 In this embodiment, the physical data input to the third network 230 is compressed into seven-dimensional data, and estimated data is generated based on the compressed data. In this way, by once compressing the dimensions of the physical data, it is possible to reduce the number of parameters required for learning, and the third network 230 can be trained at a higher speed.

図1に戻って、情報処理装置10の機能について説明する。推定部120は、学習済みの第3ネットワークと、学習済みの第2ネットワーク220とを用いて、推定データを生成する機能を有する。より具体的には、推定部120は、学習済みの第3ネットワーク230に対象物の物理データを入力し、学習済みの第2ネットワーク220から推定データを出力させる。推定部120は、生成された推定データを識別部130に伝達する。 Returning to FIG. 1, the functions of the information processing device 10 will be explained. The estimation unit 120 has a function of generating estimated data using the trained third network and the trained second network 220. More specifically, the estimation unit 120 inputs the physical data of the object to the trained third network 230 and causes the trained second network 220 to output estimated data. The estimation unit 120 transmits the generated estimation data to the identification unit 130.

識別部130は、推定部120により生成された推定データに基づいて、対象物を識別する機能を有する。例えば、識別部130は、識別の対象となっている対象物の状態データと、生成された推定データとを比較することで、対象物を同定してもよい。 The identification unit 130 has a function of identifying a target object based on the estimation data generated by the estimation unit 120. For example, the identification unit 130 may identify the object by comparing the state data of the object to be identified with the generated estimation data.

また、識別部130は、推定データに基づいて、対象物の識別子を生成することもできる。識別部130は、推定データそのものを識別子として生成してもよいし、公知のハッシュ関数などを用いて推定データを変換して、識別子を生成してもよい。 The identification unit 130 can also generate an object identifier based on the estimation data. The identification unit 130 may generate the estimated data itself as an identifier, or may generate an identifier by converting the estimated data using a known hash function or the like.

図7は、本実施形態に係る情報処理装置10のハードウェア構成の一例を示す図である。情報処理装置10は、演算部に相当するCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサ10aと、記憶部100に相当するRAM(Random Access Memory)10bと、記憶部100に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では情報処理装置10が一台のコンピュータで構成される場合について説明するが、情報処理装置10は、複数のコンピュータが組み合わされて実現されてもよい。また、図7で示す構成は一例であり、情報処理装置10はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。ここで、演算部は、学習部110、推定部120、及び識別部130を含む。 FIG. 7 is a diagram showing an example of the hardware configuration of the information processing device 10 according to the present embodiment. The information processing device 10 includes a processor 10a such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) that corresponds to an arithmetic unit, a RAM (Random Access Memory) 10b that corresponds to a storage unit 100, and a RAM (Random Access Memory) 10b that corresponds to a storage unit 100. It has a ROM (Read Only Memory) 10c, a communication section 10d, an input section 10e, and a display section 10f. These components are connected to each other via a bus so that they can transmit and receive data. Note that in this example, a case will be described in which the information processing device 10 is composed of one computer, but the information processing device 10 may be realized by combining a plurality of computers. Further, the configuration shown in FIG. 7 is an example, and the information processing device 10 may have configurations other than these, or may not have some of these configurations. Here, the calculation section includes a learning section 110, an estimation section 120, and an identification section 130.

プロセッサ10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。プロセッサ10aは、ネットワークを学習したり、学習したネットワークを用いた処理をしたりするためのプログラムを実行する演算部である。プロセッサ10aは、入力部10eや通信部10dから種々のデータを受け取り、データの演算結果を表示部10fに表示したり、RAM10bに格納したりする。 The processor 10a is a control unit that controls the execution of programs stored in the RAM 10b or ROM 10c, and performs calculations and processing of data. The processor 10a is a calculation unit that executes a program for learning a network and performing processing using the learned network. The processor 10a receives various data from the input section 10e and the communication section 10d, and displays the calculation results of the data on the display section 10f or stores them in the RAM 10b.

RAM10bは、記憶部のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM10bは、プロセッサ10aが実行するプログラム、学習用の訓練データといったデータを記憶してよい。なお、これらは例示であって、RAM10bには、これら以外のデータが記憶されていてもよいし、これらの一部が記憶されていなくてもよい。 The RAM 10b is a storage unit in which data can be rewritten, and may be formed of, for example, a semiconductor storage element. The RAM 10b may store data such as programs executed by the processor 10a and training data for learning. Note that these are just examples, and the RAM 10b may store data other than these, or some of them may not be stored.

ROM10cは、記憶部のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM10cは、例えばプログラムや、書き換えが行われないデータを記憶してよい。 The ROM 10c is a storage section from which data can be read, and may be composed of, for example, a semiconductor storage element. The ROM 10c may store, for example, programs and data that cannot be rewritten.

通信部10dは、情報処理装置10を他の機器に接続するインターフェースである。通信部10dは、インターネット等の通信ネットワークに接続されてよい。 The communication unit 10d is an interface that connects the information processing device 10 to other devices. The communication unit 10d may be connected to a communication network such as the Internet.

入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード及びタッチパネルを含んでよい。 The input unit 10e receives data input from the user, and may include, for example, a keyboard and a touch panel.

表示部10fは、プロセッサ10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部10fは、生成された推定データなどを表示してよい。 The display unit 10f visually displays the calculation results by the processor 10a, and may be configured by, for example, an LCD (Liquid Crystal Display). The display unit 10f may display the generated estimated data and the like.

プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。情報処理装置10では、プロセッサ10aがプログラムを実行することにより、図1を用いて説明した様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、情報処理装置10は、プロセッサ10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。 The program may be provided by being stored in a computer-readable storage medium such as the RAM 10b or ROM 10c, or may be provided via a communication network connected by the communication unit 10d. In the information processing device 10, the various operations described using FIG. 1 are realized by the processor 10a executing programs. Note that these physical configurations are merely examples, and do not necessarily have to be independent configurations. For example, the information processing device 10 may include an LSI (Large-Scale Integration) in which a processor 10a, a RAM 10b, and a ROM 10c are integrated.

図8は、本実施形態に係る情報処理装置10がネットワークを学習し、学習済みのネットワークを用いて対象物の識別子を生成するまでの処理を示すフローチャートである。以下、図8に沿って、本実施形態に係る情報処理装置10による処理について説明する。 FIG. 8 is a flowchart showing a process in which the information processing apparatus 10 according to the present embodiment learns a network and generates an object identifier using the learned network. Processing by the information processing apparatus 10 according to this embodiment will be described below with reference to FIG. 8.

まず、情報処理装置10の学習部110は、第1ネットワーク210及び第2ネットワーク220を学習する(ステップS101)。具体的には、学習部110は、図3を参照しながら説明したように、第2ネットワーク220が、第1ネットワーク210に入力された状態データを復元するm次元のデータを生成するように、第1ネットワーク210及び第2ネットワーク220を学習する。学習された第1ネットワーク210及び第2ネットワーク220に関する情報は、記憶部100に記憶される。 First, the learning unit 110 of the information processing device 10 learns the first network 210 and the second network 220 (step S101). Specifically, as described with reference to FIG. 3, the learning unit 110 operates so that the second network 220 generates m-dimensional data that restores the state data input to the first network 210. The first network 210 and the second network 220 are learned. The learned information regarding the first network 210 and the second network 220 is stored in the storage unit 100.

次いで、学習部110は、第3ネットワーク230を学習する(ステップS103)。より具体的には、図5を参照して説明したように、学習部110は、学習済みの第2ネットワーク220が対象物の状態を推定する推定データを生成するように、第3ネットワーク230を学習する。学習済みの第3ネットワークに関する情報は、記憶部100に記憶される。 Next, the learning unit 110 learns the third network 230 (step S103). More specifically, as described with reference to FIG. 5, the learning unit 110 trains the third network 230 so that the trained second network 220 generates estimation data for estimating the state of the object. learn. Information regarding the learned third network is stored in the storage unit 100.

次いで、推定部120は、推定データを生成する(ステップS105)。より具体的には、推定部120は、ステップS103において学習された学習済みの第3ネットワーク230とステップS101において学習された学習済みの第2ネットワーク220とが接続された状態において、学習済みの第3ネットワーク230の入力層に物理データを入力し、学習済みの第2ネットワーク220に推定データを出力させる。 Next, the estimation unit 120 generates estimation data (step S105). More specifically, in a state where the learned third network 230 learned in step S103 and the learned second network 220 learned in step S101 are connected, the estimation unit 120 Physical data is input to the input layer of the 3rd network 230, and the learned second network 220 is made to output estimated data.

次いで、識別部130は、対象物の識別子を生成する(ステップS107)。より具体的には、識別部130は、ステップS105において生成された推定データに基づいて、対象物の識別子を生成する。 Next, the identification unit 130 generates an identifier for the object (step S107). More specifically, the identification unit 130 generates an identifier for the object based on the estimated data generated in step S105.

このように、本実施形態に係る情報処理装置10によれば、対象物(例えば、電子デバイス)に固有の指紋ともいえる識別子を生成することができる。また、生成される識別子は、データの暗号化及び利用者の認証にも利用することができる。さらに、生成される識別子は、各種のセキュリティに関する技術にも適用することが可能である。 In this manner, the information processing apparatus 10 according to the present embodiment can generate an identifier that can be considered a fingerprint unique to an object (for example, an electronic device). The generated identifier can also be used for data encryption and user authentication. Furthermore, the generated identifier can also be applied to various security-related techniques.

また、本実施形態では、対象物の状態(電子分布など)が物理データから算出できない場合であっても、対象物の状態を物理データから推定する推定データに基づき、対象物の識別子を生成することができる。 Furthermore, in this embodiment, even if the state of the object (electron distribution, etc.) cannot be calculated from physical data, an identifier for the object is generated based on estimation data that estimates the state of the object from physical data. be able to.

従来、対象物に固有な物理現象を利用して機器の識別子を生成する方法として、PUF(Physically Unclonable Function)が提案されている。PUFは、SRAM(Static Random Access Memory)の初期化情報又は回路特有の遅延時間を利用した手法、あるいは、ランダムテレグラフノイズなどのトランジスタの動作電流のランダム揺らぎを利用した手法などがある。これらの手法は、いずれも、環境変化又は機器の劣化により経時変化する物理量を利用しており、長期間に渡って固有の識別子を維持することが困難であった。 BACKGROUND ART Conventionally, PUF (Physically Unclonable Function) has been proposed as a method of generating a device identifier using a physical phenomenon unique to an object. The PUF includes a method that uses initialization information of SRAM (Static Random Access Memory) or a delay time specific to the circuit, or a method that uses random fluctuations in the operating current of a transistor such as random telegraph noise. All of these methods utilize physical quantities that change over time due to environmental changes or equipment deterioration, making it difficult to maintain a unique identifier over a long period of time.

本実施形態に係る情報処理装置10では、経時変化する物理特性に基づく物理データを用いて、対象物を識別するための推定データを生成し、対象物に固有の識別子を生成することができる。本実施形態では、電気伝導度の磁場依存性という物理特性が経時変化しても、量子細線の構造は対象物を識別できる程度に維持されるため、経時変化する物理データに基づき堅牢な識別子を生成することが可能である。このため、対象物を長期間に渡って同定することを可能にする識別子を生成できる。 The information processing device 10 according to the present embodiment can generate estimated data for identifying a target object using physical data based on physical characteristics that change over time, and can generate an identifier unique to the target object. In this embodiment, even if the physical property of magnetic field dependence of electrical conductivity changes over time, the structure of the quantum wire is maintained to the extent that the object can be identified. Therefore, a robust identifier can be created based on physical data that changes over time. It is possible to generate Therefore, it is possible to generate an identifier that allows the object to be identified over a long period of time.

近年のIoT(Internet of Things)の進化に伴い、PUFなどのデバイスを特定するセキュリティ技術のニーズが高まっている。IoTにおいて、デバイスはディスポーザルに近いかたちで利用され得るため、デバイスが低価格で提供されることが重要となっている。一方、本発明は、本質的に真贋が重要となる希少性の高いデバイスに適用されることが好ましい。本発明は、例えば、一回の処理コストが高い量子計算において、当該量子計算を行った量子コンピュータを同定したり、量子鍵配送などを行う際において、配信者の信頼性を確保したりするために用いられ得る。 With the recent evolution of IoT (Internet of Things), the need for security technology to identify devices such as PUF is increasing. In IoT, devices can be used in a near-disposable manner, so it is important that devices be provided at low prices. On the other hand, the present invention is preferably applied to highly rare devices for which authenticity is essentially important. The present invention can be used, for example, to identify the quantum computer that performed the quantum calculation in quantum calculations where a single processing cost is high, and to ensure the reliability of the distributor when performing quantum key distribution. It can be used for.

本発明の技術は、測定することが困難な特徴を対象物が有する場合にも適用することができる。例えば、対象物の内部構造が当該対象物の特徴である場合、当該特徴を測定するためには、対象物を破壊しなければならない場合がある。対象物である素子の不純物又は欠陥を検出するためには、例えば、素子をスライスして断面構造を観察する必要がある。このように、対象物を破壊しなければ素子の内部の不純物または欠陥などを検出できない場合には、対象物が個体を識別可能なデバイスとならない。このため、対象物の内部の状態を推定することができる本発明が重要となる。
本実施形態に係る情報処理装置10によれば、対象物の電気伝導度などの物理データを測定することで、対象物の特徴(例えば、内部構造)を含む推定データを推定することができる。この推定データを用いることで、測定することが困難な特徴に基づいて、対象物の識別子を生成することが可能になる。
The technique of the present invention can also be applied when an object has characteristics that are difficult to measure. For example, if the internal structure of an object is a characteristic of the object, the object may have to be destroyed in order to measure the characteristic. In order to detect impurities or defects in a target element, for example, it is necessary to slice the element and observe the cross-sectional structure. As described above, if impurities or defects inside the element cannot be detected without destroying the object, the object cannot be an individually identifiable device. For this reason, the present invention, which is capable of estimating the internal state of an object, is important.
According to the information processing device 10 according to the present embodiment, by measuring physical data such as the electrical conductivity of the object, it is possible to estimate estimation data including the characteristics (for example, internal structure) of the object. By using this estimated data, it becomes possible to generate an object identifier based on features that are difficult to measure.

また、本実施形態によれば、対象物の物理データを非破壊の手法で測定することで、対象物の特徴を含む推定データを生成し、対象物の識別子を生成することができる。従って、破壊をしなければ測定できないような特徴を対象物が有する場合であっても、対象物を破壊せずに識別子を生成、あるいは当該対象物を同定することができる。 Furthermore, according to the present embodiment, by measuring the physical data of the object using a non-destructive method, it is possible to generate estimated data including the characteristics of the object, and to generate an identifier for the object. Therefore, even if an object has characteristics that cannot be measured without destroying it, an identifier can be generated or the object can be identified without destroying the object.

(実施例)
上述した方法を用いて、ナノデバイスの試料を識別する実施例について説明する。本実施例では、リフトオフ法により量子細線の試料を作製し、作製した試料について上述した方法により推定データを生成し、当該試料を識別した。
(Example)
An example of identifying a nanodevice sample using the above-described method will be described. In this example, a quantum wire sample was produced by the lift-off method, and estimated data was generated for the produced sample by the method described above to identify the sample.

まず、図3を参照して説明した方法で、学習済みの第1ネットワークと学習済みの第2ネットワークとを得た。具体的には、2つの穴が形成されている量子細線の画像データを第1ネットワークの入力とし、第2ネットワークから画像データを復元するデータが出力されるように、第1ネットワークと第2ネットワークとを学習した。本実施例で用いた画像データの次元は、縦60画素、横60画素の3600次元である。第1ネットワークと第2ネットワークとを学習することで、3600次元の画像データを7次元のベクトルで表現できるようにした。なお、本実施例の量子細線の特徴は、2つの穴の位置であるため、当該特徴を表現するベクトルの次元は7次元で十分である。なお、穴の数などの条件に応じて、ベクトルの次元を変更することも可能である。 First, a trained first network and a trained second network were obtained using the method described with reference to FIG. Specifically, the first network and the second network are connected so that image data of a quantum wire in which two holes are formed is input to the first network, and data for restoring the image data is output from the second network. I learned that. The dimensions of the image data used in this example are 3600 dimensions, 60 pixels vertically and 60 pixels horizontally. By learning the first network and the second network, 3600-dimensional image data can be expressed as a 7-dimensional vector. Note that, since the feature of the quantum wire of this example is the position of the two holes, it is sufficient that the dimension of the vector expressing the feature is seven dimensions. Note that it is also possible to change the dimension of the vector depending on conditions such as the number of holes.

本実施例では、アンチドットの配置が互いに異なる複数の量子細線のモデルのそれぞれについて、電気伝導度の磁場依存性(物理データ)を計算して用意した。ネットワークには、学習の効率を向上させるために、正規化されたデータが入力されることが好ましい。本実施例では、アンチドットの配置が異なる複数のモデル(量子細線のモデル)のそれぞれについて電気抵抗の磁場依存性を計算して物理データを得た。次いで、算出した物理データのそれぞれについて、全ての物理データの平均を差し引くことで正規化された電気抵抗の磁場依存性を得た。この正規化された電気抵抗の磁場依存性を表す物理データと、量子細線の微細構造を表す画像データと、を教師データとして、第3ネットワークを学習させた。これにより、学習済みの第3ネットワークに物理データを入力することで、学習済みの第2ネットワークから量子細線の微細構造を推定する推定データを出力できるネットワークが得られた。 In this example, the dependence of electrical conductivity on the magnetic field (physical data) was calculated and prepared for each of a plurality of quantum wire models having different antidot arrangements. Preferably, normalized data is input to the network in order to improve learning efficiency. In this example, physical data was obtained by calculating the magnetic field dependence of electrical resistance for each of a plurality of models (quantum wire models) with different anti-dot arrangements. Next, for each of the calculated physical data, the normalized magnetic field dependence of the electrical resistance was obtained by subtracting the average of all physical data. The third network was trained using physical data representing the magnetic field dependence of the normalized electrical resistance and image data representing the fine structure of the quantum wire as training data. As a result, by inputting physical data into the trained third network, a network was obtained that can output estimation data for estimating the fine structure of the quantum wire from the trained second network.

試料の作製に用いたリフトオフ法について説明する。シリコン基板上に有機物(レジスト)を塗布し、電子線描画装置を用いて有機物の高分子間の結合を電子線により部分的に分解し、所望のパターン部分の有機物をはがした。所望のパターンが形成されたシリコン基板上に、チタン及び金を含む金属を堆積させ、レジストを除去することで所望のパターンに金属を堆積させた構造を得た。このようにして、幅約280nmの量子細線を作製した。 The lift-off method used to prepare the sample will be explained. An organic substance (resist) was coated on a silicon substrate, and bonds between polymers of the organic substance were partially decomposed by an electron beam using an electron beam lithography device, and the organic substance in a desired pattern portion was peeled off. A metal containing titanium and gold was deposited on a silicon substrate on which a desired pattern was formed, and the resist was removed to obtain a structure in which metal was deposited in a desired pattern. In this way, a quantum wire with a width of about 280 nm was produced.

その後、作製した量子細線の2点に電子線描画装置を用いてスポット焼を行い、円形状の穴(以下、「アンチドット」とも称する。)を形成した。ここで、スポット焼とは、電子線を1点に集中して照射する方法である。本実施例では、直径が約50nmのアンチドットを形成した。 Thereafter, spot firing was performed at two points on the produced quantum wire using an electron beam drawing device to form circular holes (hereinafter also referred to as "anti-dots"). Here, spot firing is a method of irradiating an electron beam in a concentrated manner at one point. In this example, antidots with a diameter of about 50 nm were formed.

図9は、本実施例において作製した量子細線310の構造を示す図である。量子細線310には、第1アンチドット312と第2アンチドット314とが形成されている。これらの2つのアンチドットについて、量子細線310の長さ方向の間隔を約180nmとした。 FIG. 9 is a diagram showing the structure of the quantum wire 310 produced in this example. A first antidot 312 and a second antidot 314 are formed in the quantum wire 310 . Regarding these two antidots, the distance in the length direction of the quantum wires 310 was set to about 180 nm.

本実施例では、量子細線における量子干渉効果に基づく普遍的コンダクタンスの揺らぎを観測するために、希釈冷凍機を用いて25mK付近の温度まで試料を冷却した。この温度付近で、磁場Bを0から4(T)の間で変化させながら、試料の電気抵抗Rを計測した。 In this example, in order to observe fluctuations in universal conductance based on quantum interference effects in quantum wires, a dilution refrigerator was used to cool the sample to a temperature around 25 mK. Around this temperature, the electrical resistance R of the sample was measured while changing the magnetic field B between 0 and 4 (T).

図10は、試料の電気抵抗の揺らぎδRの磁場依存性を測定した結果を示す図である。電気抵抗の揺らぎδRは、測定された電気抵抗の磁場依存性を線形フィッティングして線形関数を取得し、電気抵抗の磁場依存性から当該線形関数を差し引いて得られた値である。図10には、磁場を上げながら測定した結果が示されている。実際の測定結果を用いて対象物の状態を推定する場合にもネットワークに入力されるデータは正規化されていることが好ましい。状態を推定する際には、本実施例では、線形関数を測定データから引くことによって正規化されたデータを取得した。この正規化されたデータを入力として、学習済みの第2ネットワーク及び学習済みの第3ネットワークを用いて推定データを得た。 FIG. 10 is a diagram showing the results of measuring the magnetic field dependence of the fluctuation δR of the electrical resistance of the sample. The fluctuation δR of the electrical resistance is a value obtained by linearly fitting the magnetic field dependence of the measured electrical resistance to obtain a linear function, and subtracting the linear function from the magnetic field dependence of the electrical resistance. FIG. 10 shows the results of measurements while increasing the magnetic field. Even when estimating the state of an object using actual measurement results, it is preferable that the data input to the network be normalized. When estimating the state, in this example, normalized data was obtained by subtracting a linear function from the measured data. Using this normalized data as input, estimated data was obtained using a trained second network and a trained third network.

図11は、量子細線の微細構造を推定する推定データ320を示す図である。図11に示すように、第1推定ドット322と第2推定ドット324とが示されている。第1推定ドット322及び第2推定ドット324は、それぞれ、図9に示す第1アンチドット312又は第2アンチドット314に対応している。図11に示すように、特に、第1推定ドット322は、はっきりと示されている。このように、本実施例では、量子細線の電気抵抗の磁場依存性に基づき、量子細線310の構造、具体的には、量子細線310に形成されたアンチドットの位置を推定できることができた。この推定結果を用いることで、量子細線を識別することができる。 FIG. 11 is a diagram showing estimation data 320 for estimating the fine structure of a quantum wire. As shown in FIG. 11, a first estimated dot 322 and a second estimated dot 324 are shown. The first estimated dot 322 and the second estimated dot 324 correspond to the first anti-dot 312 or the second anti-dot 314 shown in FIG. 9, respectively. As shown in FIG. 11, in particular, the first estimated dot 322 is clearly shown. In this way, in this example, the structure of the quantum wire 310, specifically, the position of the antidot formed on the quantum wire 310, could be estimated based on the magnetic field dependence of the electrical resistance of the quantum wire. By using this estimation result, quantum wires can be identified.

[第2実施形態]
第2実施形態では、第1実施形態と実質的に同一の点については説明を省略し、主に、第1実施形態と異なる点について説明する。
[Second embodiment]
In the second embodiment, descriptions of points that are substantially the same as those of the first embodiment will be omitted, and points that are different from the first embodiment will be mainly described.

第2実施形態では、物理データは、対象物に光が照射される際に生成されるスペックルパターンを、2次元の画像で表現するデータである。この物理データを取得する方法について、簡単に説明する。まず、対象物となる例えば平板状の材料に向けて、レーザにより光を照射する。照射された光が対象物を透過することで生成される透過光スペックルパターン又は対象物に反射されることで生成される反射光スペックルパターンの画像データが物理データとなる。 In the second embodiment, the physical data is data that expresses a speckle pattern generated when a target object is irradiated with light as a two-dimensional image. A method for acquiring this physical data will be briefly explained. First, a laser beam is used to irradiate a target object, for example, a flat material. Physical data is image data of a transmitted light speckle pattern generated when the irradiated light passes through the object or a reflected light speckle pattern generated when the irradiated light is reflected by the object.

第2実施形態においても、図3を参照して説明したように、物理データを第1ネットワーク210の入力として、第1ネットワーク210及び第2ネットワーク220が学習される。次いで、図5を参照して説明したように、学習済みの第2ネットワーク220から対象物の状態を推定する推定データが生成されるように、第3ネットワーク230が学習される。推定データは、対象物の表面の構造(例えば、凹凸の分布など)に関するデータであってもよいし、対象物の内部における不純物の分布に関するデータであってもよいし、対象物を構成する元素の分布に関するデータであってもよい。 Also in the second embodiment, as described with reference to FIG. 3, the first network 210 and the second network 220 are trained by inputting physical data to the first network 210. Next, as described with reference to FIG. 5, the third network 230 is trained so that estimation data for estimating the state of the object is generated from the trained second network 220. The estimated data may be data regarding the structure of the surface of the object (for example, distribution of unevenness, etc.), data regarding the distribution of impurities inside the object, or data regarding the elements constituting the object. It may also be data regarding the distribution of .

このように、第2実施形態では、対象物に光を照射することで得られる光スペックルパターンの物理データに基づき、対象物の識別子を生成することができる。簡便に得られる物理データを用いることができるため、より簡便に対象物の識別子を生成することが可能になる。 In this way, in the second embodiment, the identifier of the object can be generated based on the physical data of the optical speckle pattern obtained by irradiating the object with light. Since easily obtained physical data can be used, it becomes possible to generate an object identifier more easily.

本実施形態に係る方法の応用例について説明する。例えば、物品に識別の対象となるタグを付しておく。当該タグにレーザを照射し、得られたスペックルパターンの物理データを用いて推定データを推定し、当該推定データを用いてタグを識別することができる。その識別結果に基づいて、タグが付された物品を識別できる。 An application example of the method according to this embodiment will be described. For example, a tag for identification may be attached to an article. The tag can be irradiated with a laser, estimated data can be estimated using the physical data of the obtained speckle pattern, and the tag can be identified using the estimated data. Based on the identification result, the tagged article can be identified.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素及びその配置、材料、条件、形状、サイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are intended to facilitate understanding of the present invention, and are not intended to be interpreted as limiting the present invention. Each element included in the embodiment, its arrangement, material, conditions, shape, size, etc. are not limited to those illustrated, and can be changed as appropriate. Further, it is possible to partially replace or combine the structures shown in different embodiments.

上記の第1実施形態では、主に、物理データが、対象物の電気伝導度の磁場依存性に関するデータであるものとして説明したが、物理データはこれに限定されるものではない。物理データは、例えば、対象物の測定可能な電気物性、熱物性、又は磁気物性などに関するデータであってよい。 In the first embodiment described above, the physical data is mainly data regarding the magnetic field dependence of the electrical conductivity of the object, but the physical data is not limited to this. The physical data may be, for example, data regarding measurable electrical, thermal, or magnetic properties of the object.

上記の第1実施形態では、主に、状態データが電子デバイスの電子分布に関するデータであるものとして説明したが、状態データはこれに限定されるものではない。状態データは、例えば、材料中におけるナノスケールの不純物の分布に関するデータであってよい。この場合、ステップS101に相当する処理において、Variational AutoEncoder(変分自己符号化器)又はGenerative Adversarial Network(生成的敵対的ネットワーク)を用いてよい。 In the first embodiment described above, the state data is mainly data regarding the electron distribution of the electronic device, but the state data is not limited to this. The condition data may be, for example, data regarding the distribution of nanoscale impurities in the material. In this case, a Variational AutoEncoder or a Generative Adversarial Network may be used in the process corresponding to step S101.

また、上記実施形態では、主として、状態データが対象物を2次元空間で表すものとして説明した。これに限らず、状態データは、3次元以上の高次元の空間を表すものであって良い。状態データが3次元空間を表す場合にも、状態データは、複数の位置の各々について対象物の状態に応じた値を対応付けたデータであってよい。3次元空間を表す状態データは、例えば立体構造など3次元の物質の状態を推定する場合に用いられる。 Further, in the above embodiment, the description has been made mainly on the assumption that the state data represents the object in a two-dimensional space. The state data is not limited to this, and may represent a high-dimensional space of three or more dimensions. Even when the state data represents a three-dimensional space, the state data may be data in which values corresponding to the state of the object are associated with each of a plurality of positions. State data representing a three-dimensional space is used, for example, when estimating a three-dimensional state of a substance such as a three-dimensional structure.

10…情報処理装置、10d…通信部、10e…入力部、10f…表示部、100…記憶部、110…学習部、120…推定部、130…識別部、210…第1ネットワーク、212…入力層、214…第1セット、216…第2セット、218…出力層、220…第2ネットワーク、222…入力層、224…第3セット、226…第4セット、228…出力層、230…第3ネットワーク、232…入力層、234…第1中間層、236…第2中間層、238…出力層、240…表現空間、300…状態データ、302…第1欠陥、304…第2欠陥、310…量子細線、312…第1アンチドット、314…第2アンチドット、320…推定データ、322…第1推定ドット、324…第2推定ドット 10... Information processing device, 10d... Communication unit, 10e... Input unit, 10f... Display unit, 100... Storage unit, 110... Learning unit, 120... Estimating unit, 130... Identification unit, 210... First network, 212... Input Layer, 214...first set, 216...second set, 218...output layer, 220...second network, 222...input layer, 224...third set, 226...fourth set, 228...output layer, 230...th 3 network, 232... input layer, 234... first intermediate layer, 236... second intermediate layer, 238... output layer, 240... representation space, 300... state data, 302... first defect, 304... second defect, 310 ...Quantum wire, 312...First antidot, 314...Second antidot, 320...Estimation data, 322...First estimation dot, 324...Second estimation dot

Claims (9)

対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、前記第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、
前記第2ネットワークが、前記状態データを復元するm次元のデータを出力するように、前記第1ネットワーク及び前記第2ネットワークを学習する第1学習部と、
前記対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、前記第2ベクトルに基づくデータを入力とする、前記第1学習部により学習された学習済みの第2ネットワークと、について、
前記学習済みの第2ネットワークが、前記第2ベクトルに基づき前記対象物の状態を推定する推定データを出力するように、前記第3ネットワークを学習する第2学習部と、
を備える、情報処理装置。
a first network that receives m-dimensional (m: a natural number of 2 or more) state data regarding the state of an object and outputs an n-dimensional (n: a natural number, m>n) first vector; and a second network that inputs data based on the data and outputs m-dimensional data,
a first learning unit that learns the first network and the second network so that the second network outputs m-dimensional data that restores the state data;
A third network that receives p-dimensional (p: a natural number of 2 or more, p>n) physical data of the object and outputs an n-dimensional second vector, and receives data based on the second vector as input. , and the learned second network learned by the first learning unit,
a second learning unit that learns the third network so that the trained second network outputs estimation data for estimating the state of the object based on the second vector;
An information processing device comprising:
前記第2学習部により学習された学習済みの第3ネットワークと、前記学習済みの第3ネットワークにより出力される前記第2ベクトルに基づくデータを入力する前記学習済みの第2ネットワークとを用いて、前記学習済みの第3ネットワークに前記物理データを入力することで、前記学習済みの第2ネットワークにより前記推定データを生成する推定部、
をさらに備える、請求項1に記載の情報処理装置。
Using a learned third network learned by the second learning unit and the learned second network inputting data based on the second vector outputted by the learned third network, an estimating unit that generates the estimated data by the trained second network by inputting the physical data to the trained third network;
The information processing device according to claim 1, further comprising:
前記推定部により生成された推定データに基づいて、前記対象物の識別子を生成する識別部、
をさらに備える、請求項2に記載の情報処理装置。
an identification unit that generates an identifier for the object based on the estimation data generated by the estimation unit;
The information processing device according to claim 2, further comprising:
前記状態データは、2次元空間又は3次元空間のm個の位置の各々について前記対象物の状態に応じた値を対応付けたデータである、
請求項1から3のいずれか1項に記載の情報処理装置。
The state data is data in which values corresponding to the state of the object are associated with each of m positions in a two-dimensional space or a three-dimensional space.
The information processing device according to any one of claims 1 to 3.
前記物理データは、前記対象物における波の干渉による物理現象に基づくデータである、
請求項1から4のいずれか1項に記載の情報処理装置。
The physical data is data based on a physical phenomenon caused by wave interference in the target object,
The information processing device according to any one of claims 1 to 4.
前記物理データは、前記対象物の電気伝導の磁場依存性を、前記対象物にかかる磁場と前記対象物の電気伝導との2次元のグラフで表現するデータである、
請求項5に記載の情報処理装置。
The physical data is data that expresses the magnetic field dependence of the electrical conduction of the object as a two-dimensional graph of the magnetic field applied to the object and the electrical conduction of the object.
The information processing device according to claim 5.
前記物理データは、前記対象物に光が照射される際に生成されるスペックルパターンを、2次元の画像で表現するデータである、
請求項5に記載の情報処理装置。
The physical data is data that expresses a speckle pattern generated when the object is irradiated with light as a two-dimensional image.
The information processing device according to claim 5.
対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、前記第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、
前記第2ネットワークが、前記状態データを復元するm次元のデータを出力するように、前記第1ネットワーク及び前記第2ネットワークを学習することと、
前記対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、前記第2ベクトルに基づくデータを入力とする、学習済みの第2ネットワークと、について、
前記学習済みの第2ネットワークが、前記第2ベクトルに基づき前記対象物の状態を推定する推定データを出力するように、前記第3ネットワークを学習することと、
を含む、情報処理方法。
a first network that receives m-dimensional (m: a natural number of 2 or more) state data regarding the state of an object and outputs an n-dimensional (n: a natural number, m>n) first vector; and a second network that inputs data based on the data and outputs m-dimensional data,
Learning the first network and the second network so that the second network outputs m-dimensional data that restores the state data;
A third network that receives p-dimensional (p: a natural number of 2 or more, p>n) physical data of the object and outputs an n-dimensional second vector, and receives data based on the second vector as input. , the trained second network, and
Learning the third network so that the trained second network outputs estimation data for estimating the state of the object based on the second vector;
information processing methods, including
コンピュータに、
対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、前記第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、
前記第2ネットワークが、前記状態データを復元するm次元のデータを出力するように、前記第1ネットワーク及び前記第2ネットワークを学習することと、
前記対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、前記第2ベクトルに基づくデータを入力とする、学習済みの第2ネットワークと、について、
前記学習済みの第2ネットワークが、前記第2ベクトルに基づき前記対象物の状態を推定する推定データを出力するように、前記第3ネットワークを学習することと、
を実行させるためのプログラム。
to the computer,
a first network that receives m-dimensional (m: a natural number of 2 or more) state data regarding the state of an object and outputs an n-dimensional (n: a natural number, m>n) first vector; and a second network that inputs data based on the data and outputs m-dimensional data,
Learning the first network and the second network so that the second network outputs m-dimensional data that restores the state data;
A third network that receives p-dimensional (p: a natural number of 2 or more, p>n) physical data of the object and outputs an n-dimensional second vector, and receives data based on the second vector as input. , the trained second network, and
Learning the third network so that the trained second network outputs estimation data for estimating the state of the object based on the second vector;
A program to run.
JP2020024587A 2020-02-17 2020-02-17 Information processing device, information processing method and program Active JP7390715B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020024587A JP7390715B2 (en) 2020-02-17 2020-02-17 Information processing device, information processing method and program
PCT/JP2021/005838 WO2021166933A1 (en) 2020-02-17 2021-02-17 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020024587A JP7390715B2 (en) 2020-02-17 2020-02-17 Information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2021128706A JP2021128706A (en) 2021-09-02
JP7390715B2 true JP7390715B2 (en) 2023-12-04

Family

ID=77391287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020024587A Active JP7390715B2 (en) 2020-02-17 2020-02-17 Information processing device, information processing method and program

Country Status (2)

Country Link
JP (1) JP7390715B2 (en)
WO (1) WO2021166933A1 (en)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GOMEZ-BOMBARELLI, Rafael, et al.,"Automatic Chemical Design Using a Data-Driven Continuous Representation of Molecules",ACS Central Science,[online], American Chemical Society (ACS),2018年01月12日,Volume 4, No.2,Pages 268-276,<DOI: 10.1021/acscentsci.7b00572>, [retrieved on 2021.04.05], Retrieved from the Internet: <URL: https://pubs.acs.org/doi/abs/10.1021/acscentsci.7b00572>.

Also Published As

Publication number Publication date
JP2021128706A (en) 2021-09-02
WO2021166933A1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
Jiang et al. Learning deep correlated representations for nonlinear process monitoring
Pierson et al. Predicting microstructure-sensitive fatigue-crack path in 3D using a machine learning framework
Wang et al. Drifted Twitter spam classification using multiscale detection test on KL divergence
Akhil et al. Image data-based surface texture characterization and prediction using machine learning approaches for additive manufacturing
Lee et al. Confusion scheme in machine learning detects double phase transitions and quasi-long-range order
Wang et al. Tsagen: synthetic time series generation for kpi anomaly detection
JP6730340B2 (en) Causal estimation device, causal estimation method, and program
Xu et al. No‐reference stereoscopic image quality assessment based on saliency‐guided binocular feature consolidation
Sharma et al. A quantum‐based diagnostics approach for additive manufacturing machine
Schmitt et al. Metrologically interpretable feature extraction for industrial machine vision using generative deep learning
Easom-McCaldin et al. Efficient quantum image classification using single qubit encoding
JP7390715B2 (en) Information processing device, information processing method and program
JP2022088556A (en) Calibration method and device of quantum measurement apparatus, electronic apparatus and medium
Wang et al. Local–Global Correlation Fusion-Based Graph Neural Network for Remaining Useful Life Prediction
Farazdaghi et al. Backward face ageing model (B‐FAM) for digital face image rejuvenation
Liu et al. An anomaly detection method based on double encoder–decoder generative adversarial networks
Quiros et al. A hybrid construction method based on weight functions to obtain interval‐valued fuzzy relations
Orihara et al. Approximation of time-consuming simulation based on generative adversarial network
Davila-Frias et al. Deep neural networks for all-terminal network reliability estimation
Dirkse et al. Witnessing entanglement in experiments with correlated noise
Sami et al. Artificial neural network and dataset optimization for implementation of linear system models in resource‐constrained embedded systems
JP2019053383A (en) Neural network device and production method thereof
JP7363912B2 (en) Display method, display program and information processing device
Shi et al. Hybrid data-driven feature extraction-enabled surface modeling for metal additive manufacturing
JP7363911B2 (en) Display method, display program and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231114

R150 Certificate of patent or registration of utility model

Ref document number: 7390715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150