JP7451606B2 - 学習システム及び学習方法 - Google Patents

学習システム及び学習方法 Download PDF

Info

Publication number
JP7451606B2
JP7451606B2 JP2022101100A JP2022101100A JP7451606B2 JP 7451606 B2 JP7451606 B2 JP 7451606B2 JP 2022101100 A JP2022101100 A JP 2022101100A JP 2022101100 A JP2022101100 A JP 2022101100A JP 7451606 B2 JP7451606 B2 JP 7451606B2
Authority
JP
Japan
Prior art keywords
quantum
calculation unit
learning
unit
optimal transport
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022101100A
Other languages
English (en)
Other versions
JP2024002105A (ja
Inventor
隼平 宇野
宙之 手塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mizuho Research and Technologies Ltd
Original Assignee
Mizuho Research and Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mizuho Research and Technologies Ltd filed Critical Mizuho Research and Technologies Ltd
Priority to JP2022101100A priority Critical patent/JP7451606B2/ja
Priority to US18/338,598 priority patent/US20230419144A1/en
Publication of JP2024002105A publication Critical patent/JP2024002105A/ja
Application granted granted Critical
Publication of JP7451606B2 publication Critical patent/JP7451606B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/20Models of quantum computing, e.g. quantum circuits or universal quantum computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、量子データセットの分布を学習するための学習システム及び学習方法に関する。
量子コンピュータを用いた機械学習(量子機械学習)はNISQ(Noisy Intermediate-Scale Quantum Computer)において有力視されている適用領域の一つである。量子機械学習には、量子データを扱うものと、古典データを扱うものがあり、いずれも積極的に研究が行なわれている。量子機械学習は、特に、量子データを用いた場合、既存のコンピュータを用いた機械学習(古典機械学習)と比較して大きな優位性を有することが期待されている。量子機械学習は、古典機械学習と同様に、教師あり学習や教師なし学習や強化学習等に分類される。
生成モデルは、教師なし学習の主要なタスクの一つである。与えられたデータセットをもとに、そのデータの背後にある分布を近似することを目的とする。より具体的には、与えられたデータセットの背後にある確率分布をα(x)と仮定する。そして、確率モデルをθでパラメトライズされた確率分布βθ(x)としたときに、適切な損失関数L(α,βθ)をなるべく小さくするようにθを学習する。古典機械学習において、生成モデルは異常検知、データの生成、データ構造の学習、次元削減などの目的で広く研究されているが、量子コンピュータへの適用事例はほとんどない。
生成モデルは大きく、明示的モデル(prescribed model)と暗黙的モデル(implicit model)に分類される。明示的モデルでは、パラメータθを用いて、データセットの背後にある確率密度を関数として明示的に記述する。このため、明示的モデルでは、対数尤度を計算することが可能である。そして、最尤推定などにより、パラメータθを求めることが可能となる。一方で、暗黙的モデルでは、確率密度を明示的に記述せずに、生成モデルに従うサンプルを生成する。暗黙的モデルの利点としては、広大な全標本空間のうち、比較的低次元の超平面上にデータセットが分布するような現象を容易に表すことができること、データを生成する物理的なプロセスとして解釈できること等がある。
暗黙的モデルでは、通常、全標本空間に比べて、十分に次元が低い潜在空間上のランダム変数(潜在変数)を仮定する。そして、潜在変数を標本空間に移す写像(ジェネレータ)を用いて生成モデルを表す。ここで、潜在変数はガウス分布や一様分布等の既知の分布に従うと仮定される。暗黙的モデルの学習では、適当な損失関数を用いて、データセットとジェネレータの生成する分布とを適合させるように、写像のパラメータθの学習を行なう。
古典機械学習における生成モデルでは、損失関数として最適輸送損失/ワッサーシュタイン距離(Optimal Transportation loss/Wasserstein distance)が注目されており、画像解析、自然言語処理、金融等様々な分野で活用されている。最適輸送損失は、特に、尤度が計算できない場合や、確率分布のサポートが一致しない場合にも適用可能なこと、標本空間上の距離を自然に取り込めること等の利点がある。最適輸送損失は、確率分布α(x)を別の確率分布β(x)に移す最小のコストとして、以下で定義される。
ここで、c(x,y)≧0は、xからyへの輸送コストを表しており、ground costと呼ばれる。また、ground costを最小化するπ(経路)の集合を最適輸送計画と呼ぶ。
量子生成モデルを構築するにあたり、(1)ジェネレータ及び(2)損失関数に関して検討する必要がある。
量子データのジェネレータとして、パラメータ付きの量子回路(Parameterized Quantum Circuit、PQC)を用いることが考えられる。量子コンピュータを用いた既存の生成モデル(例えば量子GAN等(非特許文献1を参照))では、PQC U(θ)を用いて、以下のようにして、ジェネレータを定義することが提案されている。
ここで、|Ψθ(z)>は、量子状態の分布である。
この回路では、わずかに潜在変数が異なるような量子状態同士が直交する。このため、量子空間上における連続的な分布を表すことが困難である。
この問題を解決するため、ジェネレータとしては以下のように潜在変数も含めたPQC G(θ,z)を用いることとする。
例えば、図5に示す量子回路C1をジェネレータG(θ,z)として設定することが可能である。図5において、「NL」は、ジェネレータG(θ,z)を構成する階層の数である。このジェネレータG(θ,z)では、同じ構造を持つ階層をNL回繰り返し作用する。i番目の階層内ではまず、j番目のビットに角度θi,j× zηi,j、方向ki,jの単一量子ビットのパウリ回転を作用し、その後、全ビットに対するladder controlled Zゲートを作用する。ここで、回転方向ki,jおよびzの方向ηi,jはランダムに選ばれる。
次に、損失関数について述べる。最適輸送損失に関して、ジェネレータにより生成される量子状態のサンプルと与えられた量子データの間のground cost c(x,y)について検討する必要がある。最も単純には、ground costとして、量子状態間の重なりをもとにしたトレース距離を採用することが考えられるが、この距離を用いるとビット数が大きい大規模な系では損失関数の最小化が進まない問題(barren plateau問題)がある。
この問題を解決する方法として、量子支援量子コンパイル(QAQC)の中で提案されているコスト関数がある(非特許文献2を参照)。QAQCでは、個別ビットの出力結果を用いてコスト関数を構成することで、barren plateau問題を回避する方法が提案されている。
学習においては、量子回路学習(非特許文献3を参照)と同様に、PQCのパラメータを調整することで、損失関数の最小化を行なう。
損失関数を最小化するためには、PQCのパラメータに対する損失関数の勾配を得ることが重要である。損失関数の勾配を、元の回路とほぼ同じ構造の回路を用いて推定する方法(パラメータシフトルール)が提案されている(非特許文献3、4を参照)。
Pierre-Luc Dallaire-Demers and Nathan Killoran,「Quantum generative adversarial networks」、[online]、American Physical Society、2018年7月23日、[令和4年5月19日検索]、インターネット<https://journals.aps.org/pra/abstract/10.1103/PhysRevA.98.012324> Sumeet Khatri,Ryan LaRose,Alexander Poremba,Lukasz Cincio,Andrew T Sornborger,Patrick J Coles,「Quantum-assisted quantum compiling」、[online]、arXiv.org、Cornell University、2019年5月7日、[令和4年5月1日検索]、インターネット<https://arxiv.org/abs/1807.00800> Kosuke Mitarai,Makoto Negoro,Masahiro Kitagawa,Keisuke Fujii、「Quantum circuit learning」、[online]、arXiv.org、Cornell University、2019年4月24日、[令和4年5月1日検索]、インターネット<https://arxiv.org/abs/1803.00745> Maria Schuld,Ville Bergholm,Christian Gogolin,Josh Izaac,Nathan Killoran、「Evaluating analytic gradients on quantum hardware」、[online]、arXiv.org、Cornell University、2018年11月27日、[令和4年5月1日検索]、インターネット<https://arxiv.org/abs/1811.11184>
量子データを生成する量子生成モデルを構築するにあたり、適切なジェネレータ及び損失関数が検討されておらず、量子データセットの分布の学習が困難であった。
本開示の学習システムは、量子状態の操作部と、前記量子状態を保持する状態保持部と、前記量子状態を観測する計測部とを含む量子計算部と、古典計算部と、前記量子計算部及び前記古典計算部を制御する管理部と、を備え、量子データセットの分布を学習する。前記古典計算部が、潜在変数の複数のサンプルと量子回路パラメータの値からジェネレータの構造を決定する処理を実行し、前記量子計算部が、前記ジェネレータと前記量子データセットからground cost及びその勾配を算出し、前記古典計算部が、前記ground cost及び前記勾配を用いて、最適輸送損失及びその勾配を算出し、前記最適輸送損失の勾配を用いて、前記最適輸送損失が小さくなるように、前記量子回路パラメータを更新する更新処理を実行し、前記管理部が、前記更新処理を前記最適輸送損失が収束するまで繰り返す。
本発明によれば、量子データセットの分布を学習することができる。
実施形態のシステム概略図である。 実施形態のハードウェア構成の説明図である。 実施形態のデータ空間における超平面の説明図である。 実施形態の潜在空間からデータ空間への写像の説明図である。 実施形態の量子回路の説明図である。 実施形態の量子データセットの分布の学習処理手順の説明図である。 実施形態の量子状態の異常検知処理手順の説明図である。
以下、図1~図7を用いて、学習システム及び学習方法の一実施形態を説明する。本実施形態では、外部から入力された量子データセットを基に、量子データセットの背後にある分布を学習する。
このため、図1に示すように、ネットワークで接続されたユーザ端末10、演算装置20を用いる。
(ハードウェア構成の説明)
図2を用いて、ユーザ端末10、演算装置20(管理部211、古典計算部212)を構成する情報処理装置H10のハードウェア構成を説明する。情報処理装置H10は、通信装置H11、入力装置H12、表示装置H13、記憶装置H14、プロセッサH15を備える。なお、このハードウェア構成は一例であり、他のハードウェアにより実現することも可能である。
通信装置H11は、他の装置との間で通信経路を確立して、データの送受信を実行するインタフェースであり、例えばネットワークインタフェースや無線インタフェース等である。
入力装置H12は、利用者等からの入力を受け付ける装置であり、例えばマウスやキーボード等である。表示装置H13は、各種情報を表示するディスプレイ等である。
記憶装置H14は、ユーザ端末10、演算装置20の各種機能を実行するためのデータや各種プログラムを格納する装置である。記憶装置H14の一例としては、ROM、RAM、ハードディスク等がある。
プロセッサH15は、記憶装置H14に記憶されるプログラムやデータを用いて、ユーザ端末10、演算装置20における各処理を制御する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各サービスのための各種プロセスを実行する。
プロセッサH15は、自身が実行するすべての処理についてソフトウェア処理を行なうものに限られない。例えば、プロセッサH15は、自身が実行する処理の少なくとも一部についてハードウェア処理を行なう専用のハードウェア回路(例えば、特定用途向け集積回路)を備えてもよい。すなわち、プロセッサH15は、以下を含む回路として構成し得る。
(1)コンピュータプログラムに従って動作する1つ以上のプロセッサ
(2)各種処理のうち少なくとも一部の処理を実行する1つ以上の専用のハードウェア回路
(3)それらの組み合わせ
プロセッサは、CPU並びに、RAM及びROM等のメモリを含み、メモリは、処理をCPUに実行させるように構成されたプログラムコード又は指令を格納している。メモリすなわちコンピュータ可読媒体は、汎用又は専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。
(システム構成)
次に、図1を用いて、ユーザ端末10、演算装置20のシステム構成を説明する。
ユーザ端末10は、利用者が用いるコンピュータ端末である。
演算装置20は、量子データセットの分布を学習するためのコンピュータである。
この演算装置20は、後述する処理(管理段階、量子計算段階、古典計算段階等の各処理等)を行なう。そのためのプログラムを実行することにより、演算装置20は、管理部211、古典計算部212、量子計算部22として機能する。
管理部211は、量子計算及び古典計算の管理を行なう。
古典計算部212は、潜在変数の複数のサンプルと量子回路パラメータの値からジェネレータの構造を決定する。このジェネレータは、微分可能なユニタリ演算子により構成する。更に、古典計算部212は、量子回路パラメータを更新する更新処理を実行する。
量子計算部22は、量子計算を行なう。本実施形態では、量子計算部22は、潜在空間の潜在変数に依存する写像(ジェネレータ)を実行する。更に、量子計算部22は、外部から入力された量子データセット及びジェネレータからground cost及びその勾配を算出する。
この量子計算部22は、操作部221、状態保持部222、計測部223を含む。
操作部221は、状態保持部222の量子ビットに対して量子演算に応じた量子操作を行なう。この場合、操作部221は、量子ゲート等により構成される量子回路を用いることによって、状態保持部222が保持する状態を操作(作成)する。
状態保持部222は、複数の量子ビットを備え、任意の量子状態を保持する。各量子ビットは、電子準位、電子スピン、イオン準位、各スピン、光子等、任意の物理状態で複数の値の重ね合わせ状態を保持する。重ね合わせ状態を保持できれば、量子ビットは上記に限定されるものではない。
計測部223は、状態保持部222の量子ビットの重ね合わせ状態を計算基底で観測する。計測部223は、状態保持部222の量子ビットの状態に応じて、ヒット回数を記録する。
(量子データセットの分布の学習処理)
図6を用いて、量子データセットの分布の学習処理を説明する。
ここでは、Nr個の量子データからなる量子データセット{|ψ1>,|ψ2>,…,|ψNr>}が与えられた時に、このデータセットの分布を近似するような生成モデルを学習する。
図3に示すように、データ空間SP1上の量子データセットに、できる限り近くなるように、低次元多様体である超平面MF1を学習する。ここで、黒点で示したデータセットD1はデータ空間SP1上の量子データセットである。また、×点で示したデータセットD2は超平面MF1上の量子データセットである。
図4に示すように、データセットD2は、潜在空間LS1上のサンプルを、ジェネレータG1を用いて、超平面MF1上へ写像したものである。
例えば、図5に示す量子回路C1をジェネレータG(θ,z)として設定する。このジェネレータG(θ,z)では、同じ構造を持つ階層をNL回繰り返し作用する。i番目の階層内ではまず、j=1~n番目のすべてのビットに角度θi,j×zηi,j、方向ki,jの単一量子ビットのパウリ回転を作用し、その後、全ビットに対するladder controlled Zゲートを作用する。ここで、回転方向ki,jおよびzの方向ηi,jはランダムに選ばれる。
上述したように、このようなジェネレータG(θ,z)は、潜在空間LS1の分布を、超平面MF1上の分布に写像する役割を果たす。そして、ジェネレータG(θ,z)の出力が、与えられた量子データセットに、可能な範囲で近づくように、量子回路パラメータ{θ}を学習する。
まず、演算装置20は、潜在空間において既知の分布から潜在変数を生成する(ステップS11)。具体的には、管理部211は、古典計算部212により、潜在空間LS1における既知の分布から、潜在変数としてサンプル数Ng個のサンプルzjを生成する。
次に、演算装置20は、ground costの推定を行なう(ステップS12)。ここでは、管理部211は、量子計算部22により、量子回路パラメータθと潜在変数のサンプルzjとから、量子状態のサンプル{G(θ,z1)|0>, G(θ,z2)|0>,…, G(θ,zNg)|0>}を生成する。次に、量子計算部22により、サンプル{G(θ,z1)|0>, G(θ,z2)|0>,…, G(θ,zNg)|0>}と、量子データセット{|ψ1>,|ψ2>,…,|ψNr>}とから、ground cost clocalを計算する。この計算には、非特許文献1に記載された下記式を用いる。
ここで、「n」は量子ビットの個数、「p(k) i,j」はk番目のビットが「0」になる確率である。「Tr」は対角成分の和(トレース)、「Ii」はi番目のビットに作用する恒等演算子である。
そして、量子計算部22は、このground cost clocalをNsショットにより近似する。ここでは、ground cost clocalの近似値を、以下のように表記する。
ここで、「Nr」は量子データセットのデータ数、「Ng」は潜在変数のサンプル数、「Ns」はショット数(同一の状態を用意する個数)である。
このground costの近似値は、確率(1-p(k) i,j)のベルヌーイ分布Be(1-p(k) i,j)に従う確率変数X(s) i,j,kを用いて以下のように定義される。
そして、管理部211は、古典計算部212により、ground cost clocalの近似値を用いて、量子回路モデル「G(θ,z)」のパラメータ「θ」を固定したときの、最適輸送計画及び最適輸送損失の算出を行なう(ステップS13)。
「L」は、最適輸送損失(Optimal Transport Loss)、「πij」は、データセットのi番目のデータ|ψi>とサンプルG(θ,zj)|0>の間の輸送計画である。
次に、管理部211は、古典計算部212により、上記式の線形計画法を解いて、最適輸送計画{πi,j}及び最適輸送損失Lを求める(第1の最小化)。
次に、演算装置20は、量子回路のパラメータの勾配を計算するためのパラメータシフトルールを用いてground costの勾配の算出を行なう(ステップS14)。ここでは、例えば、非特許文献2、3に記載されたパラメータシフトルールを用いる。そして、ground cost clocalの勾配をNsショットで近似する。ここで、ground cost clocalの勾配の近似値を以下のように表記する。
ここで、「Np」は、量子回路パラメータ「θ」の個数である。
次に、演算装置20は、学習率及びground cost clocalの勾配を利用して、量子回路パラメータ{θ}の更新を行なう(ステップS15)。ここでは、管理部211は、古典計算部212により、ground cost clocalの勾配及び最適輸送計画{πi,j}を使って、最適輸送損失の勾配を計算する。
そして、管理部211は、計算した勾配及び学習率を用いて、量子回路パラメータ{θ}をアップデートする(第2の最小化)。
次に、演算装置20は、収束するまで、ステップS11からステップS15の処理を繰り返す(ステップS16)。ここでは、管理部211は、最適輸送損失の値に応じて収束を判定する。例えば、最適輸送損失が所定範囲内に含まれていない場合、ステップS11以降の処理を繰り返す。
一方、管理部211は、最適輸送損失が所定範囲内に含まれており、収束と判定した場合、学習時処理を終了する。
(量子状態の異常検知処理)
次に、図7を用いて、量子データ分布の学習処理の応用例として、量子状態の異常検知処理について説明する。ここで、新たに取得した量子データと、教師データセットから学習した分布とを比較することにより、異常かどうかの判断を行なう。
まず、演算装置20は、新たな量子データの取得を行なう(ステップS21)。具体的には、管理部211は、ユーザ端末10の指示に応じて、学習に用いたデータセットとは別の量子データ(新たな量子データ)を取得する。この新たな量子データとしては、観測により外部から入力されるデータや、量子計算により出力される量子状態等が考えられる。
次に、演算装置20は、ジェネレータを取得する(ステップS22)。ここでは、管理部211は、通常時(正常時)の量子データセット(教師データセット)を用いて、予め学習されたジェネレータを取得する。
次に、演算装置20は、異常判定を行なう(ステップS23)。ここでは、管理部211は、量子回路パラメータ{θ}を用いて、異常判定を行なう。例えば、上記のジェネレータを用いて出力される量子状態の内、新たな量子データに最も近いデータを探索する。そして、管理部211は、新たな量子データと、最も近いデータとの距離(異常度)を算出する。そして、管理部211は、算出した異常度と、予め定めた異常判定値とを比較する。そして、管理部211は、比較結果に基づいて、異常の有無を判定し、判定結果をユーザ端末10に出力する。
本実施形態により、直感的には、以下のような効果を得ることができることが予想される。
(1)本実施形態では、潜在空間のデータを、データ空間SP1内の低次元の超平面MF1に写像する。これにより、写像を用いて、データセットと同様の分布に従う新たな量子データセットを生成することができる。
(2)本実施形態では、局所的な測定から構成されるground costを用いることで、勾配消失を抑制できる。このため、最適輸送損失を用いた学習が可能となり、これを損失関数として量子データセットの分布を学習できる可能性がある。すなわち、最適輸送損失を損失関数として採用することで、暗黙的モデルを用いた量子生成モデルを構成できる。
(3)本実施形態では、演算装置20は、ground costの推定(ステップS12)、最適輸送損失の算出(ステップS13)、学習率及び勾配を利用した量子回路パラメータ{θ}の更新(ステップS15)を行なう。これにより、最適輸送損失を最小化するような量子回路パラメータ{θ}を算出することができる。
本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・本実施形態では、量子状態の異常検知を行なう。すなわち、通常でない状態の検知に適用できる。例えば、量子コンピュータの異常検知、発生頻度が少ない状態の検知(例えば、重力波検知)、量子センシングに適用できる。
また、量子コンピュータの計算結果として得られる量子データを用いた学習にも適用可能である。例えば、変分量子固有値ソルバー(VQE:Variational Quantum Eigensolver)により得られた量子状態の学習、Born machineの波動関数の転移学習等に用いることができる。また、量子ダイナミクスの量子コンピュータでの計算として得られる量子状態を用いて、計算を簡易化するようなサロゲートモデルとしての利用も可能である。
その他、例えば、古典データセットを埋め込んだ量子データセットにおいて、異常検知を行なうようにしてもよい。
・上記実施形態では、ground costを〔数7〕を用いて計算する。ground costを計算する計算式は、〔数7〕の数式に限定されるものではない。
・上記実施形態では、ジェネレータG(θ,z)として、図5に示す公知の量子回路C1を用いる。ジェネレータG(θ,z)は、公知の量子回路C1に限定されるものではない。
10…ユーザ端末、20…演算装置、211…管理部、212…古典計算部、22…量子計算部、221…操作部、222…状態保持部、223…計測部。

Claims (5)

  1. 量子状態の操作部と、前記量子状態を保持する状態保持部と、前記量子状態を観測する計測部とを含む量子計算部と、古典計算部と、前記量子計算部及び前記古典計算部を制御する管理部と、を備え、量子データセットの分布を学習する学習システムであって、
    前記古典計算部が、潜在空間上の複数のサンプルを、超平面上に写像するジェネレータで用いる量子回路パラメータの値を保持し、
    前記量子計算部が、ユニタリ演算子により構成された前記ジェネレータを用いて、前記潜在空間上の潜在変数の複数のサンプルと前記量子データセットとから、前記量子回路パラメータにおけるground cost及びその勾配を算出し、
    前記古典計算部が、前記ground cost及び前記勾配を用いて、最適輸送損失及びその勾配を算出し、前記最適輸送損失の勾配を用いて、前記最適輸送損失が小さくなるように、前記量子回路パラメータを更新する更新処理を実行し、
    前記管理部が、前記更新処理を前記最適輸送損失が収束するまで繰り返すことを特徴とする学習システム。
  2. 前記管理部が、前記分布に応じて、新たに取得した量子データの異常判定を行なうことを特徴とする請求項1に記載の学習システム。
  3. 前記管理部が、教師データとなる量子データセットにおける分布と、新たに取得した量子データとを比較することにより、前記異常判定を行なうことを特徴とする請求項2に記載の学習システム。
  4. 前記ユニタリ演算子は、前記最適輸送損失の勾配を算出するために、前記量子回路パラメータで微分可能であることを特徴とする請求項1~3の何れか一項に記載の学習システム。
  5. 量子状態の操作部と、前記量子状態を保持する状態保持部と、前記量子状態を観測する計測部とを含む量子計算部と、古典計算部と、前記量子計算部及び前記古典計算部を制御する管理部と、を備えた学習システムを用いて、量子データセットの分布を学習する方法であって、
    前記古典計算部が、潜在空間上の複数のサンプルを、超平面上に写像するジェネレータで用いる量子回路パラメータの値を保持し、
    前記量子計算部が、ユニタリ演算子により構成された前記ジェネレータを用いて、前記潜在空間上の潜在変数の複数のサンプルと前記量子データセットとから、前記量子回路パラメータにおけるground cost及びその勾配を算出し、
    前記古典計算部が、前記ground cost及び前記勾配を用いて、最適輸送損失及びその勾配を算出し、前記最適輸送損失の勾配を用いて、前記最適輸送損失が小さくなるように、前記量子回路パラメータを更新する更新処理を実行し、
    前記管理部が、前記更新処理を前記最適輸送損失が収束するまで繰り返すことを特徴とする学習方法。
JP2022101100A 2022-06-23 2022-06-23 学習システム及び学習方法 Active JP7451606B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022101100A JP7451606B2 (ja) 2022-06-23 2022-06-23 学習システム及び学習方法
US18/338,598 US20230419144A1 (en) 2022-06-23 2023-06-21 Learning system, learning method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022101100A JP7451606B2 (ja) 2022-06-23 2022-06-23 学習システム及び学習方法

Publications (2)

Publication Number Publication Date
JP2024002105A JP2024002105A (ja) 2024-01-11
JP7451606B2 true JP7451606B2 (ja) 2024-03-18

Family

ID=89323118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022101100A Active JP7451606B2 (ja) 2022-06-23 2022-06-23 学習システム及び学習方法

Country Status (2)

Country Link
US (1) US20230419144A1 (ja)
JP (1) JP7451606B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022002080A (ja) 2020-06-22 2022-01-06 三菱電機株式会社 対照学習に基づくデータの分類のための人工知能システム
JP7005806B1 (ja) 2021-05-11 2022-01-24 みずほリサーチ&テクノロジーズ株式会社 価格評価システム及び価格評価方法
US20220121540A1 (en) 2020-10-20 2022-04-21 International Business Machines Corporation Synthetic system fault generation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022002080A (ja) 2020-06-22 2022-01-06 三菱電機株式会社 対照学習に基づくデータの分類のための人工知能システム
US20220121540A1 (en) 2020-10-20 2022-04-21 International Business Machines Corporation Synthetic system fault generation
JP7005806B1 (ja) 2021-05-11 2022-01-24 みずほリサーチ&テクノロジーズ株式会社 価格評価システム及び価格評価方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DALLAIRE-DEMERS, P et al.,"Quantum generative adversarial networks",arXiv.org [online],2018年,pp. 1-10,[retrieved on 2023.08.23], Retrieved from the Internet: <URL: https://arxiv.org/abs/1804.08641v2>,<DOI: 10.48550/arXiv.1804.08641>
御手洗 光祐,"変分量子アルゴリズムと量子機械学習",電子情報通信学会誌,一般社団法人電子情報通信学会,2021年,第104巻, 第11号,pp. 1166-1173,ISSN 0913-5693

Also Published As

Publication number Publication date
US20230419144A1 (en) 2023-12-28
JP2024002105A (ja) 2024-01-11

Similar Documents

Publication Publication Date Title
Cerezo et al. Variational quantum state eigensolver
Motta et al. Determining eigenstates and thermal states on a quantum computer using quantum imaginary time evolution
US11880741B2 (en) Systems and methods for embedding problems into an analog processor
CN108701253A (zh) 使用规范化的目标输出训练神经网络
Cherrat et al. Quantum reinforcement learning via policy iteration
Skolik et al. Robustness of quantum reinforcement learning under hardware errors
JP7499540B2 (ja) 開放量子系のための量子情報処理方法、古典コンピュータ、量子コンピュータ、量子情報処理プログラム、及びデータ構造
Alam et al. Addressing temporal variations in qubit quality metrics for parameterized quantum circuits
WO2021011412A1 (en) Systems and methods for simulating a quantum processor
Kudła et al. One-class synthesis of constraints for Mixed-Integer Linear Programming with C4. 5 decision trees
Liang et al. Quantum algorithms for the generalized eigenvalue problem
Liu et al. An experimental study on symbolic extreme learning machine
Zhu et al. Copula-based risk aggregation with trapped ion quantum computers
Zhong et al. Dynamically evolving deep neural networks with continuous online learning
Guo et al. Reducing evaluation cost for circuit synthesis using active learning
Sahito et al. Semi-supervised learning using Siamese networks
US11853658B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
Wei et al. IncreGNN: Incremental Graph Neural Network Learning by Considering Node and Parameter Importance
Solinas et al. Quantum gradient evaluation through quantum non-demolition measurements
JP7515866B2 (ja) 遷移振幅を計算するための量子情報処理方法、古典コンピュータ、量子コンピュータ、ハイブリッドシステム、及び量子情報処理プログラム
JP7451606B2 (ja) 学習システム及び学習方法
CN113935490A (zh) 多体局域化态的确定方法及系统
CN114139593A (zh) 一种去偏差图神经网络的训练方法、装置和电子设备
Huang et al. Machine learning basics
Sharma et al. Software Cost Estimation for Python Projects Using Genetic Algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R150 Certificate of patent or registration of utility model

Ref document number: 7451606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150