JP2022537618A - データ分類方法、分類器訓練方法及びシステム - Google Patents

データ分類方法、分類器訓練方法及びシステム Download PDF

Info

Publication number
JP2022537618A
JP2022537618A JP2021553843A JP2021553843A JP2022537618A JP 2022537618 A JP2022537618 A JP 2022537618A JP 2021553843 A JP2021553843 A JP 2021553843A JP 2021553843 A JP2021553843 A JP 2021553843A JP 2022537618 A JP2022537618 A JP 2022537618A
Authority
JP
Japan
Prior art keywords
quantum
index information
training
data
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021553843A
Other languages
English (en)
Other versions
JP7293387B2 (ja
Inventor
ウー,ソォンリエン
シェ,チャンユィ
ジャン,ションユィ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022537618A publication Critical patent/JP2022537618A/ja
Application granted granted Critical
Publication of JP7293387B2 publication Critical patent/JP7293387B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本出願の実施例ではデータ分類方法、分類器訓練方法及びシステムが開示されており、それらは人工智能、クラウド技術及び量子技術分野に属する。前記方法は、古典コンピュータが分類待ちデータを取得し、分類待ちデータを量子コンピュータに提供し;量子コンピュータが量子回路によって分類待ちデータに対して特徴マッピングを行い、分類待ちデータの量子状態を取得し、そして、分類器の境界ベクトル、分類待ちデータの量子状態、及び境界ベクトルに対応する索引情報の量子状態に基づいて推定結果を決定し、推定結果を古典コンピュータに送信し、ここで、境界ベクトルに対応する索引情報の量子状態とは、分類器が訓練過程で使用する訓練データの特徴マップの重ね合わせを指し;及び、古典コンピュータが推定結果に基づいて、分類待ちデータに対応する分類結果を決定するステップを含む。本出願の実施例では、取得される境界ベクトルが比較的正しく、分類器の分類精度が比較的高いため、最終的な分類結果はより正確になる。

Description

本出願は、2020年05月25日に中国専利局に出願した、出願番号が202010446946.6、発明の名称が「データ分類方法、分類器訓練方法及びシステム」である中国特許出願に基づく優先権を主張するものであり、その全内容を参照によりここに援用する。
本発明は、人工智能、クラウド技術及び量子技術分野に関し、特に、データ分類方法、分類器訓練方法及びシステムに関する。
SVM(Support Vector Machine,サポートベクターマシン)がデータに対して分類を行うための教師有り学習モデルであり、AI(Artificial Intelligence,人工智能)の技術分野において幅広い適用シナリオを有する。
訓練過程において、大きいデータセットを処理するときの効率を上げるために、技術者は、シフト不変カーネル(shift invariant kernel)に対応する特徴マップを用いてSVMに対して訓練を行うことができる。シフト不変カーネルとは、2つの訓練データを同じ距離移動した後に得られたカーネル関数が不変であることを指す。実際の応用過程では、分類待ちデータを上述のSVMに入力し、該SVMにより分類待ちデータに対応する分類結果を出力する。
しかしながら、上述のSVMではシフト不変カーネルに対応する特徴マップが使用されているため、特徴空間が制限され、SVMの分類精度が低くなり、最終的な分類結果が不正確になる恐れがある。
本出願の実施例は、最終的な分類結果の正確性を向上させることができるデータ分類方法、分類器訓練方法及びシステムを提供することを課題とする。
一側面によれば、本出願の実施例ではデータ分類方法が提供され、前記方法は、
古典コンピュータが分類待ちデータを取得し、前記分類待ちデータを量子コンピュータに提供するステップ;
前記量子コンピュータが、量子回路により前記分類待ちデータに対して特徴マッピングを行って前記分類待ちデータの量子状態を取得し、分類器の境界ベクトル、前記分類待ちデータの量子状態、及び前記境界ベクトルに対応する索引(index)情報の量子状態に基づいて、推定結果を決定し、前記推定結果を前記古典コンピュータに送信するステップであって、前記境界ベクトルに対応する索引情報の量子状態とは、前記分類器が訓練過程で使用する訓練データの特徴マップの重ね合わせを指す、ステップ;及び
前記古典コンピュータが前記推定結果に基づいて、前記分類待ちデータに対応する分類結果を決定するステップを含む。
もう1つの側面によれば、本出願の実施例では分類器訓練方法が提供され、前記方法は、
古典コンピュータが訓練データセットを得るステップであって、前記訓練データセットはm個の訓練データ及び前記訓練データに対応する標準ラベルを含み、前記mは正の整数である、ステップ;
量子コンピュータが作業セットにおける各2つの索引情報の量子状態の内積を決定し、内積集合を生成するステップであって、前記作業セットには少なくとも2つの索引情報が含まれ、前記索引情報は今回の訓練に使用される訓練データを指示するために用いられ、前記索引情報の量子状態とは、前記今回の訓練に使用される訓練データの特徴マップの重ね合わせを指す、ステップ;及び
前記古典コンピュータが前記内積集合に基づいて分類器の最適化問題を生成し、前記分類器の最適化問題に基づいて前記分類器に対して訓練を行い、前記分類器の境界ベクトルを得るステップを含む。
もう1つの側面によれば、本出願の実施例ではデータ分類システムが提供され、前記システムは古典コンピュータ及び量子コンピュータを含み、
前記古典コンピュータは、分類待ちデータを取得し、前記分類待ちデータを前記量子コンピュータに提供するために用いられ、
前記量子コンピュータは、量子回路により前記分類待ちデータに対して特徴マッピングを行って前記分類待ちデータの量子状態を取得し、分類器の境界ベクトル、前記分類待ちデータの量子状態、及び前記境界ベクトルに対応する索引情報の量子状態に基づいて、推定結果を決定し、前記推定結果を前記古典コンピュータに送信し、前記境界ベクトルに対応する索引情報の量子状態とは、前記分類器が訓練過程で使用する訓練データの特徴マップの重ね合わせを指し、
前記古典コンピュータはさらに、前記推定結果に基づいて、前記分類待ちデータに対応する分類結果を決定するために用いられる。
またもう1つの側面によれば、本出願の実施例では分類器訓練システムが提供され、前記システムは古典コンピュータ及び量子コンピュータを含み、
前記古典コンピュータは、訓練データセットを得るために用いられ、前記訓練データセットはm個の訓練データ及び前記訓練データに対応する標準ラベルを含み、前記mは正の整数であり、
前記量子コンピュータは、作業セットにおける各2つの索引情報の量子状態の内積を決定し、内積集合を生成するために用いられ、前記作業セットには少なくとも2つの索引情報が含まれ、前記索引情報は今回の訓練に使用される訓練データを指示するために用いられ、前記索引情報の量子状態とは、前記今回の訓練に使用される訓練データの特徴マップの重ね合わせを指し、
前記古典コンピュータはさらに、前記内積集合に基づいて分類器の最適化問題を生成し、前記分類器の最適化問題に基づいて前記分類器に対して訓練を行い、前記分類器の境界ベクトルを得るために用いられる。
本出願の実施例により提供される技術案は、以下のような有利な効果を奏することができる。
量子コンピュータにより、分類器の境界ベクトル、分類待ちデータの量子状態、及び境界ベクトルに対応する索引情報の量子状態に基づいて、推定結果を決定することで、古典コンピュータは、該推定結果に基づいて分類待ちデータに対応する分類結果を決定することができる。境界ベクトルに対応する索引情報の量子状態とは、分類器が訓練過程で使用する訓練データの特徴マップの重ね合わせを指し、本出願における分類器は、シフト不変カーネルに対応する特徴マップの使用に限られず、また、特徴空間を制限することもない。よって、本出願における分類器は、より優れた特徴空間を見つけて分類待ちデータに対して分類を行うことができ、即ち、本出願では、取得される境界ベクトルがより正しく、分類器の分類精度がより高いため、最終的な分類結果はより正確になる。
本出願の実施例における技術案をより明確に説明するために、以下、実施例を説明するに用いる必要のある図面について簡単に紹介する。明らかのように、以下の説明における図面は本出願の幾つかの実施例のみであり、当業者は、創造的労働をせずに、これらの図面に基づいて他の図面を得ることもできる。
本出願の一実施例により提供される実施環境を示す図である。 本出願の一実施例により提供されるデータ分類方法のフローチャートである。 本出願の一実施例により提供される分類器を示す図である。 本出願のもう1つの実施例により提供されるデータ分類方法のフローチャートである。 本出願のもう1つの実施例により提供されるデータ分類方法を示す図である。 本出願の一実施例により提供される分類器訓練方法のフローチャートである。 本出願のもう1つの実施例により提供される分類器訓練方法のフローチャートである。 本出願のもう1つの実施例により提供される分類器訓練方法を示す図である。 本出願の一実施例により提供されるデータ分類システムを示す図である。 本出願の一実施例により提供される分類器訓練システムを示す図である。
本出願の目的、技術案及び利点をより明らかにするために、以下、図面と併せて本出願の実施形態についてさらに詳細に説明する。
本出願の実施例を説明する前に、まず、本出願に係る幾つかの名詞(用語)を紹介する。
1、量子コンピュータ:量子システムの状態を操ることで計算を行う機器である。量子コンピュータがフォールトトレラントであり、即ち、それは、任意長さの計算を行い、ユーザ指定の精度に達することができるとする。量子コンピュータは、量子力学規律に従って高速な数学と論理演算を行い、量子情報を記憶及び処理する1種の物理装置である。或る装置により処理及び計算されるのが量子情報であり、実行されるのが量子アルゴリズムであるときに、この装置は量子コンピュータである。
2、古典コンピュータ:1台の普通の非量子コンピュータである。
3、SVM:データを分類するための1種の教師有り学習モデルであり、幅広い適用シナリオ、例えば、画像、パターンと手書き認識、感情分析、顔と物体検出、音声認証、生物情報科学などに関するシナリオを有する。
4、量子回路:量子コンピュータが実行する一連の操作により、入力される1つの量子状態をもう1つの量子状態に変換して出力する。量子回路は量子ビットに作用する回路であり、量子ビットは量子チップとして実現することができる。
5、内積:数学では、内積は2つのベクトルからスカラーへのマッピングであり、それは、1つのベクトルがもう1つのベクトルとどのぐらいオーバーラップしているかを度量するものである。ベクトルx及びベクトルyの内積は、<x,y>と表すことができる。
6、特徴マップ:1つのベクトル空間をもう1つのベクトル空間(一般に、より高い次元の空間)にマッピングする1種の数学演算である。特徴マップは、通常、機械学習に用いられる。
7、QRAM(Quantum Random Access Memory,量子ランダムアクセス記憶器):データベクトルを記憶するために用いられ得る1種の機器であり、これにより、量子コンピュータは効率良く量子状態の確率振幅(probability amplitude)を読み取り及び符号化することができる。例えば、データベクトルz∈RnをQRAMに記憶する場合、log(n)量子ビットの量子状態
Figure 2022537618000002

に正比例する1つの量子状態を効率的に準備(prepare)することができる。QRAMの主な目的は、或る方式で適切なデータを記憶することにより、量子コンピュータが内積推定に必要な量子状態を効率的に生成し得るようにさせることにある。
8、分類器:特徴空間を2つの部分の表面に分ける。
9、量子状態:量子システムのすべての情報が1つの量子状態ρにより表現される。ρは1つのd×dの複素行列であり、そのうち、dは量子システムの次元数である。
図1を参照する。それは、本出願の一実施例により提供される実施環境を示す図である。該実施環境は量子コンピュータ11、古典コンピュータ12、及びQRAM
13を含む。
古典コンピュータ12は分類待ちデータを取得し、該分類待ちデータをQRAM 13に送信するために用いられる。QRAM 13には、分類器の境界ベクトル、m(mは正の整数である)個の訓練データ、及び該境界ベクトルに対応する索引情報に対応するターゲットパラメータが記憶されている。量子コンピュータ11は、QRAM 13から、分類待ちデータ、分類器の境界ベクトル、境界ベクトルに対応する索引情報に対応する訓練データ、及び該境界ベクトルに対応する索引情報に対応するターゲットパラメータを取得し、この四者に基づいて推定結果を取得し、そして、該推定結果を古典コンピュータ12に送信する。古典コンピュータ12は、該推定結果に基づいて、分類待ちデータに対応する分類結果を得るために用いられる。
1つの例において、QRAM 13は量子コンピュータ11の内部に設置され、量子コンピュータ11の構成部分に属し、もう1つの例において、QRAM 13は量子コンピュータ11の外部に配置され、量子コンピュータ11の構成部分に属しない。
量子コンピュータ11は、クラウドコンピューティングの下で1種の選択可能な特殊ハードウェアとされても良く、本出願の実施例により提供される量子分類アルゴリズムは、その上で実行され得る人工智能サービスであっても良く、本出願の実施例により提供されるスキームは、人工智能の機械学習技術のクラウド技術分野における適用に関する。
クラウド技術(cloud technology)は、クラウド計算ビジネスモデルアプロケーションに基づくネットワーク技術、情報技術、統合技術、管理プラットフォーム技術、応用技術などの総称であり、リソースプールを構成し、ニーズに応じて用いることができ、かつ柔軟性があり便利である。クラウド計算技術は重要なサポートになるだろう。テクニカルネットワークシステムのバックグラウンドサービスには大量の計算やリソースの記憶が必要であり、例えば、ビデオサイト、画像類サイト、及びより多くのポータルサイトのようである。インターネット業界の急速な発展及び応用に伴い、将来的には、各アイテムがすべて自分の識別標識(ID)を有し、バックグラウンドシステムに伝送して論理処理を行ってもらう可能性があり、また、異なるレベルのデータが個別に処理され、様々な業界データがすべて強力なシステムバッキングサポートを要し、クラウド計算により実現され得るようになる必要がある。
クラウド計算(cloud computing)とは、IT(Internet Technology,インターネット技術)インフラストラクチャのデリバリー及び使用モデルを指し、ネットワークを介してオンデマンドでスケーラブルな方式で必要なリソースを得ることを指す。広い意味で、クラウド計算とは、サービスのデリバリー及び使用モデルを指し、ネットワークに介してオンデマンドでスケーラブルな方式で必要なサービスを取得することを指す。このようなサービスは、IT及びソフトウェア、インターネットに関連するものであっても良く、他のサービスであっても良い。クラウド計算は、グリッド計算(Grid Computing )、分散計算(Distributed Computing)、并列計算(Parallel Computing)、ユーティリティ計算(Utility
Computing)、ネットワーク記憶(Network Storage Technologies)、仮想化(Virtualization)、負荷分散(Load Balance)などの従来のコンピュータとネットワーク技術の発展との統合によるものである。
インターネット、リアルタイムデータ流、接続機器の多様化の発達、及び検索サービス、ソーシャルネットワーク、モバイルコマース、オープンコラボレーションなどのニーズの推進により、クラウドコンピューティングは急速に発展している。以前の並列分散コンピューティングとは異なり、クラウドコンピューティングの出現は、理念の観点から、インターネットモデル全体やエンタープライズ管理モデルの革命的な変化を起こすことができる。クラウド計算は、クラウドサーバーで実行することができ、クラウドサーバーはクラウドサービス、クラウドコンピューティング、人工智能プラットフォームなどの基本的なクラウドコンピューティングサービスを提供することができる。
いわゆる人工智能クラウドサービスは、一般に、AIaaS(AI as a Service(中国語は“AI即服務”である))とも称される。これは、現在の主流の人工智能プラットフォームのサービス方式であり、具体的に言えば、AIaaSプラットフォームは、幾つかのタイプの一般的なAIサービスを分割し、そして、クラウド側で、独立した又はパッケージ化されたサービスを提供することができる。このようなサービスモデルは、AIテーマモールを開くのと似ている。即ち、すべての開発者は、APIインターフェースを介してアクセスし、プラットフォームにより提供される1つ又は複数の人工智能サービスを利用することができ、また、一部の上級開発者はさらに、プラットフォームにより提供されるAIフレームワーク及びAIインフラストラクチャを使用することで、独自のクラウド人工知能サービスをデプロイ及び運用することもできる。
以下、幾つかの実施例により本出願を詳しく説明する。
図2を参照する。それは、本出願の一実施例により提供されるデータ分類方法のフローチャートを示している。該方法は以下のように幾つかのステップを含んでも良い。
ステップ201:古典コンピュータが分類待ちデータを取得する。
分類待ちデータは任意の1つのデータであっても良い。本出願の実施例では、分類待ちデータとは、分類する必要のあるデータを指し、分類待ちデータは、ラベルが付かないデータである。例示的に、分類待ちデータは、文字、医療診断画像、テキスト情報、分子情報、材料情報などを含んでも良い。文字とは、字母(アルファベット)又は数字を指し、医療診断画像とは、患者が病気を持っているかどうかを診断するために撮影された画像を指し、テキスト情報とは、テキスト形式の情報を指し、分子情報とは、分子を記述するための情報を指し、材料情報とは、材料を記述するために用いられる情報を指す。
可能な実現方式において、古典コンピュータはローカルから分類待ちデータを取得する。
可能な実現方式において、電子機器が古典コンピュータに分類待ちデータを送信し、古典コンピュータは電子機器からの分類待ちデータを受信する。例示的に、電子機器は、携帯電話、タブレットコンピュータ、スマートウェアラブルデバイス、電子顕微鏡などを含んでも良い。
ステップ202:古典コンピュータが分類待ちデータを量子コンピュータに提供する。
可能な実現方式において、古典コンピュータが分類待ちデータをQRAMに送信し、量子コンピュータは該QRAMのうちから上述の分類待ちデータを取得する。
可能な実現方式において、古典コンピュータ及び量子コンピュータはネットワークを介して通信を行うことができ、このようなネットワークは有線ネットワークであっても良く、無線ネットワークであっても良いが、本出願の実施例はこれについて限定しない。古典コンピュータは、ネットワークを経由して分類待ちデータを量子コンピュータに提供する。
ステップ203:量子コンピュータが量子回路により、分類待ちデータに対して特徴マッピングを行って分類待ちデータの量子状態を取得する。
量子回路はユーザによって定義されても良く、量子回路は分類待ちデータを対応する量子状態にマッピングするために用いられる。
例示的な実施例において、上述のステップ203は以下のようなステップにより代替的に実現することができ、即ち、量子コンピュータは量子回路により、分類待ちデータの特徴マップにおける各特徴値と、特徴値に対応する量子状態との積の和に基づいて、分類待ちデータの量子状態を決定する。
可能な実現方式において、分類待ちデータの量子状態は以下のような公式で計算され得る。
Figure 2022537618000003

そのうち、φ(x)は、分類待ちデータの特徴マップを示し、φ(x)jは、分類待ちデータの特徴マップにおけるj番目の特徴値を示し、
Figure 2022537618000004


は、j番目の特徴値に対応する量子状態(jの量子状態とも言う)を表し、
Figure 2022537618000005


は、分類待ちデータの量子状態を示し、
Figure 2022537618000006


は、分類待ちデータの特徴マップにおける各特徴値と、特徴値に対応する量子状態との積の和を表し、
Figure 2022537618000007


は、
Figure 2022537618000008


のモジュラスを示す。φ(x)∈Rnは、実質的なデータベクトルである。分類待ちデータの特徴マップにはn個の特徴値が含まれ、jはn以下の正の整数である。
ステップ204:量子コンピュータが分類器の境界ベクトル、分類待ちデータの量子状態、及び境界ベクトルに対応する索引情報の量子状態に基づいて、推定結果を決定する。
分類器は分類モデルと称されても良く、データを分類するためのツールである。オプションとして、本出願の実施例における分類器は2分類タスク用の分類器、例えば、SVMである。オプションとして、本出願の実施例における分類器はさらに、マルチ分類タスク用の分類器であっても良く、このときには、マルチ分類タスク用の分類器は分類待ちデータに対して複数回の2分類を行うことで、最終的な分類結果を得ることができる。
分類器の境界ベクトルは第一類別(クラス)と第二類別(第一類別と第二類別は2つの異なる類別である)を区別するために用いられる。図3に示すように、分類器の訓練過程では、第一類別のデータ及び第二類別のデータ(例えば、図3では黒円31が第一類別のデータを表し、白円32が第二類別のデータを表す)を取得し、上述の第一類別のデータ及び第二類別のデータをより高い次元の特徴空間にマッピングし、そして、1つの境界ベクトル(例えば、図3では水平バー33が境界ベクトルを表す)を計算することにより、第一類別のデータ及び第二類別のデータがそれぞれ境界ベクトルの両側に位置するようにさせる。分類過程では、分類待ちデータが特徴空間にマッピングされ、そして、それが境界ベクトルのどちら側に位置するかに基づいて分類結果を決定する。異なる分類器の境界ベクトルが異なる可能性があり、その分類精度も異なる可能性がある。可能な実現方式において、古典コンピュータが分類器に対しての訓練を完了した後に、取得した境界ベクトルをQRAMに送信し、量子コンピュータはQRAMから該境界ベクトルを取得する。
本出願の実施例において、境界ベクトルに対応する索引情報の量子状態とは、分類器が訓練過程で使用する訓練データの特徴マップの重ね合わせを指す。索引情報は、訓練過程で使用される訓練データを指示するために用いられ、境界ベクトルに対応する索引情報は、分類器が訓練過程で最終的に境界ベクトルを得るときに使用する訓練データを指示するために用いられる。オプションとして、分類器の境界ベクトルは、古典コンピュータが最後の1回の訓練時に取得するベクトルであり、この場合は、境界ベクトルに対応する索引情報の量子状態とは、量子コンピュータが最後の1回の訓練時に使用する訓練データの特徴マップの重ね合わせを指す。QRAMには、訓練データ及び該境界ベクトルに対応する索引情報に対応するターゲットパラメータ(境界ベクトルに対応する索引情報に対応するターゲットパラメータは、境界ベクトルに対応する索引情報、訓練データの数m、及び所定の定数に基づいて生成されるものであり、ターゲットパラメータの決定に関する説明は以下の実施例を参照することができ、ここでは先に説明しない)が記憶されており、量子コンピュータは、その後、QRAMのうちから上述のデータを取得し、そして、上述のデータに基づいて境界ベクトルに対応する索引情報の量子状態を迅速に取得することができる。
推定結果は、分類待ちデータの分類結果を決定するために用いられ得る。量子コンピュータは先に、境界ベクトルに対応する索引情報の量子状態と境界ベクトルとの間の積を決定し、それから、該積と分類待ちデータの量子状態との間の内積を決定し、推定結果を取得する。
ステップ205:量子コンピュータが推定結果を古典コンピュータに送信する。
可能な実現方式において、量子コンピュータはネットワークを介して推定結果を古典コンピュータに送信し、このようなネットワークは有線ネットワークであっても良く、無線ネットワークであっても良いが、本出願の実施例はこれについて限定しない。
ステップ206:古典コンピュータが推定結果に基づいて、分類待ちデータに対応する分類結果を決定する。
1つの例において、推定結果が正の値であることに応じて、古典コンピュータは、分類待ちデータが第一類別に属すると決定し、推定結果が負の値であることに応じて、古典コンピュータは、分類待ちデータが第二類別に属すると決定し、第一類別及び第二類別は2つの異なるクラスである。
オプションとして、分類結果はラベルに対応し、第一類別は第一ラベルに対し、第二類別は第二ラベルに対応する。古典コンピュータは、分類待ちデータに対応する分類結果を決定した後に、分類待ちデータにその対応するラベルを付けることができる。例えば、古典コンピュータは、分類待ちデータが第一類別に属すると決定した場合、分類待ちデータに第一ラベルを付ける。また、例えば、古典コンピュータは、分類待ちデータが第二類別に属すると決定した場合、分類待ちデータに第二ラベルを付ける。オプションとして、第一ラベルは+1と表され、第二ラベルは-1と表される。もちろん、他の可能な実現方式において、第一ラベル及び第二ラベルはさらに他の形式で表すこともできるが、本出願の実施例これについて限定しない。
要約すると、本出願の実施例により提供される技術案では、量子コンピュータにより分類器の境界ベクトル、分類待ちデータの量子状態、及び境界ベクトルに対応する索引情報の量子状態に基づいて、推定結果を決定することで、古典コンピュータは該推定結果に基づいて分類待ちデータに対応する分類結果を決定することができる。境界ベクトルに対応する索引情報の量子状態とは、分類器が訓練過程で使用する訓練データの特徴マップの重ね合わせを指し、本出願における分類器は、シフト不変カーネルに対応する特徴マップの使用に限られず、また、特徴空間を制限することもない。よって、本出願における分類器は、より優れた特徴空間を見つけて分類待ちデータに対して分類を行うことができ、即ち、本出願では、取得される境界ベクトルがより正しく、分類器の分類精度がより高いため、最終的な分類結果はより正確になる。
また、本出願の実施例では、量子コンピュータにより推定結果を決定し、量子コンピュータの処理速度が速いので、分類の効率を保証することができる。
例示的な実施例において、図4に示すように、上述のステップ204は以下のようなステップにより代替的に実現することができる。
ステップ204a:量子コンピュータが、境界ベクトルにおける各第一ベクトル要素と、第一ベクトル要素に対応する索引情報の量子状態との積の和を第一量子状態と決定する。
第一ベクトル要素は境界ベクトルにおける任意の1つの要素であり、それは境界ベクトルにおける任意の1つのベクトル値と称されても良い。
ステップ204b:量子コンピュータが、第一量子状態と分類待ちデータの量子状態との間の内積を決定し、推定結果を得る。
可能な実現方式において、境界ベクトルは、古典コンピュータが最後の1回の訓練時に取得するベクトルであり、第一ベクトル要素は最後の1回の訓練に使用される作業セットに含まれる索引情報と関連付けられ、最後の1回の訓練に使用される作業セットには該第一ベクトル要素に対応する索引情報が含まれる。索引情報はcで表されても良く、索引情報はm次元のバイナリベクトル(mとは訓練データの数を指す)である。
可能な実現方式において、推定結果は以下のような公式により計算され得る。
Figure 2022537618000009


そのうち、αcとは、境界ベクトルにおけるc番目のベクトル要素(c番目のベクトル要素とは、cの10進数の値に対応する位置にあるベクトル要素、即ち、第一ベクトル要素を指す)を指し、Ψcとは、第一ベクトル要素に対応する索引情報の量子状態を指し、φ(x)とは、分類待ちデータの量子状態を指す。第一量子状態は
Figure 2022537618000010


と表される。分かりやすくするために、以下、境界ベクトルにおけるベクトル要素の下付き文字が10進数と表されるが、理解すべきは、該10進数は索引情報に対応するということである。
オプションとして、
Figure 2022537618000011


は、以下のような公式、即ち、
Figure 2022537618000012

により定義され得る。ここで、βc(i)は、1つのm次元のベクトルであり、確率振幅とも称され得る。本出願の実施例では、量子回路により特徴マッピングを実現し、言い換えると、各入力ベクトルについて、量子コンピュータを用いて量子回路によりベクトルを1つ又は複数の量子ビットからなる量子状態(又は、より高い次元の量子状態であり、具体的には、量子コンピュータの物理実装に依存する)の確率振幅に符号化する。如何に索引情報の量子状態を取得するかについての詳細な説明は、以下の実施例を参照することができる。
なお、上述の公式におけるΨc及びφ(x)は、内積の公式を直感的かつ簡潔にするためのものに過ぎず、その本質的な意味は量子状態を指し、実際には、
Figure 2022537618000013


及び
Figure 2022537618000014


と表すべきである。よって、本出願の実施例では、特別な事情がない限り、内積の公式におけるパラメータは一般に量子状態である。
例示的に、訓練データセットには2つの訓練データが含まれ、即ち、mは2であり、最後の1回の訓練に使用される作業セットには次のような索引情報、即ち、01、10、及び11が含まれ、境界ベクトルにおける1番目のベクトル要素はα1(α01)と表され、α1に対応する索引情報は01であり、01の量子状態は
Figure 2022537618000015


と表され、境界ベクトルにおける2番目のベクトル要素はα2(α10)と表され、α2に対応する索引情報は10であり、10の量子状態は
Figure 2022537618000016


と表され、境界ベクトルの中の3番目のベクトル要素はα3(α11)と表され、α3に対応する索引情報は11であり、11の量子状態は
Figure 2022537618000017


と表されると仮定する。この場合は、推定結果は
Figure 2022537618000018


である。
可能な実現方式において、量子コンピュータにはQRAMが含まれ、QRAMには、分類器の境界ベクトル、m個の訓練データ、及び該境界ベクトルに対応する索引情報に対応するターゲットパラメータが記憶されている。図5を参照する。それは、本出願のもう1つの実施例により提供されるデータ分類方法を示す図である。古典コンピュータは分類待ちデータを取得し、分類待ちデータをQRAMに送信する。量子コンピュータは量子回路によって該分類待ちデータに対して特徴マッピングを行い、分類待ちデータの量子状態を得る。量子コンピュータは、QRAMに記憶されている、該境界ベクトルに対応する索引情報に対応する訓練データ及びターゲットパラメータに基づいて、該境界ベクトルに対応する索引情報の量子状態を決定し;QRAMに記憶されている分類器の境界ベクトル、分類待ちデータの量子状態、及び境界ベクトルに対応する索引情報の量子状態に基づいて、推定結果を決定し;そして、該推定結果を古典コンピュータに送信する。古典コンピュータは該推定結果に基づいて、分類待ちデータに対応する分類結果を決定する。
本出願は任意の分類のシナリオに適用することができる。例えば、本出願は、文字認識のシナリオ、医用画像のシナリオ、感情分析のシナリオ、分子及び材料特性テストのシナリオなどに適用することができるが、本出願の実施例は具体的な適用シナリオについて限定しない。
1つの例において、分類待ちデータは文字を含み、分類結果は文字に対応する文字認識結果を含む。
文字とは字母又は数字を指す。例示的に、文字とは手書き字母又は手書き数字を指す。文字認識結果は、文字が所定の標準に一致したかを指示するために用いられ、例えば、文字認識結果は、字母が母音であるかを指示するために用いられる。また、例えば、文字認識結果は、数字が5よりも大きいかを指示するために用いられる。本出願の実施例は、手書きサンプルに対して分類を行い、文字認識結果を与えるために用いられ得る。
もう1つの例において、分類待ちデータは医療診断画像を含み、分類結果は医療診断画像に対応する画像認識結果を含む。
医療診断画像とは、患者が病気を持っているかどうかを診断するために撮影された画像を指し、例えば、医療診断画像はX線画像又はMRI(Magnetic
Resonance Imaging,核磁気共鳴画像法)画像であっても良く、画像認識結果は、患者が病気を持っているかどうかを指示するために用いられる。本出願の実施例は、医療診断の正確性を向上させ、適切な治療スキームを与えるために用いることができる。
もう1つの例において、分類待ちデータはソーシャルアプリケーションにおけるテキスト情報を含み、分類結果はテキスト情報に対応する感情認識結果を含む。
ソーシャルアプリケーションにおけるテキスト情報は、ツイート、ソーシャルメディアの投稿などを含み、感情認識結果は、該テキスト情報がポジティブな感情を表しているのか、それとも、ネガティブな感情を表しているのかを指示するために用いられる。
もう1つの例において、分類待ちデータは分子情報を含み、分類結果は分子情報に対応する特性認識結果を含む。
分子情報は該分子を記述するために用いられ、特性認識結果は、該分子が所定の特性を有するかを指示するために用いられ、これは、バイオインフォマティクス、生化学、及びドラッグデザインにおいて重要な応用を有する。
もう1つの例において、分類待ちデータは材料情報を含み、分類結果は材料情報に対応する特性認識結果を含む。
材料情報は該材料を記述するために用いられ、特性認識結果は、該材料が所定の特性を持つかを指示するために用いられる。例えば、上述の材料は磁性材料であっても良く、このときには、特性認識結果は、該材料が磁性を有するか、又は、磁性が閾値のレベルよりも高いかを指示するために用いられる。磁性材料の特性予測に関し、まず、材料情報を、量子スピンで構成される格子としてモデル化し、そして、それに対応する特性認識結果を決定する。本出願は、材料の磁性特性を予測するために用いられ得る。これは、先端材料の設計にとって重要な応用がある。以下、本出願が関連技術よりも優れている1つの具体的な分類問題の例を示す。1つの物理システムがN個の量子スピンで構成される一般化イジングチェーン(Generalized Ising chain)に基づいていることを考慮して、以下のハミルトニアンHNにより記述することができる。
Figure 2022537618000019

ここで、Zj及びXjはそれぞれチェーンにおけるj番目の量子スピンに作用するパウリ演算子であり、Jj、Δj及びΓjは、実数パラメータである。この分類問題における各分類待ちデータは、1つの一般化イジングチェーンを定義するに必要なパラメータであり、即ち、(Jj,Δj,Γj)である。また、平均磁性平方M=(1/N)(ΣjZj)2が或る臨界値μ0よりも大きいかそれとも小さいかに基づいて、その分類結果又はそのラベルを決定する。分類のタスクは、1つの分類待ちデータ(Jj,Δj,Γj)を与えることにあり、その後、該イジングチェーンが磁性を持つかどうかを予測する。
この種の問題は、基本的な物理学の観点から非常に重要な意義があるだけでなく、幾つかの必要な特性を持つ材料の設計及び分析にとっても潜在的な意義を有する。
図6を参照する。それは、本出願の一実施例により提供される分類器訓練方法のフローチャートである。該方法は以下のような幾つかのステップを含んでも良い。
ステップ601:古典コンピュータが訓練データセットを取得する。
本出願の実施例において、訓練データセットはm個の訓練データ及び訓練データに対応する標準ラベルを含み、mは正の整数である。オプションとして、標準ラベルは標準分類結果を指示するために用いられ、例示的に、標準ラベルは+1又は-1で表され、標準ラベルが+1であるときに、訓練データが第一類別に属すると意味し、標準ラベルが-1であるときに、訓練データが第二類別に属すると意味する。可能な実現方式において、標準ラベルは手動で付けられる。
ステップ602:量子コンピュータが作業セットにおける各2つの索引情報の量子状態の内積を決定し、内積集合を生成する。
本出願の実施例において、作業セットには少なくとも2つの索引情報が含まれ、索引情報は今回の訓練に使用される訓練データを指示するために用いられ、索引情報の量子状態とは今回の訓練に使用される訓練データの特徴マップの重ね合わせを指す。オプションとして、索引情報は、長さがmであるバイナリベクトルである。索引情報はcと表すことができ、索引情報の量子状態は、
Figure 2022537618000020

と表すことができ、2つの索引情報の量子状態の内積は、
Figure 2022537618000021


と表すことができる。そのうち、c及びc′は、2つの異なる索引情報であっても良く、2つの同じ索引情報であっても良く、作業セットはWと表すことができる。。
本出願の実施例において、量子コンピュータの主な作用は、形式が
Figure 2022537618000022


である内積を推定することである。
可能な実現方式において、mは訓練データの数と一致しており、長さがmであるバイナリベクトルにおける第i次元の要素は、今回の訓練にi番目の訓練データが使用されるかを指示するために用いられ、iはm以下の正の整数である。可能な実現方式において、古典コンピュータは、訓練データセットにおける各訓練データに対して並べ替え及び番号付けを行い、例えば、訓練データセットには3つの訓練データが含まれるとする場合、古典コンピュータはこの3つの訓練データに対して次のように並べ替え及び番号付けを行い、即ち、訓練データ1、訓練データ2、及び訓練データ3である。
訓練データセットには3つの訓練データ、即ち、訓練データ1、訓練データ2、及び訓練データ3が含まれ、作業セットには次のような索引情報、即ち、001、011及び110が含まれるとする場合、001は、今回の訓練に使用される訓練データ3を指示するために用いられ、001の量子状態
Figure 2022537618000023


は、訓練データ3の特徴マップを指し、011は、今回の訓練に使用される訓練データ2及び訓練データ3を指示するために用いられ、011の量子状態
Figure 2022537618000024


は、訓練データ2及び訓練データ3の特徴マップの重ね合わせを指し、110は、今回の訓練に使用される訓練データ1及び訓練データ2を指し、110の量子状態
Figure 2022537618000025


は、訓練データ1及び訓練データ2の特徴マップの重ね合わせを指す。
例示的に、量子コンピュータは作業セットにおける各2つの索引情報の量子状態の内積を計算し、内積集合を生成する。依然として上述の例を例にとり、量子コンピュータは、<ψ001,ψ011>、<ψ001,ψ110>、<ψ011,ψ110>を計算して3つの内積を取得し、内積集合を生成する。
量子コンピュータは内積集合を生成した後に、該内積集合を古典コンピュータに送信する。可能な実現方式において、量子コンピュータは1つの内積を生成する度に、古典コンピュータに送信する。
ステップ603:古典コンピュータが内積集合に基づいて分類器の最適化問題を生成する。
例示的な実施例において、古典コンピュータは次のような方式で分類器の最適化問題を生成し、即ち、古典コンピュータは内積集合に基づいて行列を生成し、行列を半正定値錐にマッピングして半正定値行列を取得し、そして、半正定値行列及び訓練データの数mに基づいて、分類器の最適化問題を生成する。
オプションとして、2つの索引情報の量子状態の内積に基づいて行列における行列要素を決定し取得する。依然として上述の例を例にとって説明を行う。古典コンピュータは、<ψ001,ψ011>に基づいて、行列における第1行第3列の行列要素を決定する。例示的に、古典コンピュータは、内積集合における各内積に対して推定値を求める処理を行い、各内積に対応する推定値を取得し、そして、上述の各内積に対応する推定値を行列の行列要素と決定する。即ち、行列要素は、Jcc′=Est(<ψc,ψc′>)であり、そのうち、Jcc′は第c行第c′列の行列要素(第c行とは、cの10進数の値に対応する行を指し、第c′列とは、c′の10進数の値に対応する列を指す)を示し、Est()は推定値を表し、即ち、<ψc,ψc′>に対して複数回の演算を行った後に平均値を取る。オプションとして、古典コンピュータは、行列を最も近い(同じ次元数の)半正定値錐に投影して半正定値行列を取得する。
オプションとして、分類器の最適化問題は以下のような公式で表され得る。
Figure 2022537618000026

そのうち、argmax()は、最大スコアを有するパラメータを見つけることを示し、上述の公式とは、αcの和がC以下である範囲内で1つの境界ベクトルを見つけて、
Figure 2022537618000027

の値を最大にすることを指し、αとは、境界ベクトルを指し、αcとは、境界ベクトルにおけるc番目のベクトル要素を指し、αc′とは、境界ベクトルにおけるc′番目のベクトル要素を指し、
Figure 2022537618000028


は、半正定値行列における第c行第c′列の行列要素を指し、cは索引情報であり、Cはペナルティファクターであり、
Figure 2022537618000029


は、以下のような公式に基づいて計算することにより得られたcのモジュラスである。
Figure 2022537618000030


ステップ604:古典コンピュータが分類器の最適化問題に基づいて分類器を訓練し、分類器の境界ベクトルを取得する。
古典コンピュータは、分類器の最適化問題を解くことで最適な答えを取得し、即ち、分類器の境界ベクトルを取得する。
本出願では、量子コンピュータは、シフト不変カーネルに対応する特徴マップを使用しなくても、大きいデータセットに対して効率的なデータ分類を行うことができ、また、必要な訓練時間は、データ量に正比例する(1つの対数多項式の因子だけが異なる)。シフト不変カーネルに対応する特徴マップに限定されない特徴マップを用いてデータをより正確に分類することことができるので、本出願の実施例は、より広範囲のデータ類型に対しての効率的かつ正確な分類を可能にする。
本出願では、索引情報とデータの量子状態とを組み合わせることでデータの分類を行う。データの量子状態がデータに対応し、データの量子状態が各種の異なる特徴マップの現れであるので、本出願の実施例は、シフト不変カーネルに対応する特徴マップに限られず、特徴空間を制限することがないため、より優れた特徴空間を簡単に見つけることができ、これにより、最終的に取得される分類器の結果をより良くし、分類結果をより正確にすることができる。また、索引情報により分類を行うことで計算量を簡素化し、訓練の効率を向上させることができる。
要約すると、本出願の実施例により提供される技術案では、古典コンピュータにより訓練データセットを取得し、量子コンピュータが作業セットにおける各2つの索引情報の量子状態の内積を計算し、内積集合を生成し、古典コンピュータが内積集合に基づいて分類器の最適化問題を生成し、該最適化問題に基づいて分類器に対して訓練を行い、分類器の境界ベクトルを取得することができ、索引情報の量子状態とは、分類器訓練過程で使用される訓練データの特徴マップの重ね合わせを指す。本出願における分類器は、シフト不変カーネルに対応する特徴マップの使用に限られず、また、特徴空間を制限することもない。よって、本出願における分類器は、より優れた特徴空間を見つけて分類待ちデータに対して分類を行うことができ、即ち、本出願では、取得される境界ベクトルがより正しく、分類器の分類精度がより高いため、最終的な分類結果はより正確になる。
また、本出願の実施例では、量子コンピュータにより内積を計算し、量子コンピュータの処理速度が速いので、分類の効率を向上させることができる。本出願に必要な分類器の訓練時間は、訓練データの数mに正比例する(1つの対数多項式の因子だけが異なる)。分類器がSVMであることを例にとれば、本出願の実施例におけるSVMの訓練時間と、関連技術におけるSVMの訓練時間との対比は以下の表1を参照することができる。
Figure 2022537618000031
そのうち、関連技術における古典SVM訓練方法とは、古典コンピュータのみを用いて標準(簡素化されない)SVMにおいてシフト不変カーネルに対応する必要のない特徴マップを使用して分類を行う方法を指し、関連技術における量子SVM訓練方法とは、古典コンピュータ及び量子コンピュータを用いて標準(簡素化されない)SVMにおいてシフト不変カーネルに対応する必要のない特徴マップを使用して分類を行う方法を指す。mは、訓練過程で使用される訓練データの数である。
Figure 2022537618000032

とは、訓練時間(実行時間)がmに正比例する(最大で1つの対数多項式の因子が異なる)ことを指し、
Figure 2022537618000033

とは、訓練時間がmの3乗に正比例することを指し、時間複雑度がmの3乗に正比例することも指す。表1から分かるように、訓練データの数(データ量と略称する)が比較的大きいときに、本出願の実施例に必要な訓練時間も比較的小さい。
分類器がSVMであり、分類問題が上述の実施例で紹介された一般化イジングチェーン(N=6であり、
Figure 2022537618000034

及び
Figure 2022537618000035

であり、J、kJ、Δ、及kΔはすべて実数である)であることを例にとって説明を行う。古典数値シミュレーションによれば、本出願は、表2に示すように、大きな範囲のデータ量で関連技術におけるSVM訓練方法を上回ることができ、図2は、異なるデータ量で本出願と関連技術との分類精度の相違を示している。これで分かるように、本出願の分類精度は関連技術における分類精度よりも大幅に優れている。
Figure 2022537618000036
例示的な実施例において、図7に示すように、上述のステップ602は以下のような幾つかのステップにより代替的に実現され得る。
ステップ602a:古典コンピュータが作業セットから第一索引情報及び第二索引情報を選択する。
第一索引情報は作業セット内の任意の1つの索引情報であり、第二索引情報は作業セットにおける任意の1つの索引情報であり、第一索引情報は第二索引情報とは異なる。依然として上述の例を例にとり、作業セットには次のような索引情報、即ち、001、011及び110が含まれるとする場合、第一索引情報は011であっても良く、第二索引情報は110であっても良い。
ステップ602b:古典コンピュータがm個の訓練データをQRAMに送信する。
古典コンピュータは訓練データセットを取得し、訓練データセットにはm個の訓練データが含まれ、古典コンピュータはm個の訓練データを量子コンピュータに送信する。
可能な実現方式において、量子コンピュータは上述のQRAMを含み、この場合は、古典コンピュータは上述のm個の訓練データを量子コンピュータにおけるQRAMに送信する。
なお、古典コンピュータは先にステップ602bを実行し、それから、ステップ602aを実行しても良く、又は、先にステップ602aを実行し、それから、ステップ602bを実行しても良く、さらに、ステップ602a及びステップ602bを同時に実行しても良いが、本出願の実施例は、ステップ602a及びステップ602bの実行順序について限定しない。
ステップ602c:量子コンピュータが第一索引情報に基づいてQRAMに記憶されているm個の訓練データのうちから第一訓練データを決定し、第二索引情報に基づいてQRAMに記憶されているm個の訓練データのうちから第二訓練データを決定する。
本出願の実施例において、第一索引情報は今回の訓練に使用される第一訓練データを指示するために用いられ、第二索引情報は今回の訓練に使用される第二訓練データを指示するために用いられる。依然として上述の例を例にとり、第一索引情報が011であるときに、第一訓練データは訓練データ2及び訓練データ3を含み、第二索引情報が110であるときに、第二訓練データは訓練データ1及び訓練データ2を含む。
ステップ602d:量子コンピュータが第一訓練データ、第二訓練データ、第一索引情報、及び第二索引情報に基づいて、第一索引情報の量子状態と第二索引情報の量子状態との間の内積を生成する。
第一索引情報の量子状態とは第一訓練データの特徴マップの重ね合わせを指し、第二索引情報の量子状態とは第二訓練データの特徴マップの重ね合わせを指す。
オプションとして、ステップ602dは以下のような幾つかのサブステップを含む。
1、量子コンピュータが第一訓練データ及び第一索引情報に基づいて第一索引情報の量子状態を生成する。
オプションとして、このステップは以下のような幾つかのサブステップを含む。
1.1、古典コンピュータが第一索引情報、第一訓練データに対応する標準ラベル、訓練データの数m、及び所定の定数に基づいて計算することにより、ターゲットパラメータを取得する。
可能な実現方式において、ターゲットパラメータは
Figure 2022537618000037

と表され、そのうち、ciは第一索引情報におけるi番目の要素を示し、yiはi番目の訓練データに対応する標準ラベルを示し、Aiは所定の定数であり、オプションとして、Aiはユーザ定義の非負の値であり、その目的は、計算の安定性を保証することにある。異なるiに対応するAiは同じであっても良く、異なっても良い。
1.2、古典コンピュータがターゲットパラメータをQRAMに送信する。
可能な実現方式において、古典コンピュータは、訓練データセットにおけるm個の訓練データ及び作業セットにおけるすべての索引情報に対応するターゲットパラメータを一緒にQRAMに送信する。
1.3、量子コンピュータが量子回路により第一訓練データに対して特徴マッピングを行い、第一訓練データの量子状態を取得する。
可能な実現方式において、第一訓練データが複数の訓練データを含むときに、量子コンピュータは量子回路により上述の複数の訓練データに対してそれぞれ特徴マッピングを行い、該複数の訓練データのそれぞれの量子状態を取得する。もちろん、可能な実現方式において、量子コンピュータは量子回路により上述の複数の訓練データに対して特徴マッピングを並列に行い、該複数の訓練データのそれぞれの量子状態を取得する。訓練データの量子状態の生成方式は分類待ちデータの量子状態の生成方式に類似しており、訓練データの量子状態の生成方式は、上述の分類待ちデータの量子状態の生成方式についての説明を参照することができるため、ここではその詳しい説明を省略する。
1.4、第一訓練データの量子状態及びターゲットパラメータに基づいて、第一索引情報の量子状態を決定する。
可能な実現方式において、第一索引情報の量子状態は以下のような公式により決定され得る。
Figure 2022537618000038

ここで、φ(xi)は、i番目の訓練データの特徴マップを示し、
Figure 2022537618000039


は、i番目の訓練データの量子状態を表す。
例示的に、訓練データセットには2つの訓練データ、即ち、訓練データ1及び訓練データ2が含まれるとする場合、mは2である。第一索引情報が11であるとする場合、第一訓練データは訓練データ1及び訓練データ2を含み、ターゲットパラメータは、
Figure 2022537618000040


及び
Figure 2022537618000041


を含み、
Figure 2022537618000042


は、
Figure 2022537618000043


により決定され得る。
2、量子コンピュータが第二訓練データ及び第二索引情報に基づいて第二索引情報の量子状態を生成する。
第二索引情報の量子状態の生成方式は第一索引情報の量子状態の生成方式と同様であり、第二索引情報の量子状態の生成方式は、上述の第一索引情報の量子状態の生成方式についての説明を参照することができるため、ここではその詳しい説明を省略する。
3、量子コンピュータが第一索引情報の量子状態と第二索引情報の量子状態との間の内積を生成する。
なお、作業セットにおける各2つの索引情報の量子状態の内積の計算方式は、第一索引情報の量子状態と第二索引情報の量子状態との間の内積の計算方式と一致している。
例示的な実施例において、分類器は毎回の訓練過程で作業セットを更新することにより、毎回の訓練に使用される訓練データが異なるようにさせる。上述の分類器訓練方法はさらに以下のようなステップを含んでも良い。
第一、分類器の第t回の訓練において、古典コンピュータが分類器の初期境界ベクトルを決定し、tは正の整数である。
本出願の実施例では、初期境界ベクトルは分類器の最適化問題の最初の答えであり、訓練が完了されていないときの分類器の境界ベクトルを指す。古典コンピュータは毎回の訓練において、すべて、今回の訓練に対応する初期境界ベクトルを取得することができ、例えば、古典コンピュータはt回の訓練において、該t回の訓練に対応する初期境界ベクトルを得ることができる。
第二、古典コンピュータが初期境界ベクトルを量子コンピュータに提供する。
オプションとして、古典コンピュータは該初期境界ベクトルをQRAMに記憶する。量子コンピュータは該QRAMから初期境界ベクトルを取得する。
第三、量子コンピュータが第t回の訓練における各ラウンドの循環(loop)過程での訓練データの量子状態、初期境界ベクトル、及び第t回の訓練に使用される作業セット内の索引情報の量子状態に基づいて、第t回の訓練における各ラウンドの循環過程での予測推定結果を決定する。
オプションとして、このステップは以下のような幾つかのサブステップを含む。
1、量子コンピュータが、初期境界ベクトルにおける各第二ベクトル要素と、第t回の訓練に使用される作業セット内の第二ベクトル要素に対応する索引情報の量子状態との積の和を第二量子状態と決定する。
2、量子コンピュータが、第二量子状態と、第t回の訓練における各ラウンドの循環過程での訓練データの量子状態との間の内積を決定し、第t回の訓練における各ラウンドの循環過程での予測推定結果を得る。
第t回の訓練における第iラウンドの循環過程での予測推定結果は以下のような公式により決定することができる。
Figure 2022537618000044

第二量子状態は、
Figure 2022537618000045

と表される。なお、毎回の訓練はmラウンドの循環過程を含み、iはm以下の正の整数である。各ラウンドの循環過程での訓練データは循環回数に関連し、例えば、第iラウンドの循環過程の場合、第iラウンドの循環過程での訓練データはi番目の訓練データである。
例示的に、第t回の訓練における第1ラウンドの循環過程について、第t回の訓練に使用される作業セットには次のような索引情報、即ち、01、10、11が含まれ、01が1を表し、10が2を表し、11が3を表すとする場合、第二ベクトル要素は初期境界ベクトルにおける1番目、2番目、及び3番目のベクトル要素であり、第1ラウンドの循環過程での予測推定結果は以下のような公式に基づいて計算することにより取得することができる。
Figure 2022537618000046

第四、古典コンピュータが第t回の訓練における各ラウンドの循環過程での予測推定結果に基づいて、新たに追加される索引情報を生成する。
1つの例において、第t回の訓練における第iラウンドの循環過程での予測推定結果が所定の閾値よりも小さいことに応じて、古典コンピュータは、新たに追加される索引情報における第i桁の要素が1であると決定する。
もう1つの例において、第t回の訓練における第iラウンドの循環過程での予測推定結果が所定の閾値以上であることに応じて、古典コンピュータは、新たに追加される索引情報における第i桁の要素が0であると決定し、そのうち、iは正の整数である。
可能な実現方式において、所定の閾値は1であり、第t回の訓練における第iラウンドの循環過程での予測推定結果が1よりも小さいときに、古典コンピュータは、新たに追加される索引情報における第i桁の要素が1であると決定し、第t回の訓練における第iラウンドの循環過程での予測推定結果が1以上であるときに、古典コンピュータは、新たに追加される索引情報における第i桁の要素が0であると決定する。
依然として上述の例を例にとり、訓練データセットには3つの訓練データが含まれるとする場合、毎回の訓練には3ラウンドの循環過程が含まれる。第1ラウンドの循環過程での予測推定結果が1.1である場合、新たに追加される索引情報における第1桁の要素は0であり、第2ラウンドの循環過程での予測推定結果が0.6である場合、新たに追加される索引情報における第2桁の要素は1であり、第3ラウンドの循環過程での予測推定結果が0.8である場合、新たに追加される索引情報における第3桁の要素は1であり、即ち、新たに追加される索引情報は011である。
第五、古典コンピュータが新たに追加される索引情報を作業セットに追加する。
本出願の実施例では、更新後の作業セットは分類器の次の1回の訓練を行うために用いられる。オプションとして、古典コンピュータは、新たに追加される索引情報を決定した後に、該新たに追加される索引情報に対応するターゲットパラメータをQRAMに送信する。これにより、量子コンピュータは、QRAMから上述の新たに追加される索引情報に対応する訓練データ及び該新たに追加される索引情報に対応するターゲットパラメータを取得する。
依然として上述の例を例にとり、古典コンピュータは011を作業セットに追加し、そして、更新後の作業セットを分類器の第t+1回の訓練に用いる。可能な実現方式において、訓練回数が所定の回数に達したときに、古典コンピュータは訓練をストップし、そして、最後の1回の訓練により取得された境界ベクトルを分類器の境界ベクトルと決定する。
可能な実現方式において、図8に示すように、本出願のもう1つの実施例により提供される分類器分類方法が示されている。そのうち、量子コンピュータにはQRAMが含まれる。
古典コンピュータは訓練データセットを取得し、訓練データセットにはm個の訓練データ及び該訓練データに対応する標準ラベルが含まれる。古典コンピュータは作業セットを初期化し、作業セットには少なくとも1つの索引情報が含まれ、即ち、古典コンピュータは作業セットのうちから索引情報をランダム選択し、そして、該索引情報に対応するターゲットパラメータ及びm個の訓練データをQRAMに送信する。
量子コンピュータは、QRAMに記憶されているデータに基づいて作業セットにおける各2つの索引情報の量子状態の内積を計算し、内積集合を生成する。
古典コンピュータは、内積集合に基づいて行列を生成し、該行列を半正定値錐にマッピングして半正定値行列を取得し、そして、半正定値行列及び訓練データの数に基づいて分類器の最適化問題を生成し、該最適化問題を処理して取得した初期境界ベクトルをQRAMに送信する。
量子コンピュータは、QRAMに記憶されているデータ及び初期境界ベクトルに基づいて、予測推定結果を決定する。
古典コンピュータは、該予測推定結果に基づいて作業セットを更新し、そして、訓練終了条件が満足されたかを検出し、終了条件が満足されたときに、最終的な分類器(境界ベクトル)をQRAMに出力し、終了条件が満足されないときに、新たに追加される索引情報に対応する訓練データをQRAMに記憶し、そして、再び訓練を行う。
以下、本出願のシステムの実施例である。本出願のシステム実施例における未披露の細部については、本出願の方法の実施例を参照することができる。
図9を参照する。それは、本出願の一実施例により提供されるデータ分類システムを示す図である。該システム900は古典コンピュータ910及び量子コンピュータ920を含む。
前記古典コンピュータ910は、分類待ちデータを取得し、前記分類待ちデータを前記量子コンピュータに提供するために用いられる。
前記量子コンピュータ920は、量子回路により前記分類待ちデータに対して特徴マッピングを行って前記分類待ちデータの量子状態を取得し、分類器の境界ベクトル、前記分類待ちデータの量子状態、及び前記境界ベクトルに対応する索引情報の量子状態に基づいて、推定結果を決定し、そして、前記推定結果を前記古典コンピュータ910に送信するために用いられ、そのうち、前記境界ベクトルに対応する索引情報の量子状態とは、前記分類器が訓練過程で使用する訓練データの特徴マップの重ね合わせを指す。
前記古典コンピュータ910はさらに、前記推定結果に基づいて、前記分類待ちデータに対応する分類結果を決定するために用いられる。
例示的な実施例において、前記量子コンピュータ920は、前記境界ベクトルにおける各第一ベクトル要素と、前記第一ベクトル要素に対応する索引情報の量子状態との積の和を第一量子状態と決定するために用いられる。
また、前記量子コンピュータ920は、前記第一量子状態と、前記分類待ちデータの量子状態との間の内積を決定し、前記推定結果を得るために用いられる。
例示的な実施例において、前記量子コンピュータ920は、前記量子回路によって、前記分類待ちデータの特徴マップにおける各特徴値と、前記特徴値に対応する量子状態との積の和に基づいて、前記分類待ちデータの量子状態を決定するために用いられる。
例示的な実施例において、前記推定結果が正の値であることに応じて、前記古典コンピュータ910は、前記分類待ちデータが第一類別に属すると決定し、前記推定結果が負の値であることに応じて、前記古典コンピュータ910は、前記分類待ちデータが第二類別に属すると決定する。
例示的な実施例において、前記分類待ちデータは文字を含み、前記分類結果は前記文字に対応する文字認識結果を含み;あるいは、
前記分類待ちデータは医療診断画像を含み、前記分類結果は前記医療診断画像に対応する画像認識結果を含み;あるいは、
前記分類待ちデータはソーシャルアプリケーションにおけるテキスト情報を含み、前記分類結果は前記テキスト情報に対応する感情認識結果を含み;あるいは、
前記分類待ちデータは分子情報を含み、前記分類結果は前記分子情報に対応する特性認識結果を含み;あるいは、
前記分類待ちデータは材料情報を含み、前記分類結果は前記材料情報に対応する特性認識結果を含む。
要約すると、本出願の実施例により提供される技術案では、量子コンピュータにより分類器の境界ベクトル、分類待ちデータの量子状態、及び境界ベクトルに対応する索引情報の量子状態に基づいて、推定結果を決定することで、古典コンピュータは該推定結果に基づいて分類待ちデータに対応する分類結果を決定することができる。境界ベクトルに対応する索引情報の量子状態とは、分類器が訓練過程で使用する訓練データの特徴マップの重ね合わせを指し、本出願における分類器は、シフト不変カーネルに対応する特徴マップの使用に限られず、また、特徴空間を制限することもない。よって、本出願における分類器は、より優れた特徴空間を見つけて分類待ちデータに対して分類を行うことができ、即ち、本出願では、取得される境界ベクトルが比較的正しく、分類器の分類精度が比較的高いため、最終的な分類結果はより正確になる。
図10を参照する。それは、本出願の一実施例により提供される分類器訓練システムを示す図である。該システム1000は古典コンピュータ1010及び量子コンピュータ1020を含む。
前記古典コンピュータ1010は訓練データセットを得るために用いられ、前記訓練データセットはm個の訓練データ及び前記訓練データに対応する標準ラベルを含み、前記mは正の整数である。
前記量子コンピュータ1020は、作業セットにおける各2つの索引情報の量子状態の内積を決定し、内積集合を生成するために用いられ、そのうち、前記作業セットには少なくとも2つの索引情報が含まれ、前記索引情報は、今回の訓練に使用される訓練データを指示するために用いられ、前記索引情報の量子状態とは、前記今回の訓練に使用される訓練データの特徴マップの重ね合わせを指す。
前記古典コンピュータ1010はさらに、前記内積集合に基づいて分類器の最適化問題を生成し、そして、前記分類器の最適化問題に基づいて前記分類器に対して訓練を行い、前記分類器の境界ベクトルを得るために用いられる。
例示的な実施例において、前記古典コンピュータ1010は、前記作業セットのうちから第一索引情報及び第二索引情報を選択し、前記m個の訓練データを量子ランダムアクセス記憶器QRAMに送信するために用いられる。
また、前記量子コンピュータ1020は、前記第一索引情報に基づいて前記QRAMに記憶されている前記m個の訓練データのうちから第一訓練データを決定し、前記第二索引情報に基づいて前記QRAMに記憶されている前記m個の訓練データのうちから第二訓練データを決定し、そして、前記第一訓練データ、前記第二訓練データ、前記第一索引情報、及び前記第二索引情報に基づいて、前記第一索引情報の量子状態と、前記第二索引情報の量子状態との間の内積を生成するために用いられ、そのうち、前記第一索引情報は今回の訓練に使用される前記第一訓練データを指示するために用いられ、前記第二索引情報は今回の訓練に使用される前記第二訓練データを指示するために用いられる。
例示的な実施例において、前記量子コンピュータ1020は、前記第一訓練データ及び前記第一索引情報に基づいて、前記第一索引情報の量子状態を生成するために用いられる。
前記量子コンピュータ1020は、前記第二訓練データ及び前記第二索引情報に基づいて、前記第二索引情報の量子状態を生成するために用いられる。
また、前記量子コンピュータ1020は、前記第一索引情報の量子状態と前記第二索引情報の量子状態との間の内積を生成するために用いられる。
例示的な実施例において、前記古典コンピュータ1010は、前記第一索引情報、前記第一訓練データに対応する標準ラベル、前記訓練データの数m、及び所定の定数に基づいて計算することによりターゲットパラメータを取得し、そして、前記ターゲットパラメータを前記QRAMに送信するために用いられる。
また、前記量子コンピュータ1020は、量子回路により前記第一訓練データに対して特徴マッピングを行い、前記第一訓練データの量子状態を取得し、そして、前記第一訓練データの量子状態及び前記ターゲットパラメータに基づいて、前記第一索引情報の量子状態を決定するために用いられる。
例示的な実施例において、前記古典コンピュータ1010は、前記内積集合に基づいて行列を生成し、前記行列を半正定値錐にマッピングして半正定値行列を得るために用いられる。
また、前記古典コンピュータ1010はさらに、前記半正定値行列及び前記訓練データの数mに基づいて、前記分類器の最適化問題を生成するために用いられる。
例示的な実施例において、前記古典コンピュータ1010はさらに、前記分類器の第t回の訓練において、前記分類器の初期境界ベクトルを決定し、そして、前記初期境界ベクトルを前記量子コンピュータに提供するために用いられ、前記tは正の整数であり、前記初期境界ベクトルは前記分類器の最適化問題の最初の答えである。
前記量子コンピュータ1020はさらに、前記第t回の訓練における各ラウンドの循環過程での訓練データの量子状態、前記初期境界ベクトル、及び前記第t回の訓練に使用される作業セット内の索引情報の量子状態に基づいて、前記第t回の訓練における各ラウンドの循環過程での予測推定結果を決定するために用いられる。
また、前記古典コンピュータ1010はさらに、前記第t回の訓練における各ラウンドの循環過程での予測推定結果に基づいて、新たに追加される索引情報を生成し、そして、前記新たに追加される索引情報を前記作業セットに追加するために用いられ、そのうち、更新後の作業セットは、前記分類器の次の1回の訓練を行うために用いられる。
例示的な実施例において、前記量子コンピュータ1020は、前記初期境界ベクトルにおける各第二ベクトル要素と、前記第t回の訓練に使用される作業セットにおける前記第二ベクトル要素に対応する索引情報の量子状態との積の和を第二量子状態と決定するために用いられる。
また、前記量子コンピュータ1020は、前記第二量子状態と、前記第t回の訓練における各ラウンドの循環過程での訓練データの量子状態との間の内積を決定し、前記第t回の訓練における各ラウンドの循環過程での予測推定結果を得るために用いられる。
例示的な実施例において、前記第t回の訓練における第iラウンドの循環過程での予測推定結果が所定の閾値よりも小さいことに応じて、前記古典コンピュータ1010は、前記新たに追加される索引情報における第i桁の要素が1であると決定し、前記第t回の訓練における第iラウンドの循環過程での予測推定結果が前記所定の閾値以上であることに応じて、前記古典コンピュータ1010は、前記新たに追加される索引情報における第i桁の要素が0であると決定するために用いられる。そのうち、前記iは正の整数である。
要約すると、本出願の実施例により提供される技術案では、古典コンピュータにより訓練データセットを取得し、量子コンピュータが作業セットにおける各2つの索引情報の量子状態の内積を形成し、内積集合を生成し、古典コンピュータが内積集合に基づいて分類器の最適化問題を生成し、そして、該最適化問題に基づいて分類器に対して訓練を行い、分類器の境界ベクトルを取得することができる。索引情報の量子状態とは、分類器訓練過程で使用される訓練データの特徴マップの重ね合わせを指し、本出願における分類器は、シフト不変カーネルに対応する特徴マップの使用に限られず、また、特徴空間を制限することもない。よって、本出願における分類器は、より優れた特徴空間を見つけて分類待ちデータに対して分類を行うことができ、即ち、本出願では、取得される境界ベクトルが比較的正しく、分類器の分類精度が比較的高いので、最終的な分類結果はより正確になる。
なお、上述の実施例により提供されるシステム及び方法の実施例は同じ構想に属し、その具体的な実現過程は方法の実施例を参照することができるため、ここではその詳しい説明を割愛する。
当業者が理解すべきは、上述の実施例の全部又は一部のステップの実現はハードウェアにより実現することができ、プログラムによって関連するハードウェアを指令することにより実現することもできる。前記プログラムは、コンピュータ可読記憶媒体に記憶することができ、このような記憶媒体は、読み取り専用メモリ、ディスク、CDなどであっても良い。
以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は本発明の技術的範囲に属する。

Claims (15)

  1. データ分類方法であって、
    古典コンピュータが分類待ちデータを取得し、前記分類待ちデータを量子コンピュータに提供するステップ;
    前記量子コンピュータが、量子回路により前記分類待ちデータに対して特徴マッピングを行って前記分類待ちデータの量子状態を取得し、分類器の境界ベクトル、前記分類待ちデータの量子状態、及び前記境界ベクトルに対応する索引情報の量子状態に基づいて推定結果を決定し、前記推定結果を前記古典コンピュータに送信するステップであって、前記境界ベクトルに対応する索引情報の量子状態とは、前記分類器が訓練過程で使用する訓練データの特徴マップの重ね合わせを指す、ステップ;及び
    前記古典コンピュータが前記推定結果に基づいて、前記分類待ちデータに対応する分類結果を決定するステップを含む、方法。
  2. 請求項1に記載の方法であって、
    前記量子コンピュータが分類器の境界ベクトル、前記分類待ちデータの量子状態、及び前記境界ベクトルに対応する索引情報の量子状態に基づいて推定結果を決定することは、
    前記量子コンピュータが、前記境界ベクトルにおける各第一ベクトル要素と、前記第一ベクトル要素に対応する索引情報の量子状態との積の和を第一量子状態と決定するステップ;及び
    前記量子コンピュータが、前記第一量子状態と前記分類待ちデータの量子状態との間の内積を決定し、前記推定結果を取得するステップを含む、方法。
  3. 請求項1に記載の方法であって、
    前記量子コンピュータが、量子回路により前記分類待ちデータに対して特徴マッピングを行って前記分類待ちデータの量子状態を取得することは、
    前記量子コンピュータが、前記量子回路により、前記分類待ちデータの特徴マップにおける各特徴値と、前記特徴値に対応する量子状態との積の和に基づいて、前記分類待ちデータの量子状態を決定するステップを含む、方法。
  4. 請求項1に記載の方法であって、
    前記古典コンピュータが前記推定結果に基づいて、前記分類待ちデータに対応する分類結果を決定するステップは、
    前記推定結果が正の値であることに応じて、前記古典コンピュータは前記分類待ちデータが第一類別に属すると決定するステップ;及び
    前記推定結果が負の値であることに応じて、前記古典コンピュータは前記分類待ちデータが第二類別に属すると決定するステップを含む、方法。
  5. 請求項1乃至4のうちの何れか1項に記載の方法であって、
    前記分類待ちデータは文字を含み、前記分類結果は前記文字に対応する文字認識結果を含み;
    前記分類待ちデータは医療診断画像を含み、前記分類結果は前記医療診断画像に対応する画像認識結果を含み;
    前記分類待ちデータはソーシャルアプリケーションにおけるテキスト情報を含み、前記分類結果は前記テキスト情報に対応する感情認識結果を含み;
    前記分類待ちデータは分子情報を含み、前記分類結果は前記分子情報に対応する特性認識結果を含み;又は
    前記分類待ちデータは材料情報を含み、前記分類結果は前記材料情報に対応する特性認識結果を含む、方法。
  6. 分類器訓練方法であって、
    古典コンピュータが訓練データセットを得るステップであって、前記訓練データセットはm個の訓練データ及び前記訓練データに対応する標準ラベルを含み、前記mは正の整数である、ステップ;
    量子コンピュータが作業セットにおける各2つの索引情報の量子状態の内積を決定し、内積集合を生成するステップであって、前記作業セットには少なくとも2つの索引情報が含まれ、前記索引情報は今回の訓練に使用される訓練データを指示するために用いられ、前記索引情報の量子状態とは、前記今回の訓練に使用される訓練データの特徴マップの重ね合わせを指す、ステップ;及び
    前記古典コンピュータが前記内積集合に基づいて分類器の最適化問題を生成し、前記分類器の最適化問題に基づいて前記分類器に対して訓練を行い、前記分類器の境界ベクトルを得るステップを含む、方法。
  7. 請求項6に記載の方法であって、
    前記量子コンピュータが作業セットにおける各2つの索引情報の量子状態の内積を決定し、内積集合を生成するステップは、
    前記古典コンピュータが前記作業セットのうちから第一索引情報及び第二索引情報を選択し、前記m個の訓練データを量子ランダムアクセス記憶器QRAMに送信するステップ;及び
    前記量子コンピュータが、前記第一索引情報に基づいて前記QRAMに記憶されている前記m個の訓練データのうちから第一訓練データを決定し、前記第二索引情報に基づいて前記QRAMに記憶されている前記m個の訓練データのうちから第二訓練データを決定し、前記第一訓練データ、前記第二訓練データ、前記第一索引情報、及び前記第二索引情報に基づいて、前記第一索引情報の量子状態と、前記第二索引情報の量子状態との間の内積を生成するステップであって、前記第一索引情報は今回の訓練に使用される前記第一訓練データを指示するために用いられ、前記第二索引情報は今回の訓練に使用される前記第二訓練データを指示するために用いられる、ステップを含む、方法。
  8. 請求項7に記載の方法であって、
    前記量子コンピュータが前記第一訓練データ、前記第二訓練データ、前記第一索引情報、及び前記第二索引情報に基づいて、前記第一索引情報の量子状態と、前記第二索引情報の量子状態との間の内積を生成することは、
    前記量子コンピュータが前記第一訓練データ及び前記第一索引情報に基づいて前記第一索引情報の量子状態を生成するステップ;
    前記量子コンピュータが前記第二訓練データ及び前記第二索引情報に基づいて前記第二索引情報の量子状態を生成するステップ;及び
    前記量子コンピュータが前記第一索引情報の量子状態と前記第二索引情報の量子状態との間の内積を生成するステップを含む、方法。
  9. 請求項8に記載の方法であって、
    前記量子コンピュータが前記第一訓練データ及び前記第一索引情報に基づいて前記第一索引情報の量子状態を生成するステップは、
    前記古典コンピュータが前記第一索引情報、前記第一訓練データに対応する標準ラベル、前記訓練データの数m、及び所定の定数に基づいて計算することにより、ターゲットパラメータを取得し、前記ターゲットパラメータを前記QRAMに送信するステップ;及び
    前記量子コンピュータが、量子回路により前記第一訓練データに対して特徴マッピングを行って前記第一訓練データの量子状態を取得し、前記第一訓練データの量子状態及び前記ターゲットパラメータに基づいて前記第一索引情報の量子状態を決定するステップを含む、方法。
  10. 請求項6に記載の方法であって、
    前記古典コンピュータが前記内積集合に基づいて分類器の最適化問題を生成することは、
    前記古典コンピュータが前記内積集合に基づいて行列を生成し、前記行列を半正定値錐にマッピングして半正定値行列を取得するステップ;及び
    前記古典コンピュータが前記半正定値行列及び前記訓練データの数mに基づいて前記分類器の最適化問題を生成するステップを含む、方法。
  11. 請求項6乃至10のうちの何れか1に記載の方法であって、
    前記分類器の第t回の訓練において、前記古典コンピュータが前記分類器の初期境界ベクトルを決定し、前記初期境界ベクトルを前記量子コンピュータに提供するステップであって、前記tは正の整数であり、前記初期境界ベクトルは前記分類器の最適化問題の最初の答えである、ステップ;
    前記量子コンピュータが、前記第t回の訓練における各ラウンドの循環過程での訓練データの量子状態、前記初期境界ベクトル、及び前記第t回の訓練に使用される作業セットにおける索引情報の量子状態に基づいて、前記第t回の訓練における各ラウンドの循環過程での予測推定結果を決定するステップ;及び
    前記古典コンピュータが、前記第t回の訓練における各ラウンドの循環過程での予測推定結果に基づいて、新たに追加される索引情報を生成し、新たに追加される前記索引情報を前記作業セットに追加するステップであって、更新後の作業セットは、前記分類器の次の1回の訓練を行うために用いられる、ステップをさらに含む、方法。
  12. 請求項11に記載の方法であって、
    前記量子コンピュータが、前記第t回の訓練における各ラウンドの循環過程での訓練データの量子状態、前記初期境界ベクトル、及び前記第t回の訓練に使用される作業セットにおける索引情報の量子状態に基づいて、前記第t回の訓練における各ラウンドの循環過程での予測推定結果を決定するステップは、
    前記量子コンピュータが、前記初期境界ベクトルにおける各第二ベクトル要素と、前記第t回の訓練に使用される作業セットにおける前記第二ベクトル要素に対応する索引情報の量子状態との積の和を第二量子状態と決定するステップ;及び
    前記量子コンピュータが、前記第二量子状態と、前記第t回の訓練における各ラウンドの循環過程での訓練データの量子状態との間の内積を決定し、前記第t回の訓練における各ラウンドの循環過程での予測推定結果を得るステップを含む、方法。
  13. 請求項11に記載の方法であって、
    前記古典コンピュータが前記第t回の訓練における各ラウンドの循環過程での予測推定結果に基づいて、新たに追加される索引情報を生成することは、
    前記第t回の訓練における第iラウンドの循環過程での予測推定結果が所定の閾値よりも小さいことに応じて、前記古典コンピュータは、新たに追加される前記索引情報における第i桁の要素が1であると決定するステップ;及び
    前記第t回の訓練における第iラウンドの循環過程での予測推定結果が前記所定の閾値以上であることに応じて、前記古典コンピュータは、新たに追加される前記索引情報における第i桁の要素が0であると決定するステップを含み、
    前記iは正の整数である、方法。
  14. 古典コンピュータ及び量子コンピュータを含むデータ分類システムであって、
    前記古典コンピュータは、分類待ちデータを取得し、前記分類待ちデータを前記量子コンピュータに提供するために用いられ、
    前記量子コンピュータは、量子回路により前記分類待ちデータに対して特徴マッピングを行って前記分類待ちデータの量子状態を取得し、分類器の境界ベクトル、前記分類待ちデータの量子状態、及び前記境界ベクトルに対応する索引情報の量子状態に基づいて推定結果を決定し、前記推定結果を前記古典コンピュータに送信するために用いられ、前記境界ベクトルに対応する索引情報の量子状態とは、前記分類器が訓練過程で使用する訓練データの特徴マップの重ね合わせを指し、
    前記古典コンピュータはさらに、前記推定結果に基づいて、前記分類待ちデータに対応する分類結果を決定するために用いられる、システム。
  15. 古典コンピュータ及び量子コンピュータを含む分類器訓練システムであって、
    前記古典コンピュータは、訓練データセットを得るために用いられ、前記訓練データセットはm個の訓練データ及び前記訓練データに対応する標準ラベルを含み、前記mは正の整数であり、
    前記量子コンピュータは、作業セットにおける各2つの索引情報の量子状態の内積を決定し、内積集合を生成するために用いられ、前記作業セットには少なくとも2つの索引情報が含まれ、前記索引情報は今回の訓練に使用される訓練データを指示するために用いられ、前記索引情報の量子状態とは、前記今回の訓練に使用される訓練データの特徴マップの重ね合わせを指し、
    前記古典コンピュータはさらに、前記内積集合に基づいて分類器の最適化問題を生成し、前記分類器の最適化問題に基づいて前記分類器に対して訓練を行い、前記分類器の境界ベクトルを得るために用いられる、システム。
JP2021553843A 2020-05-25 2021-01-25 データ分類方法、分類器訓練方法及びシステム Active JP7293387B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010446946.6 2020-05-25
CN202010446946.6A CN112651418B (zh) 2020-05-25 2020-05-25 数据分类方法、分类器训练方法及系统
PCT/CN2021/073645 WO2021238279A1 (zh) 2020-05-25 2021-01-25 数据分类方法、分类器训练方法及系统

Publications (2)

Publication Number Publication Date
JP2022537618A true JP2022537618A (ja) 2022-08-29
JP7293387B2 JP7293387B2 (ja) 2023-06-19

Family

ID=75346257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021553843A Active JP7293387B2 (ja) 2020-05-25 2021-01-25 データ分類方法、分類器訓練方法及びシステム

Country Status (6)

Country Link
US (1) US20220058435A1 (ja)
EP (1) EP3944149A4 (ja)
JP (1) JP7293387B2 (ja)
KR (1) KR102618916B1 (ja)
CN (1) CN112651418B (ja)
WO (1) WO2021238279A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023125857A1 (zh) * 2021-12-30 2023-07-06 本源量子计算科技(合肥)股份有限公司 基于机器学习框架系统的模型训练方法及相关设备
CN114372539B (zh) * 2022-03-22 2022-07-15 合肥本源量子计算科技有限责任公司 基于机器学习框架的分类方法及相关设备
CN114419380A (zh) * 2022-03-31 2022-04-29 苏州浪潮智能科技有限公司 一种图像识别方法、装置及电子设备和存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7448724B2 (en) * 2005-12-05 2008-11-11 Silverbrook Research Pty Ltd Method of maintaining a printhead using a maintenance belt
US7895142B2 (en) * 2007-09-27 2011-02-22 Siemens Aktiengesellschaft Method and apparatus for quantum adiabatic pattern recognition
CN107004162A (zh) * 2014-12-05 2017-08-01 微软技术许可有限责任公司 量子深度学习
CN104504601B (zh) * 2015-01-15 2015-10-28 曹东 基于ctp金融数据的量子信息特征提取方法
CN106650808A (zh) * 2016-12-20 2017-05-10 北京工业大学 一种基于量子近邻算法的图像分类方法
CN107092931B (zh) * 2017-04-24 2020-07-03 河北工业大学 一种奶牛个体识别的方法
GB201801627D0 (en) * 2018-02-01 2018-03-21 Siemens Healthcare Ltd Image autoencoding for quantum machine learning
CN108921049B (zh) * 2018-06-14 2021-08-03 华东交通大学 基于量子门线路神经网络的肿瘤细胞图像识别装置及设备
CN109242223B (zh) * 2018-11-26 2021-09-21 武汉理工光科股份有限公司 城市公共建筑火灾风险的量子支持向量机评估与预测方法
US11748665B2 (en) * 2019-04-03 2023-09-05 International Business Machines Corporation Quantum feature kernel alignment
US11906309B2 (en) * 2019-09-27 2024-02-20 Here Global B.V. Method and apparatus for providing a map matcher tolerant to wrong map features
CN110909796B (zh) * 2019-11-22 2022-05-17 浪潮电子信息产业股份有限公司 一种图像分类方法及相关装置
CN111079704A (zh) * 2019-12-31 2020-04-28 厦门理工学院 一种基于量子计算的人脸识别方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DANIEL K. PARK, ET AL., THE THEORY OF THE QUANTUM KERNEL-BASED BINARY CLASSIFIER, JPN7022005434, 7 April 2020 (2020-04-07), pages 1 - 15, ISSN: 0004926635 *
MARIA SCHULD, ET AL., QUANTUM MACHINE LEARNING IN FEATURE HILBERT SPACES, JPN7022005436, 19 March 2018 (2018-03-19), pages 1 - 12, ISSN: 0004926636 *
PATRICK REBENTROST, ET AL., QUANTUM SUPPORT VECTOR MACHINE FOR BIG DATA CLASSIFICATION, JPN7022005437, 10 July 2014 (2014-07-10), pages 1 - 5, ISSN: 0004926637 *

Also Published As

Publication number Publication date
CN112651418A (zh) 2021-04-13
JP7293387B2 (ja) 2023-06-19
WO2021238279A1 (zh) 2021-12-02
US20220058435A1 (en) 2022-02-24
KR102618916B1 (ko) 2023-12-27
CN112651418B (zh) 2022-03-08
EP3944149A1 (en) 2022-01-26
EP3944149A4 (en) 2022-06-01
KR20210148095A (ko) 2021-12-07

Similar Documents

Publication Publication Date Title
JP7293387B2 (ja) データ分類方法、分類器訓練方法及びシステム
JP7470476B2 (ja) 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合
US10824674B2 (en) Label propagation in graphs
US20190065957A1 (en) Distance Metric Learning Using Proxies
US11886990B2 (en) Classification device, classification method, and computer program product
US20200167690A1 (en) Multi-task Equidistant Embedding
US10387749B2 (en) Distance metric learning using proxies
US11373117B1 (en) Artificial intelligence service for scalable classification using features of unlabeled data and class descriptors
Cevikalp et al. Large-scale image retrieval using transductive support vector machines
WO2020023760A1 (en) System and method for clustering products by combining attribute data with image recognition
Barbu et al. An analysis of robust cost functions for CNN in computer-aided diagnosis
Devi et al. A Comparative Study on Handwritten Digit Recognizer using Machine Learning Technique
Hafiz et al. Image classification using convolutional neural network tree ensembles
Sidaoui et al. Binary tree multi-class SVM based on OVA approach and variable neighbourhood search algorithm
Papa et al. A survey on efficient vision transformers: algorithms, techniques, and performance benchmarking
Avvari et al. An Efficient Novel Approach for Detection of Handwritten Numericals Using Machine Learning Paradigms
Peng et al. A general framework for multi-label learning towards class correlations and class imbalance
Żak et al. Performance analysis of binarization strategies for multi-class imbalanced data classification
JP7067634B2 (ja) ロバスト学習装置、ロバスト学習方法およびロバスト学習プログラム
Burduk et al. The use of geometric mean in the process of integration of three base classifiers
Shi et al. Graphsite: ligand-binding site classification using deep graph neural network
Gera et al. Facial Affect Recognition Using Semi-supervised Learning with Adaptive Threshold
US20230419115A1 (en) Generating Node Embeddings for Multiple Roles
Wardak et al. Noisy QR code smart identification system
US11693925B2 (en) Anomaly detection by ranking from algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230607

R150 Certificate of patent or registration of utility model

Ref document number: 7293387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150