JP2021193615A - 量子データの処理方法、量子デバイス、コンピューティングデバイス、記憶媒体、及びプログラム - Google Patents

量子データの処理方法、量子デバイス、コンピューティングデバイス、記憶媒体、及びプログラム Download PDF

Info

Publication number
JP2021193615A
JP2021193615A JP2021153717A JP2021153717A JP2021193615A JP 2021193615 A JP2021193615 A JP 2021193615A JP 2021153717 A JP2021153717 A JP 2021153717A JP 2021153717 A JP2021153717 A JP 2021153717A JP 2021193615 A JP2021193615 A JP 2021193615A
Authority
JP
Japan
Prior art keywords
quantum
data
circuit
qubits
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021153717A
Other languages
English (en)
Inventor
ワン,シン
Xin Wang
ソン,ツーシン
Zhixin Song
リー,グァンシー
Guangxi Li
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021193615A publication Critical patent/JP2021193615A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/20Models of quantum computing, e.g. quantum circuits or universal quantum computers

Abstract

【課題】量子機械学習での、古典機械学習と類似するように量子データセットのデータ型を効率的に識別する量子データの処理方法、デバイス及びプログラムを提供する。【解決手段】量子データの処理方法は、量子データセット及び量子データセットのデータ型を特徴付ける種別情報を決定することと、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、量子データセットに含まれる量子データ点に作用することと、測定により得られた、量子データ点に作用された後のローカル量子回路の中の量子ビットの状態情報を取得し、状態情報及び種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとすることと、を含み、トレーニング完成後の古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる。【選択図】図1

Description

本開示は、データ処理分野に関し、特に、量子コンピューティング分野に関する。
量子コンピュータは、規模化と実用化へ進んでおり、量子機械学習(Quantum Machine Learning)が量子コンピューティングの最前線の方向であり、古典機械学習と類似するように、量子データセットを効率的に分類して識別することが非常に重要な問題である。よって、量子データセットを如何に分類するかは、量子機械学習で解決すべき緊急の課題になっている。
本開示は、量子データの処理方法、量子デバイス、コンピューティングデバイス、記憶媒体、及びプログラムを提供する。
本開示の1つの側面では、量子データセット及び量子データセットのデータ型を特徴付ける種別情報を決定することと、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用することと、測定により得られた、前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとすることとを含む量子データの処理方法が提供される。ここで、トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる。
本開示のもう1つの側面では、量子データセット及び量子データセットのデータ型を特徴付ける種別情報を決定することと、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用することと、測定により得られた前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとすることと、前記トレーニングデータを前記古典ニューラルネットワークに入力し、前記古典ニューラルネットワークをトレーニングすることと、を含む量子データの処理方法が提供される。ここで、トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる。
本開示のもう1つの側面では、量子データセット及び量子データセットのデータ型を特徴付ける種別情報を決定する情報決定ユニットと、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用する回路処理ユニットと、測定により得られた、前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとする測定ユニットとを備える量子デバイスが提供される。ここで、トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる。
本開示のもう1つの側面では、量子データセット及び量子データセットのデータ型を特徴付ける種別情報を決定し、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用する量子データ処理ユニットと、測定により得られた前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとする量子回路測定ユニットと、前記トレーニングデータを前記古典ニューラルネットワークに入力し、前記古典ニューラルネットワークをトレーニングする古典データ処理ユニットとを備える量子データ処理に用いるコンピューティングデバイスが提供される。ここで、トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる。
本開示の技術は、量子コンピューティング及び古典ニューラルネットワーク技術を組み合わせることにより、量子データセットのデータ型を効率的に識別する基礎を築くことができる。
ここに記載されている内容は、本開示の実施形態の主要なまたは重要な特徴を限定することを意図したものではなく、本開示の範囲を限定するものでもないことが理解されるべきである。本開示のその他の特徴は、以下の明細書でより理解しやすくなる。
添付の図面は、本実施形態をより良く理解するために使用され、本開示に対する限定を構成するものではない。
本開示の実施形態による量子データの処理方法を実現するためのフローチャート模式図その1である。 本開示の実施形態による量子データの処理方法を実現するためのフローチャート模式図その2である。 本開示の実施形態による1つの具体的なシナリオにおけるローカルパラメータ化された量子回路の模式図である。 本開示の実施形態による1つの具体的なシナリオにおけるグローバルパラメータ化された量子回路の模式図である。 本開示の実施形態による、1つの具体的なシナリオにおいて実現するフローチャート模式図である。 本開示の実施形態による量子デバイスの構造模式図である。 本開示の実施形態による量子データ処理のためのコンピューティングデバイスの構造模式図である。
以下、図面を参照し、本開示の例示的な実施形態を説明し、理解を助けるために本開示の実施形態の様々な詳細を含んでいるが、これらは、単に例示的なものとみなされるべきである。したがって、当業者は、本開示の範囲および要旨から逸脱することなく、本明細書に記載の実施形態に様々な変更および修正を加えることができることを認識すべきである。以下の説明では、明瞭で簡潔にするために、周知の機能と構造の説明を省略している。
本開示の実施形態は、量子デバイスにおいて実行される量子データの処理方法を提供する。具体的には、図1に示すように、当該方法は、ステップS101、ステップS102及びステップS103を含む。
ステップS101においては、量子データセット及び量子データセットのデータ型を特徴付ける種別情報を決定する。
ステップS102においては、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用する。
ステップS103においては、測定により得られた、前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとする。ここで、トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる。
本開示の前記ローカル量子回路は、パラメータ化された量子回路の中の一部の量子回路であり、即ち、量子データ点に作用する量子回路(即ち、ローカル量子回路)は、前記パラメータ化された量子回路の中の全ての量子ビットを含むのではなく、前記パラメータ化された量子回路の中の一部の量子ビットのみを含む。図3に示すように、パラメータ化された量子回路は、4つの量子ビットを含み、この時、量子ビットq及びqを含む量子回路を、本開示に記載のローカル量子回路とし、当該量子ビットq及びqが含まれるローカル量子回路を、入力した量子データ点に作用することができ、q及びqがローカル量子回路に含まれておらず、よって、グローバル化のパラメータ化された量子回路(図4に示すように、全ての量子ビットを含み、即ち、量子ビットq、q、q及びqを含むグローバル量子回路を、入力された量子データ点に作用する)に比べ、本開示の技術案に係る量子ビット又は量子ゲートの数を大幅に減らすことができ、後続するトレーニングプロセスにおけるシステムノイズを大幅に低減し、識別の精度を高める基礎を築くことができる。
本開示においては、前記古典ニューラルネットワークは、古典コンピュータにおいて実行することができる従来の任意のニューラルネットワークであっても良く、本開示は、これに対して制限しない。
これにより、本開示は、量子コンピューティングと古典ニューラルネットワーク技術を組み合わせることにより、量子データセットのデータ型を効率的に識別する基礎を築くことができる。
本開示の1つの具体例においては、以下の方式を用いてローカル量子回路を取得することができる。具体的には、前記パラメータ化された量子回路を決定し、前記パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出し、選出された前記一部の量子ビットが含まれている量子回路を前記ローカル量子回路とする。実際の応用においては、ローカル量子回路は、パラメータ化された量子回路に基づいて得られ、パラメータ化された量子回路の一部に属し、さらに、選出された量子ビットを調整することにより、複数の前記状態情報を取得することができ、さらに、複数の前記状態情報をトレーニングデータとすることができるので、後続する古典ニューラルネットワークをトレーニングするためのデータの基礎を築き、量子データセットのデータ型を効率的に識別する基礎を築くことができる。
本開示の1つの具体例においては、前記量子デバイスは、以下の方式を用いて当該ローカル量子回路のパラメータを調整することもできるので、古典ニューラルネットワークをトレーニングするための基礎を築き、量子データセットのデータ型を効率的に識別する基礎を築くことができる。具体的には、前記トレーニングデータが前記古典ニューラルネットワークに入力された後、即ち、前記量子デバイスは、前記トレーニングデータを古典デバイス(例えば、古典コンピュータ等)に送信し、古典デバイスにより、前記トレーニングデータを前記古典ニューラルネットワークに入力した後、前記量子デバイスは、前記量子データセットの中の全ての量子データ点に対応する予測情報と前記種別情報の間の合計相違度を取得する。ここで、前記予測情報は、前記古典ニューラルネットワークから出力され、前記量子データ点のデータ種別を特徴付けることに用いられる。前記合計相違度は、前記量子データセットの中の各前記量子データ点に対応する予測情報と前記種別情報の間の相違度に基づいて決定される。更に、前記合計相違度に基づいて前記ローカル量子回路のパラメータを調整することにより、トレーニングデータとする前記状態情報を調整する。即ち、前記量子デバイスは、前記古典デバイスのフィートバック情報に基づき、ローカル量子回路のパラメータを調整し、さらに、トレーニングデータを調整するので、後続する古典ニューラルネットワークをトレーニングするための基礎を築き、量子データセットのデータ型を効率的に識別する基礎を築くことができる。
このように、量子コンピューティングと古典ニューラルネットワーク技術を組み合わせることにより、量子データセットのデータ型を効率的に識別する基礎を築くことができる。
本開示は、量子データの処理方法を更に提供する。具体的には、図2に示すように、当該方法は、ステップS201、ステップS202、ステップS203及びステップS204を含む。
ステップS201においては、量子データセット及び量子データセットのデータ型を特徴付ける種別情報を決定する。
ステップS202においては、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用する。
ステップS203においては、測定により得られた前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとする。
ステップS204においては、前記トレーニングデータを前記古典ニューラルネットワークに入力し、前記古典ニューラルネットワークをトレーニングする。ここで、トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる。
なお、実際の応用においては、本示例は、量子デバイスと古典デバイスを組み合わせることにより実現することができ、例えば、量子コンピューティングに係るステップは、量子デバイスで実行され、古典ニューラルネットワークのトレーニングに係るステップは、古典デバイスで実行される。具体的には、量子デバイスは、量子データセット及び前記量子データセットのデータ型を特徴付ける種別情報を決定し、ローカル量子回路を、前記量子データセットに含まれる量子データ点に作用し、ここで、前記ローカル量子回路は、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られた。古典デバイスは、測定により得られた、前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとし、前記トレーニングデータを前記古典ニューラルネットワークに入力して前記古典ニューラルネットワークをトレーニングする。1つの例においては、当該状態情報は、測定デバイスにより測定により得られ、前記古典デバイスは、測定デバイスから当該状態情報を取得すれば良い。
前記ステップS203は、量子デバイスで実行されても良く、古典デバイスで実行されても良い。例えば、量子デバイスで実行される場合、量子デバイスは、当該状態情報を取得した後、状態情報を古典デバイスに送信することにより、後続するトレーニングのためのデータ準備を行い、又は、当該状態情報は、古典デバイスにより直接に取得され、後続するトレーニングに直接に用いられる。
本開示の前記ローカル量子回路は、パラメータ化された量子回路の中の一部の量子回路であり、即ち、量子データ点に作用する量子回路(即ち、ローカル量子回路)は、前記パラメータ化された量子回路の中の全ての量子ビットを含むのではなく、前記パラメータ化された量子回路の中の一部の量子ビットのみを含む。図3に示すように、パラメータ化された量子回路は、4つの量子ビットを含み、この時、量子ビットq及びqを含む量子回路を、本開示に記載のローカル量子回路とし、当該量子ビットq及びqが含まれるローカル量子回路を、入力した量子データ点に作用することができ、q及びqがローカル量子回路に含まれておらず、よって、グローバル化のパラメータ化された量子回路(図4に示すように、全ての量子ビットを含み、即ち、量子ビットq、q、q及びqを含むグローバル量子回路を、入力された量子データ点に作用する)に比べ、本開示に係る量子ビット又は量子ゲートの数を大幅に減らすことができ、後続するトレーニングプロセスにおけるシステムノイズを大幅に低減し、識別の精度を高める基礎を築くことができる。
本開示においては、前記古典ニューラルネットワークは、古典コンピュータにおいて実行することができる従来の任意のニューラルネットワークであっても良く、本開示は、これに対して制限しない。
このように、本開示は、量子コンピューティングと古典ニューラルネットワーク技術を組み合わせることにより、量子データセットの分類問題を解決し、即ち、トレーニング完成後の古典ニューラルネットワークを利用して処理待ちの量子データセットのデータ型を識別し、分類結果を取得することができる。よって、分類処理を効率的に且つ高精度で実現することができる。
本開示の1つの具体例においては、以下の方式を用いてローカル量子回路を取得することができる。具体的には、前記パラメータ化された量子回路を決定し、前記パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出し、選出された前記一部の量子ビットが含まれている量子回路を前記ローカル量子回路とする。実際の応用においては、ローカル量子回路は、パラメータ化された量子回路に基づいて得られ、パラメータ化された量子回路の一部に属し、さらに、選出された量子ビットを調整することにより、複数の前記状態情報を取得することができ、さらに、複数の前記状態情報をトレーニングデータとすることができるので、後続する古典ニューラルネットワークをトレーニングするためのデータの基礎を築き、量子データセットのデータ型を効率的に識別する基礎を築くことができる。
本開示の1つの具体例においては、前記状態情報が前記古典ニューラルネットワークに入力された後、前記量子データ点のデータ種別を特徴付ける予測情報を出力し、さらに、前記量子データセットの中の全ての量子データ点に対応する予測情報を取得する。実際の応用においては、本開示の実施方式に従って量子データセットに含まれる各量子データ点に対応する状態情報の全てを、前記古典ニューラルネットワークに入力すると、前記量子データセットの中の全ての量子データ点に対応する予測情報を取得することができる。更に、前記古典デバイスは、各前記量子データ点に対応する予測情報と前記種別情報の間の相違度に基づき、合計相違度を取得し、前記合計相違度に基づいて損失関数を決定する。更に、前記古典デバイスは、前記損失関数に基づいて前記古典ニューラルネットワークのパラメータを調整し、前記量子デバイスは、前記損失関数に基づいて前記ローカル量子回路のパラメータを調整し、トレーニングデータとする状態情報を調整することにより、前記古典ニューラルネットワークに対するトレーニングを完成させる。即ち、前記量子デバイス及び古典デバイスは、何れも前記古典デバイスのフィートバック情報に基づき、ローカル量子回路のパラメータ及び古典ニューラルネットワークのパラメータを相応的に調整することにより、トレーニングプロセスを完成させることができる。量子データセットのデータ型を効率的に識別する基礎を築くことができる。
本開示の1つの具体例においては、以下の方式を用いて相違度を取得することもできる。即ち、前記量子データ点に対応する予測情報と前記種別情報の間のクロスエントロピーを計算し、計算により得られたクロスエントロピーを、前記量子データ点に対応する予測情報と前記種別情報の間の相違度とする。例えば、前記古典デバイスは、前記量子データ点に対応する予測情報と前記種別情報の間のクロスエントロピーを計算し、計算により得られたクロスエントロピーを、前記量子データ点に対応する予測情報と前記種別情報の間の相違度とし、さらに、クロスエントロピーに基づいて特徴付ける損失関数を取得する。よって、トレーニングを効率的に行う基礎を築き、量子データセットのデータ型を効率的に識別する基礎を築くことができる。
本開示の1つの具体例においては、前記古典ニューラルネットワークのトレーニングが完了され、ローカル量子回路に基づいてパラメータが調整された後、当該古典ニューラルネットワーク及びローカル量子回路を利用して未知のデータ型の量子データに対して分類処理を行うことができる。具体的には、処理待ちの量子データセットを取得し、パラメータの調整の完成後の前記ローカル量子回路を前記処理待ちの量子データセットに作用し、測定により得られた、前記処理待ちの量子データセットの中の量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記ローカル量子回路の中の量子ビットの状態情報を、トレーニング完成後の前記古典ニューラルネットワークに入力し、前記処理待ちの量子データセットのデータ型を特徴付ける予測情報を取得する。例えば、量子デバイスは、処理待ちの量子データセットを取得し、パラメータの調整の完成後の前記ローカル量子回路を前記処理待ちの量子データセットの量子データ点に作用し、次に、測定デバイスは、前記処理待ちの量子データセットの中の量子データ点に作用する前記ローカル量子回路の中の量子ビットの状態情報を測定し、前記古典デバイスは、当該状態情報を取得し、当該ローカル量子回路の中の量子ビットの状態情報を、トレーニング完成後の前記古典ニューラルネットワークに入力し、前記処理待ちの量子データセットのデータ型を特徴付ける予測情報を取得する。よって、量子データセットのデータ型を効率的に識別することができる。
実際の応用においては、量子データセットにおける1つの量子データ点のみに対して取得された予測情報を、当該量子データセットの分類結果とすることができ、又は、量子データセットにおける全ての量子データ点に対応する予測情報に基づき、当該量子データセットの分類結果を決定することができる。本開示は、これに対して制限しない。ここで、古典ニューラルネットワークの予測結果の正確率は、一定の程度に達すれば、1つの量子データ点のみに対して取得された予測情報を、当該量子データセットの分類結果とすることができる。
なお、実際の応用においては、ローカル量子回路のパラメータを調整することは、具体的には、パラメータ化された量子回路から選出された量子ビットを調整することであっても良く、更に、ローカル量子回路に対応する回転角度等を調整することによって、最終的に、パラメータ化された量子回路から指定された量子ビットを選出することを実現する。ここで、当該指定された量子ビットは、パラメータ化された量子回路の中の1つの量子ビットに対応しても良く、複数の量子ビットに対応しても良いが、当該パラメータ化された量子回路の中の一部の量子ビットのみに対応し、全ての量子ビットに対応するものではない。
このように、本開示は、量子コンピューティングと古典ニューラルネットワーク技術を組み合わせることにより、量子データセットの分類問題を解決し、即ち、トレーニング完成後の古典ニューラルネットワークを利用して処理待ちの量子データセットのデータ型を識別し、分類結果を取得することができる。よって、分類処理を効率的に且つ高精度で実現することができる。
以下、具体例を参照しながら、本開示の技術案を更に詳しく説明する。具体的には、本例は、量子デバイスが提供するローカルパラメータ化された量子回路(即ち、ローカル量子回路)(Local quantum circuit、量子回路において選出された量子ビットのみに作用する)を利用し、古典ニューラルネットワークのデータ処理能力と合わせて測定量子システムが出力する中間情報に対して後加工処理(post−processing)を行うことにより、量子データセットを分類する分類結果を最適化する。ここで、本例に使用されるローカルパラメータ化された量子回路の構造は、事前に量子ハードウェアデバイスの制限に従って設計することができ、最近の量子デバイスにより適用できる。よく使われる従来のグローバル化量子回路に比べ、本例に係る量子ビット又は量子ゲートの数を大幅に減らし、トレーニングプロセスにおけるシステムノイズを更に低減することができる。同時に、本例は、複数の量子データセットを分類するマルチ分類問題に簡単に対応することができる。
また、本例は、古典ニューラルネットワークに類似する活性化関数を更に設定し、例えば、Softmax関数であり、実際のラベル(即ち、量子データセットの実際の種別情報)と古典ニューラルネットワークにより出力された当該量子データセットの予測ラベルとの間のクロスエントロピー(cross entropy)を損失関数とし、当該損失関数に基づいてローカルパラメータ化された量子回路及び/又は古典ニューラルネットワークのパラメータを最適化し、分類結果の正確性の向上を実現する。
なお、ローカルパラメータ化された量子回路は、パラメータ化された量子回路の中の一部の量子ビットを指す。図3に示すように、パラメータ化された量子回路は、4つの量子ビットを含み、この時、量子ビットq及びqを含む量子回路を、本開示に記載のローカル量子回路とし、当該量子ビットq及びqが含まれるローカル量子回路を、入力した量子データ点に作用することができ、q及びqがローカル量子回路に含まれていない。対応的に、グローバルパラメータ化された量子回路は、当該パラメータ化された量子回路の中の全ての量子ビットを含む。図4に示すように、パラメータ化された量子回路は、4つの量子ビットを含み、この時、全ての量子ビットを含み、即ち、量子ビットq、q、q及びqを含むグローバル量子回路は、入力された量子データ点に作用する。
Figure 2021193615
Figure 2021193615
図5に示すように、具体的な実現フローチャートは、次の通りである。
Figure 2021193615
Figure 2021193615
Figure 2021193615
ここで、iは、通常、経験値であり、実際のシナリオ又は実際に処理する必要のある量子ビットセットにより決定することができ、本開示は、これについて制限しない。
Figure 2021193615
Figure 2021193615
Figure 2021193615
Figure 2021193615
Figure 2021193615
なお、実際の応用においては、量子データに係る処理プロセスは、量子デバイスで実行され、古典ニューラルネットワークに係る処理プロセスは、古典デバイスで実行され、例えば、古典コンピュータである。このように、量子コンピューティングと古典ニューラルネットワーク技術を組み合わせることにより、量子データセットのデータ型を効率的に識別することができる。
なお、上述した方式で取得された分類器による手書き数字認識の2分類タスクの精度は、99.5%以上に達することができる。
本開示は、最近の量子デバイスが提供するパラメータ化された量子回路を十分に利用することができ、ローカル化のパラメータ化された量子回路の量子データ特徴を効率的に抽出する能力と古典ニューラルネットワークのデータ処理能力を組み合わせることにより、量子データセットの分類問題を処理する。また、設計された、最近の量子デバイスで効率よく計算することが可能な損失関数に基づき、分類処理を効率的に且つ高精度で行うことを実現することができる。また、本開示に用いられるローカル量子回路のパラメータは、非常に少なくても良いので、分類処理を行う際のノイズを低減でき、分類結果の精度を高めるための基礎を築くことができる。
本開示は、量子デバイスを提供する。図6に示すように、当該量子デバイスは、情報決定ユニット601、回路処理ユニット602及び測定ユニット603を備える。
情報決定ユニット601は、量子データセット及び量子データセットのデータ型を特徴付ける種別情報を決定することに用いられる。
回路処理ユニット602は、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用することに用いられる。
測定ユニット603は、測定により得られた前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとすることに用いられる。ここで、トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる。
本開示の1つの具体例においては、選出ユニットを更に備える。
前記選出ユニットは、前記パラメータ化された量子回路を決定し、前記パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出し、選出された前記一部の量子ビットが含まれている量子回路を前記ローカル量子回路とすることに用いられる。ここで、選出された量子ビットを調整することで複数の前記状態情報を取得することができる。
本開示の1つの具体例においては、相違度取得ユニット及びパラメータ調整ユニットを更に備える。
前記相違度取得ユニットは、前記量子データセットの中の全ての量子データ点に対応する予測情報と前記種別情報の間の合計相違度を取得することに用いられる。ここで、前記予測情報は、前記古典ニューラルネットワークから出力され、前記量子データ点のデータ種別を特徴付けることに用いられ、前記合計相違度は、前記量子データセットの中の各前記量子データ点に対応する予測情報と前記種別情報の間の相違度に基づいて決定される。
前記パラメータ調整ユニットは、前記合計相違度に基づいて前記ローカル量子回路のパラメータを調整することにより、トレーニングデータとする前記状態情報を調整することに用いられる。
本開示は、量子データ処理のためのコンピューティングデバイスを更に提供する。図7に示すように、当該コンピューティングデバイスは、量子データ処理ユニット701、量子回路測定ユニット702及び古典データ処理ユニット703を備える。
量子データ処理ユニット701は、量子データセット及び量子データセットのデータ型を特徴付ける種別情報を決定し、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用することに用いられる。
量子回路測定ユニット702は、測定により得られた前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとすることに用いられる。
古典データ処理ユニット703は、前記トレーニングデータを前記古典ニューラルネットワークに入力し、前記古典ニューラルネットワークをトレーニングすることに用いられる。ここで、トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる。
本開示の1つの具体例においては、前記量子データ処理ユニット701は、前記パラメータ化された量子回路を決定し、前記パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出し、選出された前記一部の量子ビットが含まれている量子回路を前記ローカル量子回路とすることに更に用いられる。ここで、選出された量子ビットを調整することで複数の前記状態情報を取得することができる。
本開示の1つの具体例においては、前記古典データ処理ユニット703は、前記トレーニングデータが前記古典ニューラルネットワークに入力された後、前記量子データ点のデータ種別を特徴付ける予測情報を出力することにより、前記量子データセットの中の全ての量子データ点に対応する予測情報を取得し、各前記量子データ点に対応する予測情報と前記種別情報の間の相違度に基づいて合計相違度を取得し、前記合計相違度に基づいて損失関数を決定することにより、前記損失関数に基づいて前記古典ニューラルネットワークのパラメータを調整し、前記古典ニューラルネットワークに対するトレーニングを完成させることに更に用いられる。
前記量子データ処理ユニットは、前記損失関数に基づいて前記ローカル量子回路のパラメータを調整することにより、前記古典ニューラルネットワークに対するトレーニングを完成させることに更に用いられる。
本開示の1つの具体例においては、前記古典データ処理ユニット703は、前記量子データ点に対応する予測情報と前記種別情報の間のクロスエントロピーを計算し、計算により得られたクロスエントロピーを、前記量子データ点に対応する予測情報と前記種別情報の間の相違度とすることに更に用いられる。
本開示の1つの具体例においては、前記量子データ処理ユニット701は、処理待ちの量子データセットを取得し、パラメータの調整が完了した後の前記ローカル量子回路を、前記処理待ちの量子データセットに作用することに更に用いられる。
前記量子回路測定ユニット702は、測定により得られた、前記処理待ちの量子データセットの中の量子データ点に作用した後の前記ローカル量子回路の中の量子ビットの状態情報を取得することに更に用いられる。
前記古典データ処理ユニット703は、前記ローカル量子回路の中の量子ビットの状態情報を、トレーニング完成後の前記古典ニューラルネットワークに入力することにより、前記処理待ちの量子データセットのデータ型を特徴付ける予測情報を取得することに更に用いられる。
なお、実際の応用においては、当該量子データ処理ユニット701は、量子デバイスであっても良く、当該量子回路測定ユニット702は、具体的には、測定デバイスであっても良く、古典データ処理ユニット703は、古典デバイスであっても良く、例えば、古典コンピュータ等である。
本開示によれば、量子コンピューティングと古典ニューラルネットワーク技術を組み合わせることにより、量子データセットの分類問題を解決し、即ち、トレーニング完成後の古典ニューラルネットワークを利用して処理待ちの量子データセットのデータ型を識別し、分類結果を取得することができる。よって、分類処理を効率的に且つ高精度で実現することができる。
上述した様々な形式のプロセスを用いて、順序を変えたり、ステップを追加または削除したりすることができることが理解されるべきである。例えば、本開示に記載の各ステップは、並行して実行されてもよく、順次実行されてもよく、異なる順序で実行されてもよく、本開示に開示された技術案の所望の結果が達成される限り、限定はしない。
上記の具体的な実施形態は、本開示の保護範囲の制限を構成するものではない。設計要件及び他の要因に応じて、様々な変更、組み合わせ、サブ組み合わせ及び置換が行われ得ることは、当業者によって理解されるべきである。本開示の要旨及び原則の範囲内で行われる如何なる修正、同等の代替、改良等は、全て本開示の保護範囲に含まれる。

Claims (18)

  1. 量子データセット及び前記量子データセットのデータ型を特徴付ける種別情報を決定することと、
    パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用することと、
    測定により得られた、前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとすることと、
    を含み、
    トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる、
    ことを特徴とする量子データの処理方法。
  2. 前記パラメータ化された量子回路を決定し、前記パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出し、選出された前記一部の量子ビットが含まれている量子回路を前記ローカル量子回路とすることをさらに含み、
    選出された量子ビットを調整することで複数の前記状態情報を取得することができる、
    ことを特徴とする請求項1に記載の量子データの処理方法。
  3. 前記量子データセットの中の全ての量子データ点に対応する予測情報と前記種別情報の間の合計相違度を取得することと、
    前記合計相違度に基づいて前記ローカル量子回路のパラメータを調整することにより、トレーニングデータとする前記状態情報を調整することと、
    をさらに含み、
    前記予測情報は、前記古典ニューラルネットワークから出力され、前記量子データ点のデータ種別を特徴付けることに用いられ、
    前記合計相違度は、前記量子データセットの中の各前記量子データ点に対応する予測情報と前記種別情報の間の相違度に基づいて決定される、
    ことを特徴とする請求項1又は2に記載の量子データの処理方法。
  4. 量子データセット及び前記量子データセットのデータ型を特徴付ける種別情報を決定することと、
    パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用することと、
    測定により得られた前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとすることと、
    前記トレーニングデータを前記古典ニューラルネットワークに入力し、前記古典ニューラルネットワークをトレーニングすることと、
    を含み、
    トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる、
    ことを特徴とする量子データの処理方法。
  5. 前記パラメータ化された量子回路を決定し、前記パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出し、選出された前記一部の量子ビットが含まれている量子回路を前記ローカル量子回路とすることをさらに含み、
    選出された量子ビットを調整することで複数の前記状態情報を取得することができる、
    ことを特徴とする請求項4に記載の量子データの処理方法。
  6. 前記トレーニングデータが前記古典ニューラルネットワークに入力された後、前記量子データ点のデータ種別を特徴付ける予測情報を出力することにより、前記量子データセットの中の全ての量子データ点に対応する予測情報を取得することと、
    各前記量子データ点に対応する予測情報と前記種別情報の間の相違度に基づいて合計相違度を取得することと、
    前記合計相違度に基づいて損失関数を決定し、前記損失関数に基づいて前記古典ニューラルネットワークのパラメータ及び前記ローカル量子回路のパラメータを調整することにより、前記古典ニューラルネットワークに対するトレーニングを完成させることと、
    をさらに含む、
    ことを特徴とする請求項4又は5に記載の量子データの処理方法。
  7. 前記量子データ点に対応する予測情報と前記種別情報の間のクロスエントロピーを計算し、計算により得られたクロスエントロピーを、前記量子データ点に対応する予測情報と前記種別情報の間の相違度とすることをさらに含む、
    とを特徴とする請求項6に記載の量子データの処理方法。
  8. 処理待ちの量子データセットを取得することと、
    パラメータの調整が完了した後の前記ローカル量子回路を、前記処理待ちの量子データセットに作用することと、
    測定により得られた、前記処理待ちの量子データセットの中の量子データ点に作用した後の前記ローカル量子回路の中の量子ビットの状態情報を取得することと、
    前記ローカル量子回路の中の量子ビットの状態情報を、トレーニング完成後の前記古典ニューラルネットワークに入力することにより、前記処理待ちの量子データセットのデータ型を特徴付ける予測情報を取得することと、
    をさらに含む、
    ことを特徴とする請求項4に記載の量子データの処理方法。
  9. 量子データセット及び前記量子データセットのデータ型を特徴付ける種別情報を決定する情報決定ユニットと、
    パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用する回路処理ユニットと、
    測定により得られた、前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとする測定ユニットと、
    を備え、
    トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる、
    ことを特徴とする量子デバイス。
  10. 前記パラメータ化された量子回路を決定し、前記パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出し、選出された前記一部の量子ビットが含まれている量子回路を前記ローカル量子回路とする選出ユニットをさらに備え、
    選出された量子ビットを調整することで複数の前記状態情報を取得することができる、
    ことを特徴とする請求項9に記載の量子デバイス。
  11. 前記量子データセットの中の全ての量子データ点に対応する予測情報と前記種別情報の間の合計相違度を取得する相違度取得ユニットと、
    前記合計相違度に基づいて前記ローカル量子回路のパラメータを調整することにより、トレーニングデータとする前記状態情報を調整するパラメータ調整ユニットと、
    をさらに備え、
    前記予測情報は、前記古典ニューラルネットワークから出力され、前記量子データ点のデータ種別を特徴付けることに用いられ、
    前記合計相違度は、前記量子データセットの中の各前記量子データ点に対応する予測情報と前記種別情報の間の相違度に基づいて決定される、
    ことを特徴とする請求項9又は10に記載の量子デバイス。
  12. 量子データセット及び前記量子データセットのデータ型を特徴付ける種別情報を決定し、パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出して得られたローカル量子回路を、前記量子データセットに含まれる量子データ点に作用する量子データ処理ユニットと、
    測定により得られた、前記量子データ点に作用された後の前記ローカル量子回路の中の量子ビットの状態情報を取得し、前記状態情報及び前記種別情報を、古典ニューラルネットワークをトレーニングするためのトレーニングデータとする量子回路測定ユニットと、
    前記トレーニングデータを前記古典ニューラルネットワークに入力し、前記古典ニューラルネットワークをトレーニングする古典データ処理ユニットと、
    を備え、
    トレーニング完成後の前記古典ニューラルネットワークを用いて処理待ちの量子データセットのデータ型を識別することができる、
    ことを特徴とする量子データ処理に用いるコンピューティングデバイス。
  13. 前記量子データ処理ユニットは、前記パラメータ化された量子回路を決定し、前記パラメータ化された量子回路に含まれる複数の量子ビットから一部の量子ビットを選出し、選出された前記一部の量子ビットが含まれている量子回路を前記ローカル量子回路とすることにさらに用いられ、
    選出された量子ビットを調整することで複数の前記状態情報を取得することができる、
    ことを特徴とする請求項12に記載の量子データ処理に用いるコンピューティングデバイス。
  14. 前記古典データ処理ユニットは、前記トレーニングデータが前記古典ニューラルネットワークに入力された後、前記量子データ点のデータ種別を特徴付ける予測情報を出力することにより、前記量子データセットの中の全ての量子データ点に対応する予測情報を取得し、各前記量子データ点に対応する予測情報と前記種別情報の間の相違度に基づいて合計相違度を取得し、前記合計相違度に基づいて損失関数を決定し、前記損失関数に基づいて前記古典ニューラルネットワークのパラメータを調整することにより、前記古典ニューラルネットワークに対するトレーニングを完成させることにさらに用いられ、
    前記量子データ処理ユニットは、前記損失関数に基づいて前記ローカル量子回路のパラメータを調整することにより、前記古典ニューラルネットワークに対するトレーニングを完成させることにさらに用いられる、
    ことを特徴とする請求項12又は13に記載の量子データ処理に用いるコンピューティングデバイス。
  15. 前記古典データ処理ユニットは、前記量子データ点に対応する予測情報と前記種別情報の間のクロスエントロピーを計算し、計算により得られたクロスエントロピーを、前記量子データ点に対応する予測情報と前記種別情報の間の相違度とすることにさらに用いられる、
    ことを特徴とする請求項14に記載の量子データ処理に用いるコンピューティングデバイス。
  16. 前記量子データ処理ユニットは、処理待ちの量子データセットを取得し、パラメータの調整が完了した後の前記ローカル量子回路を、前記処理待ちの量子データセットに作用することにさらに用いられ、
    前記量子回路測定ユニットは、測定により得られた、前記処理待ちの量子データセットの中の量子データ点に作用した後の前記ローカル量子回路の中の量子ビットの状態情報を取得することにさらに用いられ、
    前記古典データ処理ユニットは、前記ローカル量子回路の中の量子ビットの状態情報を、トレーニング完成後の前記古典ニューラルネットワークに入力することにより、前記処理待ちの量子データセットのデータ型を特徴付ける予測情報を取得することにさらに用いられる、
    ことを特徴とする請求項14に記載の量子データ処理に用いるコンピューティングデバイス。
  17. 前記コンピュータに請求項1〜9のいずれか一項に記載の量子データの処理方法を実行させるための命令が記憶されている非一時的なコンピュータ可読記憶媒体。
  18. コンピュータにおいて、プロセッサにより実行される場合、請求項1〜9のいずれか一項に記載の量子データの処理方法を実現することを特徴とするプログラム。
JP2021153717A 2020-11-18 2021-09-22 量子データの処理方法、量子デバイス、コンピューティングデバイス、記憶媒体、及びプログラム Pending JP2021193615A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011297757.3A CN112418387A (zh) 2020-11-18 2020-11-18 量子数据处理方法及设备
CN202011297757.3 2020-11-18

Publications (1)

Publication Number Publication Date
JP2021193615A true JP2021193615A (ja) 2021-12-23

Family

ID=74774536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021153717A Pending JP2021193615A (ja) 2020-11-18 2021-09-22 量子データの処理方法、量子デバイス、コンピューティングデバイス、記憶媒体、及びプログラム

Country Status (4)

Country Link
US (1) US20220036231A1 (ja)
JP (1) JP2021193615A (ja)
CN (1) CN112418387A (ja)
AU (1) AU2021245165B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011593B (zh) * 2021-03-15 2021-11-02 北京百度网讯科技有限公司 消除量子测量噪声的方法及系统、电子设备和介质
CN113449778B (zh) * 2021-06-10 2023-04-21 北京百度网讯科技有限公司 用于量子数据分类的模型训练方法以及量子数据分类方法
CN113379059B (zh) * 2021-06-10 2022-09-23 北京百度网讯科技有限公司 用于量子数据分类的模型训练方法以及量子数据分类方法
WO2023125857A1 (zh) * 2021-12-30 2023-07-06 本源量子计算科技(合肥)股份有限公司 基于机器学习框架系统的模型训练方法及相关设备
CN116227607B (zh) * 2023-02-20 2023-09-26 北京百度网讯科技有限公司 量子电路的分类方法、装置、电子设备、介质和产品
CN116502726B (zh) * 2023-06-28 2023-09-19 深圳市爱云信息科技有限公司 基于量子芯片的数据存储系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019143680A1 (en) * 2018-01-18 2019-07-25 Google Llc Classification using quantum neural networks
JP2019526096A (ja) * 2016-06-07 2019-09-12 ディー−ウェイブ システムズ インコーポレイテッド 量子プロセッサトポロジ用のシステム及び方法
US20200342293A1 (en) * 2019-04-23 2020-10-29 International Business Machines Corporation Quantum computational method and device
US20200349050A1 (en) * 2019-05-02 2020-11-05 1Qb Information Technologies Inc. Method and system for estimating trace operator for a machine learning task

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103840936B (zh) * 2014-02-28 2018-02-09 山东量子科学技术研究院有限公司 量子密码网络可靠加密传输系统及方法
US10977546B2 (en) * 2017-11-29 2021-04-13 International Business Machines Corporation Short depth circuits as quantum classifiers
TW202007091A (zh) * 2018-07-02 2020-02-01 美商札帕塔運算股份有限公司 藉由量子自動編碼器進行之壓縮的無監督量子態準備
US11244231B2 (en) * 2018-09-05 2022-02-08 Siemens Aktiengesellschaft Quantum-machine training of knowledge graphs
WO2020263301A1 (en) * 2019-06-28 2020-12-30 Google Llc Parallel cross entropy benchmarking
CN110674921A (zh) * 2019-07-11 2020-01-10 中国科学技术大学 构建基于经典训练的量子前馈神经网络的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019526096A (ja) * 2016-06-07 2019-09-12 ディー−ウェイブ システムズ インコーポレイテッド 量子プロセッサトポロジ用のシステム及び方法
WO2019143680A1 (en) * 2018-01-18 2019-07-25 Google Llc Classification using quantum neural networks
US20200342293A1 (en) * 2019-04-23 2020-10-29 International Business Machines Corporation Quantum computational method and device
US20200349050A1 (en) * 2019-05-02 2020-11-05 1Qb Information Technologies Inc. Method and system for estimating trace operator for a machine learning task

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MAXWELL HENDERSON: "Quanvolutional Neural Networks: Powering Image Recognition with Quantum Circuits", ARXIV, JPN6022044177, 9 April 2019 (2019-04-09), pages 1 - 7, ISSN: 0005064294 *
SUKIN SIM ET AL.: "Expressibility and entangling capability of parameterized quantum circuits for hybrid quantum-classi", ARXIV, JPN6023020713, 26 May 2019 (2019-05-26), pages 1 - 18, ISSN: 0005064295 *

Also Published As

Publication number Publication date
AU2021245165B2 (en) 2023-10-05
AU2021245165A1 (en) 2021-10-21
CN112418387A (zh) 2021-02-26
US20220036231A1 (en) 2022-02-03

Similar Documents

Publication Publication Date Title
JP2021193615A (ja) 量子データの処理方法、量子デバイス、コンピューティングデバイス、記憶媒体、及びプログラム
US11720822B2 (en) Gradient-based auto-tuning for machine learning and deep learning models
JP6182242B1 (ja) データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム
US11741361B2 (en) Machine learning-based network model building method and apparatus
WO2019218748A1 (zh) 一种保险业务风险预测的处理方法、装置及处理设备
US20190279088A1 (en) Training method, apparatus, chip, and system for neural network model
CN109558945A (zh) 对人工神经网络及浮点神经网络进行量化的方法及装置
US20180365557A1 (en) Information processing method and information processing apparatus
WO2020154830A1 (en) Techniques to detect fusible operators with machine learning
CN109583561B (zh) 一种深度神经网络的激活量量化方法及装置
Le et al. Dual space gradient descent for online learning
US20210004727A1 (en) Hyper-parameter tuning method for machine learning algorithms using pattern recognition and reduced search space approach
CN113379059B (zh) 用于量子数据分类的模型训练方法以及量子数据分类方法
JP2016105232A (ja) 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体
CN111242158A (zh) 神经网络训练方法、图像处理方法及装置
CN110705889A (zh) 一种企业筛选方法、装置、设备及存储介质
CN113449778B (zh) 用于量子数据分类的模型训练方法以及量子数据分类方法
CN114611609A (zh) 一种图网络模型节点分类方法、装置、设备及存储介质
JP2017538226A (ja) スケーラブルなウェブデータの抽出
CN108921216B (zh) 一种图像分类模型的处理方法、装置及存储介质
CN108573059B (zh) 一种基于特征采样的时间序列分类方法及装置
CN111507195A (zh) 虹膜分割神经网络模型的训练方法、虹膜分割方法及装置
WO2022198477A1 (zh) 分类模型增量学习实现方法、装置、电子设备及介质
CN116611001B (zh) 基于多维自适应增量图的近红外光谱数据分类方法
Zafar et al. An Optimization Approach for Convolutional Neural Network Using Non-Dominated Sorted Genetic Algorithm-II.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231213