DE112017008151T5 - Schaltungen geringer tiefe als quantenklassifikatoren - Google Patents

Schaltungen geringer tiefe als quantenklassifikatoren Download PDF

Info

Publication number
DE112017008151T5
DE112017008151T5 DE112017008151.3T DE112017008151T DE112017008151T5 DE 112017008151 T5 DE112017008151 T5 DE 112017008151T5 DE 112017008151 T DE112017008151 T DE 112017008151T DE 112017008151 T5 DE112017008151 T5 DE 112017008151T5
Authority
DE
Germany
Prior art keywords
quantum
computer
data processing
processing system
shallow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017008151.3T
Other languages
English (en)
Inventor
Jay Gambetta
Vojtech Havlicek
Paul Kristan Temme
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112017008151T5 publication Critical patent/DE112017008151T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • G06F15/80Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/30007Arrangements for executing specific machine instructions to perform operations on data operands
    • G06F9/3001Arithmetic instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)
  • Superconductor Devices And Manufacturing Methods Thereof (AREA)

Abstract

Ein System weist Quantenhardware, einen Hauptspeicher, in dem durch einen Computer ausführbare Komponenten gespeichert sind, und einen Prozessor auf, der durch einen Computer ausführbare Komponenten ausführt, die im Hauptspeicher gespeichert sind. Die durch einen Computer ausführbaren Komponenten weisen eine Kalibrierungskomponente auf, die Quantenhardware kalibriert, um eine Quantenschaltung geringer Tiefe zu erzeugen. Die durch einen Computer ausführbaren Komponenten weisen ferner eine Aufwandsfunktionskomponente auf, die auf der Grundlage eines Anfangswerts für einen Parameter eines Klassifikators für maschinelles Lernen eine Aufwandsfunktion für die Quantenschaltung geringer Tiefe ermittelt. Die durch einen Computer ausführbaren Komponenten weisen ferner eine Trainingskomponente auf, die auf der Grundlage der Aufwandsfunktion für die Quantenschaltung geringer Tiefe den Anfangswert für den Parameter während des Trainings in einen zweiten Wert für den Parameter ändert.

Description

  • HINTERGRUND
  • Die vorliegende Erfindung betrifft ein Realisieren von Schaltungen geringer Tiefe als Quantenklassifikatoren.
  • KURZDARSTELLUNG
  • Die folgende Kurzdarstellung dient zur Vermittlung eines grundlegenden Verständnisses einer oder mehrere Ausführungsformen der Erfindung. Mit dieser Kurzdarstellung ist nicht beabsichtigt, wichtige oder entscheidende Elemente zu benennen oder einen beliebigen Schutzbereich der betreffenden Ausführungsformen oder einen beliebigen Schutzbereich der Ansprüche zu skizzieren. Ihr ausschließlicher Zweck besteht darin, Konzepte in einer vereinfachten Form als Einleitung der danach folgenden ausführlicheren Beschreibung vorzustellen. Bei einer oder mehreren Ausführungsformen dienen Systeme, mittels Computer realisierte Verfahren, Vorrichtungen und/oder Computerprogrammprodukte zur Verbesserung der Effizienz von Klassifikatoren beim maschinellen Lernen.
  • Gemäß einer Ausführungsform wird ein System bereitgestellt, das Quantenhardware aufweist, einen Hauptspeicher, in dem durch einen Computer ausführbare Komponenten gespeichert sind, und einen Prozessor, der durch einen Computer ausführbare Komponenten ausführt, die im Hauptspeicher gespeichert sind. Bei einer oder mehreren Ausführungsformen weisen die durch einen Computer ausführbaren Komponenten eine Kalibrierungskomponente auf, die Quantenhardware kalibriert, um eine Quantenschaltung geringer Tiefe zu erzeugen. Die durch einen Computer ausführbaren Komponenten weisen ferner eine Aufwandsfunktionskomponente auf, die auf der Grundlage eines Anfangswerts für einen Parameter eines Klassifikators für maschinelles Lernen eine Aufwandsfunktion für die Quantenschaltung geringer Tiefe ermittelt. Die durch einen Computer ausführbaren Komponenten weisen ferner eine Trainingskomponente auf, die auf der Grundlage der Aufwandsfunktion für die Quantenschaltung geringer Tiefe den Anfangswert für den Parameter während des Trainings in einen zweiten Wert für den Parameter ändert.
  • Bei einer weiteren Ausführungsform wird ein mittels Computer realisiertes Verfahren bereitgestellt. Bei einem Beispiel weist das mittels Computer realisierte Verfahren ein Kalibrieren von Quantenhardware durch ein funktionsmäßig mit einem Prozessor verbundenes System auf, um eine Quantenschaltung geringer Tiefe zu erzeugen. Das mittels Computer realisierte Verfahren kann ferner aufweisen, dass das System auf der Grundlage eines Anfangswerts für einen Parameter eines Klassifikators für maschinelles Lernen eine erste Aufwandsfunktion für die Quantenschaltung geringer Tiefe ermittelt. Das mittels Computer realisierte Verfahren kann ferner aufweisen, dass das System auf der Grundlage der ersten Aufwandsfunktion für die Quantenschaltung geringer Tiefe den Anfangswert für den Parameter während des Trainings in einen zweiten Wert für den Parameter ändert.
  • Bei einer weiteren Ausführungsform wird ein Computerprogrammprodukt bereitgestellt, wobei das Computerprogrammprodukt ein durch einen Computer lesbares Speichermedium aufweist, auf dem darauf verkörperte Programmanweisungen gespeichert sind. Die durch einen Prozessor ausführbaren Programmanweisungen bewirken, dass der Prozessor zumindest Quantenhardware kalibriert, um eine Quantenschaltung geringer Tiefe zu erzeugen. Die durch einen Prozessor ausführbaren Programmanweisungen bewirken ferner, dass der Prozessor auf der Grundlage eines Anfangswerts für einen Parameter des Klassifikators für maschinelles Lernen zumindest eine Aufwandsfunktion für die Quantenschaltung geringer Tiefe ermittelt. Die durch einen Prozessor ausführbaren Programmanweisungen bewirken ferner, dass der Prozessor auf der Grundlage der Aufwandsfunktion für die Quantenschaltung geringer Tiefe zumindest den Anfangswert für den Parameter während des Trainings in einen zweiten Wert für den Parameter ändert.
  • Figurenliste
    • 1 veranschaulicht ein beispielhaftes, nicht einschränkendes Quantendatenverarbeitungssystem für Schaltungen geringer Tiefe als Quantenklassifikatoren, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen realisiert werden kann.
    • 2 veranschaulicht ein Blockschema eines beispielhaften, nicht einschränkenden Systems, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen das Realisieren von Schaltungen geringer Tiefe als Quantenklassifikatoren ermöglicht.
    • 3 veranschaulicht ein Flussdiagramm eines beispielhaften, nicht einschränkenden, mittels Computer realisierten Verfahrens, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen das Realisieren von Schaltungen geringer Tiefe als Quantenklassifikatoren während einer Trainingsphase ermöglicht.
    • 4 veranschaulicht ein Flussdiagramm eines beispielhaften, nicht einschränkenden, mittels Computer realisierten Verfahrens, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ein Realisieren von Schaltungen geringer Tiefe als Quantenklassifikatoren während einer Klassifizierungsphase ermöglicht.
    • 5 veranschaulicht eine Schaltungsdarstellung einer beispielhaften, nicht einschränkenden hardwareeffizienten Quantenschaltung geringer Tiefe, die verwendet werden kann, um gemäß einer oder mehreren hierin beschriebenen Ausführungsformen Schaltungen geringer Tiefe als Quantenklassifikatoren zu realisieren.
    • 6 veranschaulicht ein beispielhaftes, nicht einschränkendes Diagramm, das zeigt, wie sich eine Aufwandsfunktion in Bezug auf eine Anzahl von Ausführungen der Schaltungen geringer Tiefe als Quantenklassifikatoren gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ändert.
    • 7 veranschaulicht beispielhafte, nicht einschränkende Diagramme, die gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ein Betriebsverhalten von Schaltungen geringer Tiefe als Quantenklassifikatoren in einem Beispiel mit drei Markierungen zeigen, wobei die Proben aus drei gut voneinander getrennten Normalverteilungen entnommen wurden.
    • 8 veranschaulicht beispielhafte, nicht einschränkende Diagramme, die gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ein Betriebsverhalten von Schaltungen geringer Tiefe als Quantenklassifikatoren in einem Beispiel mit drei Markierungen zeigen, wobei die Proben aus drei gespreizten Normalverteilungen entnommen wurden.
    • 9 veranschaulicht beispielhafte, nicht einschränkende Diagramme, die gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ein Betriebsverhalten von Schaltungen geringer Tiefe als Quantenklassifikatoren in einem Beispiel mit drei Markierungen zeigen, wobei die Proben aus drei gespreizten Normalverteilungen entnommen wurden und im Vergleich zu 8 zusätzliche Ebenen verwendet werden.
    • 10 veranschaulicht beispielhafte, nicht einschränkende Diagramme, die gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ein Betriebsverhalten von Schaltungen geringer Tiefe als Quantenklassifikatoren in einem Beispiel mit drei Markierungen zeigen, wobei es sich bei den Proben nicht um Normalverteilungen handelt.
    • 11 veranschaulicht ein Flussdiagramm eines beispielhaften, nicht einschränkenden, mittels Computer realisierten Verfahrens, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen das Realisieren von Schaltungen geringer Tiefe als Quantenklassifikatoren ermöglicht.
    • 12 veranschaulicht ein Blockschema einer beispielhaften, nicht einschränkenden Betriebsumgebung, die eine oder mehrere hierin beschriebene Ausführungsformen ermöglicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende ausführliche Beschreibung dient lediglich der Veranschaulichung und soll Ausführungsformen und/oder Anwendung oder Verwendungen von Ausführungsformen nicht einschränken. Des Weiteren besteht keine Absicht, durch beliebige ausdrücklich oder stillschweigend eingeschlossene Informationen gebunden zu sein, die in den vorstehenden Abschnitten „Hintergrund“ oder „Kurzdarstellung“ oder im Abschnitt „Ausführliche Beschreibung“ angegeben sind.
  • Die Offenbarung des Gegenstands ist auf Computerverarbeitungssysteme, mittels Computer realisierte Verfahren, Vorrichtungen und/oder Computerprogrammprodukte gerichtet, die das Realisieren von Schaltungen geringer Tiefe als Quantenklassifikatoren ermöglichen. Die Offenbarung des Gegenstands kann sowohl Quantendatenverarbeitung als auch maschinelles Lernen nutzen.
  • Bei der Quantendatenverarbeitung kann es sich allgemein um die Verwendung quantenmechanischer Erscheinungen beim Durchführen von Datenverarbeitungsaufgaben handeln. Die Erforschung der Quantendatenverarbeitung hat zu mehreren Algorithmen geführt, die im Vergleich zu den besten klassischen Gegenstücken der Quantendatenverarbeitung exponentielle Geschwindigkeitssteigerungen bieten. Ein Teil der Erforschung der Quantendatenverarbeitung kann sich auf die Entwicklung neuer Algorithmen mit Anwendungsmöglichkeiten in der Praxis konzentrieren. Darüber hinaus kann maschinelles Lernen allgemein bei der Entwicklung von Datenverarbeitungssystemen eingesetzt werden, die erlernen können, eine bestimmte Aufgabe (wie z.B. Klassifizieren von Eingabedaten) durchzuführen, ohne ausdrücklich zum Durchführen dieser bestimmten Aufgabe programmiert zu sein.
  • Auf der Grundlage des Vorstehenden kann untersucht werden, ob Quantenalgorithmen vorliegen, die Geschwindigkeitssteigerungen bei Problemen bereitstellen können, die beim maschinellen Lernen von Bedeutung sind. Diese Überschneidung zwischen maschinellem Lernen und Quantendatenverarbeitung kann als „quantenbasiertes maschinelles Lernen“ bezeichnet werden.
  • Schaltungen geringer Tiefe können effizient auf einem Quantencomputer erzeugt werden. Zum Beispiel können Variationsversuchszustände (VQE) durch unitäre Quantenschaltungen erzeugt werden, die bei einem Hybridansatz aus Quantendatenverarbeitung und klassischer Datenverarbeitung optimiert werden können. Hierbei kann der Quantencomputer verwendet werden, um die Ausgabe und Proben aus den Quantenschaltungen auszuwerten. Gleichzeitig ist es möglich, Klassifizierungsprobleme beim maschinellen Lernen im Hinblick auf Quanten-Optimierungsprobleme zu beschreiben.
  • Unter den hierin beschriebenen Techniken gibt es zwei Situationen, in denen es sich beim zugrunde liegenden Thema um eine Klassifizierungsaufgabe handelt. Diese beiden Lernaufgaben können unter Verwendung der Optimierung hardwareeffizienter Quantenschaltungen geringer Tiefe gelöst werden. Eine dieser Lernaufgaben umfasst ein Erlernen einer Unterscheidungsmessung, wenn bezeichnete Proben unterschiedlicher Quantenzustände vorliegen. Durch die Unterscheidungsmessung werden mit hoher Wahrscheinlichkeit die Proben aus der Quantenverteilung bei einer einzelnen Ausführung unterschieden. Eine weitere dieser Lernaufgaben umfasst das Klassifizieren von Zuständen oder Proben, wenn mehrere Messungen vorgenommen werden können.
  • In Bezug auf Klassifizierungsaufgaben wird eine Klassifizierungsaufgabe an einer Menge C = {0,1, 2 ... c - 1} von c Klassen in einem überwachten Lernszenario betrachtet. Bei derartigen Umgebungen liegen eine Trainingsmenge T und eine Testmenge 5 vor, die beide Untermengen T∪S ⊂ Ωeiner n-dimensionalen beschränkten Menge Ω⊂Rn sind und beide durch eine Zuordnung m:T∪S→C bezeichnet sind, die der Einheit unbekannt sein kann, die gerade einen Prozess des maschinellen Lernens entwickelt, um eine derartige Klassifizierung durchzuführen. Obwohl beide Mengen 5 und T bereitgestellt und Bezeichnungen für die Trainingsmenge T bekannt sind, sind Bezeichnungen für den Test 5 im Verlauf des Entwickelns dieses Prozesses des maschinellen Lernens unbekannt. Somit hat der Entwickler lediglich Zugriff auf eine Einschränkung m | T der Indizierungszuordnung m: m | T : T C ,  s .t .:  m | T ( t ) = m ( t ) , t T .
    Figure DE112017008151T5_0001
  • Der Entwickler versucht dann, die Kenntnis von m | T zu verwenden, um eine Indizierungszuordnung m ˜ : S C
    Figure DE112017008151T5_0002
    über die Menge 5 abzuleiten, sodass m ˜ : S C
    Figure DE112017008151T5_0003
    mit hoher Wahrscheinlichkeit für beliebige Mitglieder von S, s, s ∈ S lautet. Die Genauigkeit der Näherung an die Zuordnung kann durch eine Klassifizierungserfolgsquote Vsucc. quantifiziert werden, die proportional zur Anzahl von Kollisionen von m und m̃ ist: ν s u c c . = | { s S | m ( s ) = m ˜ ( s ) } | | S | .
    Figure DE112017008151T5_0004
  • Obwohl eine derartige Lernaufgabe als aussagefähig betrachtet werden kann, kann angenommen werden, dass eine Korrelation bei der Ausgabe der Indizierungszuordnung m über die Mengen 5 und Tvorliegt. Zumindest aus diesem Grund kann angenommen werden, dass beide Mengen im Prinzip durch Entnehmen der S- und T-Probenmengen T∪S ⊂Ωaus der Familie n-dimensionaler Verteilungen aufgebaut { p c : Ω n } c C
    Figure DE112017008151T5_0005
    und die Ausgaben entsprechend der Verteilung bezeichnet werden könnten. Es kann angenommen werden, dass die zu erlernende hypothetische Klassifizierungsfunktion m auf diese Weise aufgebaut werden könnte. Bei diesem Beispiel hat der Entwickler jedoch keinen direkten Zugriff auf die Verteilungen der Bezeichnungsfunktion. Dem Entwickler können lediglich eine große, aber endliche Anzahl von Proben und die passenden Bezeichnungen bereitgestellt werden.
  • Der herkömmliche Ansatz hierbei kann darin bestehen, eine Familie einer auf klassische Weise berechenbaren Funktion m ˜ : θ , S C .
    Figure DE112017008151T5_0006
    aufzubauen, die durch eine Menge von Parametern θ indiziert ist. Diese Gewichtungen werden dann durch eine auf eine klassische Aufwandsfunktion angewendete Optimierungsprozedur (zum Beispiel einen stochastischen Gradientenabstieg mit Rückwärtsausbreitung) aus m | T abgeleitet. Ferner kann ein Szenario offenbart werden, bei dem aus einer von freien Parametern abhängenden Quantenschaltung ein Klassifizierungsprotokoll m erzeugt werden kann.
  • Bei einem Beispiel wird eine Näherung zur Klassifizierungsfunktion m ˜ : θ , S C .
    Figure DE112017008151T5_0007
    aufgebaut. Die freien Parameter werden aus m | T abgeleitet, indem eine Optimierungsprozedur durch Erfassen von Messergebnissen durchgeführt und diese in eine Aufwandsfunktion CF verknüpft werden. Es kann ein Szenario berücksichtigt werden, bei dem das Klassifizierungsprotokoll m aus einer Quantenschaltung W (θ , φ) geringer Tiefe erzeugt wird, die von freien Parametern und einem geeignet gewählten Messungsoperator M abhängt, der unter Verwendung einzelner Qubit-Messungen realisiert werden kann. Im vorhergehenden Ausdruck ist W eine Quantenschaltung geringer Tiefe, die von freien Parametern θ und φ abhängt. Eine klassische Optimierungsroutine kann genutzt werden, die gegen die optimalen Parameterwerte (θ,φ) konvergiert. Es bestehen mehrere anwendbare Optionen. Beispielsweise könnte ein Simulated Annealing der Aufwandsfunktion CF (θ , φ) durchgeführt werden. Bei anderen Alternativen kann es sich um einen Spall-Gradientenabstiegsalgorithmus (oder SPSA-Gradientenabstiegsalgorithmus) oder einen Nelder-Mead-Simplexalgorithmus (bzw. NM-Simplexalgorithmus) handeln. Dieser Ansatz kann einen direkten Ansatz zum Minimieren der Aufwandsfunktion der Schaltung W (θ , φ) bilden.
  • Bei einem Beispiel kann ein Quantenklassifikator in drei Schritten aus Quantenhardware aufgebaut werden. Zunächst kann eine Probe aus den Daten x ∈ S, T über eine nicht lineare Merkmalzuordnung Φ(x) einem anfänglichen Quantenzustand | Φ(x)〉 zugeordnet werden. Danach kann eine hardwareeffiziente Quantenschaltung geringer Tiefe auf den anfänglichen Quantenzustand angewendet werden, die von den oben erwähnten freien Parametern W (θ , φ) abhängt, und abschließend kann die Quantenmessung {MI}I = 1,...c angewendet werden. Aus dem Messergebnis kann die Bezeichnung aufgebaut werden. Bei einem einzelnen Messergebnis kann dieses als „Quantenzustandsunterscheidung“ bezeichnet werden, und aus der Sammlung mehrerer Messproben kann dieses als „Quantenteilraumkennzeichnung“ bezeichnet werden. Das Protokoll kann in zwei Phasen unterteilt werden. Zunächst kann es sich im Protokoll um die Trainingsphase handeln, in der bezeichnete Proben bereitgestellt und Messergebnisse zur Aufwandsfunktion verknüpft werden. Diese Aufwandsfunktion kann dann minimiert werden, um die besten Parameter für die Schaltung zu finden. Sobald die Parameter gefunden wurden, kann zur zweiten Phase übergegangen werden - der Klassifizierungsphase. In der Klassifizierungsphase werden nicht bezeichnete Proben bereitgestellt, die klassifiziert werden sollen. Diese nicht bezeichneten Parameter werden dann mit den optimalen Parametern der trainierten Schaltung klassifiziert.
  • Bei einigen Beispielen kann der offenbarte Gegenstand einen neuen Klassifikator beinhalten, der auf Quantenschaltungen beruht, die einen Zugriff auf größere Merkmalräume zulassen. Bei einigen Beispielen kann eine optimale Unterscheidungsmessung aus wenigen Proben erlernt werden. Bei einigen Ausführungsformen kann der offenbarte Gegenstand auf Klassifizierungsprobleme angewendet werden, die einen großen Merkmalraum nutzen. Bei einigen Ausführungsformen kann der Ansatz mit Schaltungen geringer Tiefe sowohl mit aktueller als auch mit Quantenhardware realisiert werden, die in naher Zukunft zu erwarten ist. Bei einigen Beispielen funktioniert ein Tensornetzwerk mit zugehörigen Variationsparametern und Aufwandsfunktion in Verbindung mit vielen Arten von Optimierungsroutinen. Bei einigen Beispielen korrigieren hardwareeffiziente Schaltungen systematische kohärente Gate-Fehler einer Einheit. Bei einigen Beispielen kann ein trainiertes System schnell Ermittlungen vornehmen. Bei einigen Beispielen erfolgt das Kennzeichnen in einem exponentiell größeren Hilbert-Raum.
  • Die Computerverarbeitungssysteme, mittels Computer realisierten Verfahren, Vorrichtungen und/oder Computerprogrammprodukte nutzen Hardware und/oder Software, um hochgradig technische Probleme zu lösen (die z.B. sowohl Klassifikatoren für das maschinelle Lernen als auch Quantencomputer betreffen), die nicht abstrakt sind und durch einen Menschen nicht mit Hilfe einer Reihe geistiger Aktivitäten gelöst werden können. Zum Beispiel können ein Mensch oder sogar tausende Menschen nicht effizient, genau und wirksam die in enormen Mengen von Inhalten manuell analysieren, die durch einen Klassifikator für maschinelles Lernen verarbeitet werden können (um zum Beispiel Bilder zu klassifizieren). Eine oder mehrere Ausführungsformen der patentgegenständlichen Computerverarbeitungssysteme, Verfahren, Vorrichtungen und/oder Computerprogrammprodukte können ein Nutzen von Schaltungen geringer Tiefe als Quantenklassifikatoren ermöglichen. Durch Nutzen von Schaltungen geringer Tiefe als Quantenklassifikatoren können die Verarbeitungszeit und/oder Genauigkeit im Zusammenhang mit den bestehenden Klassifikatoren für maschinelles Lernen erheblich verkürzt werden.
  • Eine oder mehrere Ausführungsformen werden nun unter Bezugnahme auf die Zeichnungen beschrieben, wobei durchgehend gleiche Bezugsnummern verwendet werden, um auf gleiche Elemente zu verweisen. In der folgenden Beschreibung sind zu Erläuterungszwecken zahlreiche konkrete Einzelheiten dargelegt, um ein gründlicheres Verständnis der einen oder der mehreren Ausführungsformen zu ermöglichen. Es kann in verschiedenen Fällen jedoch offensichtlich sein, dass die eine oder die mehreren Ausführungsformen ohne diese konkreten Einzelheiten in die Praxis umgesetzt werden können.
  • 1 veranschaulicht ein beispielhaftes, nicht einschränkendes Quantendatenverarbeitungssystem für Schaltungen geringer Tiefe als Quantenklassifikatoren, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen realisiert werden kann. Im Datenverarbeitungssystem 100 dargestellt sind Trainingsdaten 102 und Klassifizierungsdaten 104, bei denen es sich um Eingaben in das Quantendatenverarbeitungssystem 106 handelt, und eine Ausgabe 114, bei der es sich um eine Ausgabe aus dem Quantendatenverarbeitungssystem 106 handelt. Bei dem Quantendatenverarbeitungssystem 106 handelt es sich um einen beispielhaften Quantencomputer, der über eine Kombination aus einem Quantencomputer 200 von 2 und der klassischen Hardware der Betriebshardware 1201 von 12 realisiert sein kann. Es kann angemerkt werden, dass der Quantencomputer 200 an sich von 2 bei einigen Beispielen und wie in Bezug auf 2 beschrieben mit einer Kombination aus Quantenhardware und klassischer Hardware realisiert sein kann.
  • Das Quantendatenverarbeitungssystem 106 weist drei Komponenten auf: eine Kalibrierungskomponente 108, eine Aufwandsfunktionskomponente 110 und eine Trainingskomponente 112. Die Kalibrierungskomponente 108 kann so konfiguriert sein, dass Quantenhardware kalibriert wird, um eine Quantenschaltung geringer Tiefe zu erzeugen, wobei Beispiele dieser Konfiguration in Bezug auf den Arbeitsschritt 1102 von 11 beschrieben sind. Die Aufwandsfunktionskomponente 110 kann so konfiguriert sein, dass auf der Grundlage eines Anfangswerts für einen Parameter eines Klassifikators für maschinelles Lernen eine Aufwandsfunktion für eine Quantenschaltung geringer Tiefe ermittelt wird, wobei Beispiele dieser Ermittlung in Bezug auf den Arbeitsschritt 1104 von 11 beschrieben sind. Die Trainingskomponente 112 kann so konfiguriert sein, dass der Anfangswert für den Parameter während des Trainings auf der Grundlage der Aufwandsfunktion für die Quantenschaltung geringer Tiefe in einen zweiten Wert für den Parameter geändert wird, wobei Beispiele dieser Änderung in Bezug auf den Arbeitsschritt 1106 von 11 beschrieben sind.
  • Die Trainingsdaten 102 können dem Quantendatenverarbeitungssystem 106 als Eingabe bereitgestellt werden, wobei es sich um bezeichnete Trainingsdaten handeln kann, die zum Trainieren eines Klassifikators für maschinelles Lernen verwendet werden, der auf dem Quantendatenverarbeitungssystem 106 realisiert sein kann. Die Klassifizierungsdaten 104 können dem Quantendatenverarbeitungssystem ebenfalls als Eingabe bereitgestellt werden, wobei es sich um Daten handeln kann, die auf einem trainierten Klassifikator für maschinelles Lernen ausgeführt werden, der auf dem Quantendatenverarbeitungssystem 106 realisiert sein kann, das mit den Trainingsdaten 102 konfiguriert wurde, und wobei es sich um Daten handeln kann, die durch den trainierten Klassifikator für maschinelles Lernen klassifiziert werden können. Bei der Ausgabe 114 kann es sich um ein Ausgabeergebnis des Ausführens von Klassifizierungsdaten 104 auf dem trainierten Klassifikator für maschinelles Lernen handeln, und es kann sich außerdem um ein Ausgabeergebnis des Ausführens von Trainingsdaten 102 auf dem Klassifikator für maschinelles Lernen handeln.
  • 2 veranschaulicht ein Blockschema eines beispielhaften, nicht einschränkenden Systems, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen das Realisieren von Schaltungen geringer Tiefe als Quantenklassifikatoren ermöglicht. Bei dem Datenverarbeitungssystem 200 kann es sich um einen Quantencomputer handeln, der manchmal auch als „Quantenhardware“ bezeichnet wird. Quantenhardware nutzt allgemein ein oder mehrere Qubits (quantenmechanisches System mit zwei Zuständen, wobei sich ein Qubit gleichzeitig in einer Superposition dieser beiden Zustände befinden kann), die somit mehrere Arbeitsschritte gleichzeitig auswerten können. Quantenhardware kann im Verhältnis zu klassischen Computern betrachtet werden, bei denen es sich um ein quantenmechanisches System mit einem Zustand handelt.
  • Insbesondere kann es sich bei dem Datenverarbeitungssystem 200 um ein vereinfachtes Beispiel eines supraleitenden Quantencomputers handeln. Es leuchtet ein, dass Aspekte der vorliegenden Offenbarung auf einer Vielfalt von Quantendatenverarbeitungshardware realisiert sein können und es sich bei der Quantenhardware dieses beispielhaften Datenverarbeitungssystems 200 lediglich um ein derartiges Beispiel handeln kann, das zum Realisieren von Aspekten der vorliegenden Offenbarung genutzt werden kann. Bei einigen Beispielen kann das Datenverarbeitungssystem 200 verwendet werden, um Aspekte des Quantendatenverarbeitungssystems 106 zu realisieren.
  • Das Datenverarbeitungssystem 200 weist eine Eingabe 202, eine Steuerlogik 204 der Klassifikatoren für maschinelles Lernen, Steuersignale 206, ein Qubit 208, eine Interaktion 210, Auslesesignale 212, eine Auslesesteuerlogik 214 der Klassifikatoren für maschinelles Lernen und eine Ausgabe 216 auf. Bei der Eingabe 202 kann es sich um Trainingsdaten 102 oder Klassifizierungsdaten 104 handeln, und bei der Ausgabe 216 kann es sich um die Ausgabe 114 handeln. Die Steuerlogik 204 der Klassifikatoren für maschinelles Lernen und die Auslesesteuerlogik 214 der Klassifikatoren für maschinelles Lernen können bei einigen Beispielen unter Verwendung klassischer Steuerlogik realisiert sein. Die Steuerlogik 204 der Klassifikatoren für maschinelles Lernen kann eine Abfolge von Gatterarbeitsschritten bereitstellen, um auf die Qubits einzuwirken, zum Beispiel auf das Qubit 208, indem den Qubits Steuersignale 206 bereitgestellt werden. Die Auslesesteuerlogik 214 der Klassifikatoren für maschinelles Lernen kann Ausgaben aus den Qubits in Form von Auslesesignalen 212 aufnehmen und diese Ausgaben verarbeiten, um die Ausgabe 216 zu erzeugen. Bei den dargestellten Interaktionen wie zum Beispiel der Interaktion 210 handelt es sich um Interaktionen zwischen den Qubits wie zum Beispiel dem Qubit 208.
  • Bei den Qubits handelt es sich um ein quantenmechanisches System mit zwei Zuständen, wobei sich ein Qubit gleichzeitig in einer Superposition dieser beiden Zustände befinden kann. Die Qubits können über eine Schaltung aufgebaut werden, die eine Spule und einen Kondensator aufweist (die manchmal als „integrierte Schaltung“ bezeichnet wird).
  • 3 veranschaulicht ein Flussdiagramm eines beispielhaften, nicht einschränkenden, mittels Computer realisierten Verfahrens, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen das Realisieren von Schaltungen geringer Tiefe als Quantenklassifikatoren während einer Trainingsphase ermöglicht. Bei einigen Beispielen kann das Flussdiagramm 300 durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200 realisiert sein.
  • Im Flussdiagramm 300 kann eine Aufwandsfunktion für vorgeschlagene Parameter für einen Prozess des maschinellen Lernens berechnet werden, der auf bezeichnete Trainingsmengendaten angewendet werden kann. Wenn diese Aufwandsfunktion ausreichend konvergiert, werden die Parameter ermittelt, die ausreichend trainiert werden sollen. Das Flussdiagramm 300 kann für eine Vielfalt unterschiedlicher Lernkonzepte verwendet werden. Ein Beispiel eines derartigen Lernkonzepts kann die Unterscheidung von Quantenzuständen sein. Ein weiteres Beispiel eines derartigen Lernkonzepts kann eine Kennzeichnung von Quantenteilräumen sein. Die Unterscheidung von Quantenzuständen und die Kennzeichnung von Quantenteilräumen unterscheiden sich allgemein in der Weise, in der Messergebnisse ausgewertet werden und die Aufwandsfunktion berechnet werden kann, sodass derselbe Gesamtansatz auf das Training angewendet werden kann, während diese Unterschiede wieder gespiegelt werden.
  • In 302 kann Quantenhardware kalibriert werden (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200), um Versuchsschaltungen geringer Tiefe zu erzeugen. Anschließend werden in 304 Anfangswerte der Variationsparameter für hardwareeffiziente Schaltungen ausgewählt (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200).
  • Die Trainingsdaten können anhand von Bezeichnungen gruppiert werden, und anschließend werden die folgenden vier Arbeitsschritte (308 bis 314) für jede der Proben in den Trainingsdaten angewendet (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200) - d.h., diese Arbeitsschritte werden für die Ergebnisbezeichnung 324 wiederholt. Ein Zuordnen 308 von Merkmalen kann durchgeführt werden, wobei angesichts einer Probe und ihrer Bezeichnung eine Merkmalzuordnung einen einfachen Eingabezustand für die Schaltung geringer Tiefe erstellt.
  • In einer Quantenschaltung kann es sich bei der Merkmalzuordnung um ein eineindeutiges (injective) Codieren einer klassischen Information x n
    Figure DE112017008151T5_0008
    in einen Quantenzustand |Φ〉 handeln (in diesem Fall ein Qubit-Register): Φ : X 2 N ,        x | Φ ( x ) .
    Figure DE112017008151T5_0009
    Hierbei kann ℋ2 = ℂ2 ein Hilbert-Raum mit einem einzelnen Qubit sein, wobei ℋ2 für einen Hilbert-Raum steht und ℂ2 komplexe Zahlen darstellt. Eine Produktzustands-Merkmalzuordnung kann genutzt werden, die aus Drehungen U (θ) E SU(2) einzelner Qubits bei jedem Qubit an der Quantenschaltung bestehen kann (bei einigen Beispielen), um die Merkmalzuordnung zu realisieren. Eine derartige Drehung kann bei einem einzelnen Transmon-Qubit realisiert werden, indem entsprechend konfigurierte Mikrowellenimpulse gesendet werden, um ein Gatter mit einem einzelnen Qubit anzusteuern. Bei den Winkeln für ein Qubit kann es sich um eine nicht lineare Funktion θ : x → [0, 2π ]3 in den Raum von Euler-Winkeln für die einzelnen Qubits handeln, sodass die gesamte Merkmalzuordnung gemäß: x | ϕ ( x ) = U ( θ i ( x ) ) | 0
    Figure DE112017008151T5_0010
    für ein einzelnes Qubit realisiert werden kann, sodass x | Φ ( x ) = i = 1 N | ϕ i ( x )
    Figure DE112017008151T5_0011
    für den gesamten Qubit-Zustand gilt.
  • Ein Beispiel einer derartigen Realisierungsform kann eine unitäre Realisierungsform der Merkmalzuordnung sein, die bei der klassischen Analyse nach Stoudenmire und Schwab verwendet wird, bei der ein Qubit eine einzelne Komponente xi von x E [0, 1]n codiert, sodass N = n verwendet werden. Bei einigen Beispielen kann jede Komponente von x lokal einem „Grauskalen“-Wert xi entsprechen. Dieser Einzelwert kann durch einen Quantenzustand dargestellt werden: | ϕ ( x i ) = cos ( π 2 x i ) | 0 + sin ( π 2 x i )   | 1 .
    Figure DE112017008151T5_0012
  • Zu beachten ist, dass bei diesem Beispiel φi (x) = φ (xi) dieselbe Zuordnung für alle Qubits sein kann, von einer einzelnen Komponente abhängt, und das Gatter entspricht U ( θ i ( x ) ) = exp ( i π 2 x i Y )
    Figure DE112017008151T5_0013
    wobei Y der herkömmliche Pauli-Y-Operator und direkt als Drehung eines einzelnen Qubits realisiert sein kann.
  • Nach dem Zuordnen 308 von Merkmalen kann eine Schaltung geringer Tiefe aus einer Familie hardwareeffizienter Schaltungen mit einigen anfänglich ausgewählten Variationsparametern angewendet werden 310 (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200). Ein Ergebnis kann gemessen werden 312 (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200), wobei Ausgabestatistiken gemessen und einer geeigneten Aufwandsfunktion zugewiesen werden (wobei mehrere Aufwandsfunktionen verwendet werden können, oder einer einzelnen Aufwandsfunktion zugewiesen werden, wenn eine einzelne Aufwandsfunktion verwendet werden kann). Anschließend kann das Ergebnis zur Aufwandsfunktion hinzugefügt werden 314 (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200).
  • Außer den Arbeitsschritten, die für die Ergebnisbezeichnung 324 wiederholt werden, können die Arbeitsschritte auch für Trainingsdaten 322 wiederholt werden (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200). Zu bezeichneten Trainingsdaten 306 kann eine Mehrzahl bezeichneter Trainingsdaten gehören, und die Daten (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200) dem Zuordnen 308 von Merkmalen bereitstellen und dem Aktualisieren der Aufwandsfunktion 314 entsprechende Bezeichnungsinformationen bereitstellen (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200).
  • Nachdem die Aufwandsfunktion in 314 aktualisiert wurde, kann eine Ermittlung durchgeführt werden, ob die Aufwandsfunktion in geeigneter Weise konvergiert hat 316 (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200). Wenn festgestellt wird, dass die Aufwandsfunktion in geeigneter Weise konvergiert hat, werden die aktuell in den Trainingsdaten verwendeten Parameter als Parameter gekennzeichnet, die durch Training ermittelt worden 320 (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200). Wenn stattdessen festgestellt wird, dass die Aufwandsfunktion nicht in geeigneter Weise konvergiert hat, kann eine Aktualisierungsregel angewendet werden, um neue Parameter zu ermitteln 318. Diese Aktualisierungsregel kann auf einer klassischen Optimierungsroutine beruhen. Die Arbeitsschritte 304 und 308 bis 318 können wie dargestellt in einer Schleife ausgeführt werden, bis in 318 eine ausreichende Konvergenz erreicht ist.
  • 4 veranschaulicht ein Flussdiagramm eines beispielhaften, nicht einschränkenden, mittels Computer realisierten Verfahrens, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen das Realisieren von Schaltungen geringer Tiefe als Quantenklassifikatoren während einer Klassifizierungsphase ermöglicht. Bei einigen Beispielen kann das Flussdiagramm 400 durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200 realisiert sein.
  • Die Klassifizierungsphase des Flussdiagramms 400 kann realisiert sein, nachdem die Trainingsphase des Flussdiagramms 300 realisiert wurde. Nachdem die Trainingsphase abgeschlossen ist, können die während der Trainingsphase ermittelten Variationsparameter verwendet werden, um eine Bezeichnung für Eingabedaten in der Klassifizierungsphase zu ermitteln. Ebenso wie das Flussdiagramm 300 kann das Flussdiagramm 400 auf eine Vielfalt unterschiedlicher Lernkonzepte angewendet werden, darunter sowohl Unterscheidung von Quantenzuständen als auch Kennzeichnung von Quantenteilräumen. In einer Kennzeichnungsphase kann sich ein Konzept zur Kennzeichnung von Quantenteilräumen allgemein von einem Konzept zur Unterscheidung von Quantenzuständen darin unterscheiden, dass mehrere Messergebnisse verknüpft werden, um eine Bezeichnung zu ermitteln.
  • Eine zu klassifizierende Probe kann ermittelt werden, und Daten zum Klassifizieren 402 können dem Zuordnen 404 von Merkmalen bereitgestellt werden (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200). Das Zuordnen 404 von Merkmalen bereitet die Daten als Eingabequantenzustand vor (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200). Anschließend kann die Quantenschaltung 406 geringer Tiefe ausgeführt werden und kann mit den Variationsparametern nur ausgeführt werden, die in der Trainingsphase von Flussdiagramm 300 ermittelt wurden (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200). Die Ausgabe der Schaltung kann gemessen werden 408 (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200), den Daten kann eine Klassifizierungsbezeichnung zugewiesen werden, und die Bezeichnung kann gemeldet werden 412 (z.B. durch das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200). Bei einigen Beispielen werden 404 bis 408 für mehrere Ergebnisbezeichnungen 414 wiederholt.
  • Hinsichtlich der Unterscheidung von Quantenzuständen und der Unterscheidung von Quantenteilräumen können die folgenden Ansätze verfolgt werden, um einen zu verwendenden Diskriminator (im Falle der Unterscheidung von Quantenzuständen) oder eine zu verwendende Trennebene (im Falle der Kennzeichnung von Quantenteilräumen) zu ermitteln.
  • Bei einigen Beispielen kann zum Ermitteln eines Diskriminators für den optimalen Zustand eine bezeichnete Gesamtheit berücksichtigt werden, die auch aus einer bezeichneten Familie klassischer Verteilung pc(x) entnommen wurde. Die Proben können unter Verwendung der Merkmalzuordnung ϕ : N
    Figure DE112017008151T5_0014
    zugeordnet werden, wobei N die Dimensionalität des Hilbert-Raums des Quantencomputers ist, die die klassischen Informationen zu Quantenzuständen für die Proben komprimiert. Infolgedessen kann auf mehrere Kopien der folgenden Menge von Zuständen bei CN zugegriffen werden: ρ B = 1 | T S | y c ( T S ) | ϕ ( y c ) ϕ ( y c ) | .
    Figure DE112017008151T5_0015
  • Nach dem Empfangen der Gesamtheit können auch die entsprechenden Bezeichnungen m | T empfangen werden. Daher kann auf viele Kopien von zwei Gesamtheiten ρAT(Training) und pAS (Test) zugegriffen werden, wobei die Testmenge keine Bezeichnungen mehr trägt: ρ A T = 1 | T | y c T | ϕ ( y c ) ϕ ( y c ) | ,               ρ A S = 1 | S | y S | ϕ ( y ) ϕ ( y ) | .
    Figure DE112017008151T5_0016
  • Hierbei kann eine allgemeine Strategie zum Ermitteln einer endgültigen Bezeichnungszuordnung m̃ darin bestehen, bei der Trainingsmenge eine Menge von Messungen zu erstellen, Statistiken zu erfassen und auf eine Unterscheidungsregel zu kommen, die die Gesamtheiten bezeichnet. Bei den Trainingsproben |yc〉 ∈ T kann ein POVM {Mc'}c' angewendet werden, um das Ergebnis c' mit der Wahrscheinlichkeit: P ( c ' | y c ) : = T r ( M c ' | ϕ ( y c ) ϕ ( y c ) | ϕ ) = ϕ ( y c ) | M c ' | ϕ ( y c )
    Figure DE112017008151T5_0017
    und Bezeichnungen gemäß dieser Wahrscheinlichkeitsverteilung zu erhalten. Zwei beispielhafte Klassifizierungsszenarien werden berücksichtigt, eines, bei dem das Ergebnis gemäß der geschätzten Wahrscheinlichkeitsverteilung bei Bezeichnungen entnommen werden kann - dies kann gleichwertig zu einer Standardunterscheidung von Quantenzuständen sein. Ein alternatives beispielhaftes Klassifizierungsszenario kann ebenfalls berücksichtigt werden, bei dem das Ergebnis mit maximaler Wahrscheinlichkeit entnommen werden kann und somit stattdessen versucht wird, die Teilräume zu unterscheiden (und zu „kennzeichnen“), in denen sich die Gesamtheiten befinden. Beide Szenarien passen in den beispielhaften Rahmen und unterscheiden sich in Bezug auf die Messungsstrategie und Aufwandsfunktion.
  • Erneut wird Bezug auf das erste beispielhafte Klassifizierungsszenario genommen, das eines binären Diskriminators mit einmaliger Ausführung, bei dem eine Messung mit zwei Ergebnissen M = {M0, M1 | M0 + M1= 1} verwendet werden kann, um zwischen zwei Zuständen ρ0 ρ1 zu unterscheiden, zum Beispiel zwischen ρA T und ρA S. Dieser gemittelte Quantenzustand bei einer ausgewogenen Menge kann geschrieben werden als: ρ = 1 2 ( ρ 0 + ρ 1 ) .
    Figure DE112017008151T5_0018
    Die angenommene Verwendung von Messungen bei einmaliger Ausführung oder von gleichwertigen m̃, die aus der Ausgabeverteilung der Schaltung entnommen werden, können dann verwendet werden, um das Messergebnis M mit zwei Ergebnissen aufzubauen. Die Wahrscheinlichkeit Pdist des Unterscheidens der beiden Gesamtheiten p0 ρ1 durch ein einzelnes Ergebnis aus der Ausgabeverteilung ist dann gegeben durch: P d i s t = 1 2 ( Tr ( M 0 ρ 0 ) + Tr ( M 1 ρ 1 ) ) = 1 2 ( 1 + Tr ( M 1 ( ρ 1 ρ 0 ) ) ) .
    Figure DE112017008151T5_0019
    Unter der theoretischen Einschränkung einer perfekten Kenntnis der idealen Verteilung p0/1 kann die Wahrscheinlichkeit Pdist des Unterscheidens der resultierenden Zustände eingegrenzt werden durch: P d i s t = 1 2 ( Tr ( M 0 ρ 0 ) + Tr ( M 1 ρ 1 ) )         = 1 2 ( 1 + Ω d θ i ( p 0 ( θ i ) p 1 ( θ i ) ) θ i | M 0 | θ i [ 0,1 ] ) 1 2 ( 1 + Ω d θ i p 0 ( θ i ) p 1 ( θ i ) I p 0 p 1 ) = wobei die Kerktion / p 0 p 1  beträgt ,  wenn  ( p 0 p 1 ) ,  und anderenfanfalls 0 beträgt . Nun: 
    Figure DE112017008151T5_0020
    p 0 p 1 = 1 2 Ω | p 0 p 1 | = Ω | p 0 p 1 | I p 0 p 1 .
    Figure DE112017008151T5_0021
    Infolgedessen kann Pdist hinsichtlich des Gesamtvariationsabstands von p0 und p1 eingegrenzt werden: P d i s t 1 2 + 1 2 p 0 p 1 ,
    Figure DE112017008151T5_0022
    woraus sich der grundlegende Auflösungsgrenzwert ergibt. Bei dem Szenario, bei dem eine endliche Anzahl von Proben empfangen wird (gleichwertige Anzahl aus jeder Klasse), kann es sich bei der tatsächlichen Trainingsmenge T um eine Näherung von ρ0,ρ1 handeln, die gegeben ist durch: ρ ˜ 0 = 2 | T | s 0 T | ϕ ( s 0 ) ϕ ( s 0 ) |       ρ ˜ 1 = 2 | T | s 1 T | ϕ ( s 1 ) ϕ ( s 1 ) | .
    Figure DE112017008151T5_0023
  • Angenommen, eine Messung W † MW wird angewendet, wobei es sich bei W (θ, φ) um eine Quantenschaltung geringer Tiefe handelt. Des Weiteren wird M bei diesem Beispiel so gewählt, dass es einer einfachen Messung mit binärem Ergebnis in der Berechnungsgrundlage entspricht. Es kann sich zum Beispiel um eine Paritätsmessung mit Mi = 1 + (-1)iZ⊗N/2 für i ∈ {0,1} oder um einen klassischen Decodierer handeln, der den beiden nächstgelegenen Codewörtern entspricht. Viele andere einfache Messungen können aufgebaut werden. Danach werden die folgenden Gleichungen erhalten: | T | P e r r = s 0 T ϕ ( s 0 ) | W M 1 W | ϕ ( s 0 ) [ 0,1 ] + s 1 T ϕ ( s 1 ) | W M 0 W | ϕ ( s 1 ) [ 0,1 ] = s 0 T | ϕ ( s 0 ) | W M 1 W | ϕ ( s 0 ) | + s 1 T | ϕ ( s 1 ) | W M 0 W | ϕ ( s 1 ) | = s 0 T | ϕ ( s 0 ) | W M 1 W | ϕ ( s 0 ) | + = s 1 T | ϕ ( s 1 ) | W ( 1 M 1 ) W | ϕ ( s 1 ) | = s T | δ s l ϕ ( s ) | W M 1 W | ϕ ( s ) |
    Figure DE112017008151T5_0024
    die umgeschrieben werden können als: P e r r = 1 | T | t T | δ t 1 ϕ ( t ) | W M 1 W | ϕ ( t ) | .
    Figure DE112017008151T5_0025
  • Die optimale Unterscheidungsprozedur bei einem Szenario mit einer Ausführung und zwei Ergebnissen kann durch Minimieren der erwähnten Wahrscheinlichkeit erreicht werden.
  • Da diese Ausdrücke nicht negativ sind, stimmen die Minima der Fehlerwahrscheinlichkeit Perr mit den Minima der folgenden Aufwandsfunktion überein: C F = 1 | T | 2 t T | δ t 1 ϕ ( t ) | W M 1 W | ϕ ( t ) | 2 .
    Figure DE112017008151T5_0026
    die eine natürliche Aufwandsfunktion für die vorliegende Klassifizierungsaufgabe bildet.
  • Das folgende Beispiel enthält einen Diskriminator mit einer Ausführung und mehreren Bezeichnungen. Im Vergleich zu einem binären Diskriminator mit einer Ausführung kann die endgültige Messung M so geändert werden, dass sie mehreren Teilbereichen entspricht. Diese Änderung kann auf mehrere Arten erreicht werden. Zum Beispiel könnte entschieden werden, wieder in der Berechnungsgrundlage zu messen, d.h. der Grundlage, bei der Pauli-Z diagonal sind, und dann aus den gemessenen Proben klassische Bezeichnungen wie z.B. ein Bezeichnen des Ergebnisses z ∈ {0, 1}N gemäß dem Hamming-Gewichtsmodul CI= |z| modc aufbauen, bei dem M| in der Berechnungsgrundlage ebenfalls diagonal ist. Alternativ könnte eine kommutierende Messung wie z.B. Quantenstabilisatoren {gi}i=1...[log2(c)l für g i P N
    Figure DE112017008151T5_0027
    ein Element der Pauli-Gruppe aus N-Qubits aufgebaut werden, die kommutieren [gi, gj] = 0, und anschließend gemäß einem Fehlerkorrekturkonzept gemessen werden.
  • Die resultierenden Messungsoperatoren sind dann gegeben durch M l = ( 1 i = 1 log 2 ( c ) g i l i ) / 2 .
    Figure DE112017008151T5_0028
    wobei Ii das i'-te Bit in der binären Darstellung i=1 i von / kennzeichnet. Bei beiden Ansätzen kann die unter Verwendung einer klassischen Optimierungsroutine zu minimierende resultierende Aufwandsfunktion dann lauten C F = 1 | T | l C s l T ϕ ( s l ) |   W M l W | ϕ ( s l ) .
    Figure DE112017008151T5_0029
    wobei dies für alle Schaltungen geringer Tiefe in der Familie W (θ , φ) gilt.
  • Unter Bezugnahme auf die Kennzeichnung von Quantenteilräumen kann der folgende Ansatz genutzt werden, um eine Trennebene zu ermitteln. Ein Ziel kann darin bestehen, wie oben erörtert eine optimale Trennebene zwischen den beiden Dichtematrizen zu finden. Anders ausgedrückt, ein Zweck kann darin bestehen, jeden der 2n Teilräume mit 0 und 1 zu bezeichnen (bzw. zu kennzeichnen), sodass jedem Zustand mit Unterstützung des entsprechenden Teilraums die richtige Bezeichnung zugewiesen werden kann. Da ein Zugriff auf mehrere Kopien desselben Zustands vorliegen kann, kann ein „Alles oder nichts“-Szenario berücksichtigt werden, bei dem ein Ergebnis wie folgt mit maximaler Wahrscheinlichkeit entnommen werden kann (wobei argmax ein Maximum einer Wahrscheinlichkeit von Werten bezeichnet): m ˜ | T ( s ) =  arg  max c '   ϕ ( s ) | M c ' |   ϕ ( s ) .
    Figure DE112017008151T5_0030
  • Dies entspricht dem Entnehmen mehrerer Proben, um die größte Ergebniswahrscheinlichkeit aus den Ergebnisstatistiken der Messung MI für / =1, ... , c zu schätzen. Wenn die mit c bezeichnete Untermenge von Proben T mit Tc bezeichnet wird, kann die erwartete Gesamt-Fehlklassifizierung angegeben werden durch: P e r r = 1 | T | ( c s T c P r ( m ˜ | T ( s ) c | s T c ) ) .
    Figure DE112017008151T5_0031
    Eine geeignete Aufwandsfunktion für dieses Klassifizierungskonzept kann ermittelt werden.
  • Unter Bezugnahme auf ein Beispiel der binären Klassifizierung von Bezeichnungen kann eine erste Klassifizierung an zwei Bezeichnungen und bei ungeradem N durchgeführt werden. Die Fehlerwahrscheinlichkeit Pr ( m ˜ | T ( s ) c | s T c )
    Figure DE112017008151T5_0032
    für die Proben ETc kann durch Entnehmen einer endlichen Anzahl von Proben geschätzt werden. Angenommen, es werden R Proben aus der Ausgabeverteilung P über die Bezeichnungen entnommen, und rc Proben mit der Bezeichnung c werden entnommen. Dann kann die Wahrscheinlichkeit des fehlerhaften Klassifizierens einer Bezeichnung c gemäß der argmax-Regel angegeben werden durch: Pr ( m ˜ | T ( s ) c | s T c ) = P r ( r c < R 2 ) = k = 0 R /2 ( R k ) p c k ( 1 p c ) R k .
    Figure DE112017008151T5_0033
  • Bei Annahme großer Werte von R kann die exakte Berechnung schwierig sein. Bei Ermittlung von R pc = a, R pc (1 - pc) = b2 und Definition der Variablen y = R 2 ,
    Figure DE112017008151T5_0034
    wobei γ für Gamma steht, kann die Binomialverteilung als Fehlerfunktion „erf“ angenähert werden: Pr ( m ˜ | T ( s ) c | s T c ) = k = 0 R /2 ( R k ) p c N k ( 1 p c ) k γ d x 1 2 π b exp ( 1 2 ( x a b ) 2 ) = 1 π y a 2 b d z   e z 2 = 1 2 erf ( γ a 2 b ) + 1 2 = 1 2 erf ( R 1 2 p c 2 ( 1 p c ) p c ) + 1 2 .
    Figure DE112017008151T5_0035
  • Das Diagramm 600 veranschaulicht dies weiter. Die Fehlerfunktion kann infolgedessen mit einem Sigmoid angenähert werden: sig ( x ) : = 1 1 + exp ( x ) 1 2 ( erf ( x ) + 1 )
    Figure DE112017008151T5_0036
    woraus sich ergibt: Pr ( m ˜ | T ( s ) c | s T c ) sig ( R 0.5 p c 2 ( 1 p c ) p c ) .
    Figure DE112017008151T5_0037
  • Die auf diese Weise angestrebte Aufwandsfunktion zum Minimieren durch eine geeignete Auswahl des {Mc}c-POVM ist dann gegeben durch: P e r r = 1 | T | s T | δ c 1 ( s ) s i g ( N 0.5 p c ( s ) 2 ( 1 p c ( s ) ) p c ( s ) )
    Figure DE112017008151T5_0038
    wobei pc über N für jedes s in T mit der Bezeichnung c = 0,1 geschätzt ist.
  • Bei einer Klassifizierung mehrerer Bezeichnungen muss bei einigen Beispielen der folgende Fehler optimiert werden: P e r r = 1 | T | c s T c Pr ( m ˜ | T ( s ) c | s T c )
    Figure DE112017008151T5_0039
    wobei Pr ( m ˜ | T ( s ) c | s T c ) = Pr ( n c < max c ' ( { n c ' } c '/c ) ) .
    Figure DE112017008151T5_0040
  • Bei N Proben mit den Häufigkeiten {n0,n1,n2}, die unabhängig voneinander aus der Ausgabenwahrscheinlichkeitsverteilung entnommen wurden, kann die Wahrscheinlichkeit des fehlerhaften Klassifizierens einer Probe s∈T0 durch argmax angegeben werden durch: Pr ( m ˜ | T ( s ) 0 | s T 0 ) = Pr ( n 0 < max ( n 1 , n 2 ) ) = Pr ( n 0 < N + | n 1 n 2 | 3 )
    Figure DE112017008151T5_0041
    wobei die letzte Ungleichung wie folgt abgeleitet werden kann: 2 n 0 < 2 max ( n 1, n 2 ) = | n 1 n 2 | + n 1 + n 2 = | n 1 + n 2 | + N n 0.
    Figure DE112017008151T5_0042
    Daher folgt aus der Ermittlung γ = N + | n 1 + n 2 | 3 ,
    Figure DE112017008151T5_0043
    dass: Pr ( m ˜ | T ( s ) 0 | s T 0 ) = k = 0 k = γ ( N k ) p 0 k ( 1 p 0 ) N k sig ( γ N p 0 2 N ( 1 p 0 ) p 0 ) .
    Figure DE112017008151T5_0044
  • Beim aktuellen Beispiel hängt dies von n1,n2 ab. Darüber hinaus kann bei einem Beispiel, das einen allgemeinen Fall mit k Bezeichnungen aufweist, vorkommen, dass es für γ keine Analyselösung gibt. Aus diesem Grund kann die oben erwähnte Wahrscheinlichkeit daher geschätzt werden, indem einfach genommen wird γ = m a x c ' ( { n c ' } c '/c ) .
    Figure DE112017008151T5_0045
    Somit kann die Aufwandsfunktion bei einem Fall mit k Bezeichnungen angenähert werden durch: Pr ( m ˜ | T ( s ) c | s T c ) sig ( N m a x c ' ( { n c ' } c '/c ) n c 2 ( N n c ) n c ) .
    Figure DE112017008151T5_0046
  • 5 veranschaulicht eine Schaltungsdarstellung einer beispielhaften, nicht einschränkenden hardwareeffizienten Quantenschaltung geringer Tiefe, die verwendet werden kann, um gemäß einer oder mehreren hierin beschriebenen Ausführungsformen Schaltungen geringer Tiefe als Quantenklassifikatoren zu realisieren. Bei einigen Beispielen kann die Schaltung 500 genutzt werden, um Aspekte des Quantendatenverarbeitungssystems 106 oder des Datenverarbeitungssystems 200 zu realisieren.
  • Einige beispielhafte Quantenschaltungen geringer Tiefe nutzen ein kohärent steuerbares quantenmechanisches System wie zum Beispiel einen supraleitenden Chip mit N-Transmon-Qubits, um eine Quantenschaltung W (θ , φ) geringer Tiefe zu erstellen, die aus den folgenden Gattern mit einem Qubit oder mehreren Qubits W ( θ , ϕ ) = U e n t ( d ) ( φ d ) U l o c ( d ) ( θ d ) U e n t ( 1 ) ( φ 1 ) U l o c ( 1 ) ( θ 1 ) .
    Figure DE112017008151T5_0047
    bestehen kann, indem wie in der Schaltung 500 dargestellt eine Schaltung aus d wiederholten Driftschritten angewendet wird, die aus Drehungen lokaler einzelner Qubits bestehen U l o c ( t ) ( θ t ) = i = 1 N U ( θ i , t )   u n d   U ( θ i , t ) SU ( 2 )
    Figure DE112017008151T5_0048
    die mit θ 3 N
    Figure DE112017008151T5_0049
    parametriert sind. Ferner können bei einigen Beispielen eine Verschränkungsinteraktion 502a, eine Verschränkungsinteraktion 502b eine Verschränkungsinteraktion 502c wie folgt angewendet werden: U e n t ( t ) ( φ t ) = exp ( i K ( φ t ) ) ,  wobei K ( φ t ) = α J α ( φ t ) σ ( α )
    Figure DE112017008151T5_0050
    die bei jedem σ ( α ) P N
    Figure DE112017008151T5_0051
    von einigen reellen Parametern θ 3 N
    Figure DE112017008151T5_0052
    abhängen. Für das Verschränken von unitären Elementen U e n t ( t ) ( φ t )
    Figure DE112017008151T5_0053
    können mehrere Auswahlmöglichkeiten bestehen.
    Beispielsweise werden zur Veranschaulichung dieses Ansatzes Kreuzresonanzgatter angewendet, worin eingeschlossen ist, dass das Verschränken des unitären Elements zwischen Qubit k und / durch die zweifach lokale effektive Hamilton-Funktion erzeugt werden kann, die als Kombination aus X- und Z-Pauli-Operatoren einzelner Qubits angegeben werden kann durch h k . l = a Z k + b Z l + c k . l Z k Z l + d k , l ( 1 e k , l ) X k + d k , l e k , l X k Z l .
    Figure DE112017008151T5_0054
    Die Parameter a,b,ck.l,dk,l,ek,l können durch die Hardware der supraleitenden Schaltung ermittelt werden. Das bedeutet, dass die Entwicklung K der natürlichen Drift zum Beispiel angegeben werden durch K ( φ t ) = k < l J k l ( φ t ) h k , l
    Figure DE112017008151T5_0055
    wobei Jkl (φt) durch das Experiment ermittelt werden kann. Bei Anwendung auf einen anfänglichen Produktzustand | 0〉N kann die erste Menge von Drehungen einzelner Qubits zum Realisieren einer Merkmalzuordnung einzelner Qubit verwendet werden, um diese Daten zu realisieren. Dann kann der resultierende Zustand erhalten werden: | ψ ( θ , φ ) = U e n t ( d ) ( φ d ) U l o c ( d ) ( θ d ) U e n t ( 1 ) ( φ 1 ) U l o c ( 1 ) ( θ 1 ( x ) ) | 0 m
    Figure DE112017008151T5_0056
    was der grafischen Darstellung der Schaltung 500 entspricht. Diese zweipunktgesteuerte Schaltung geringer Tiefe kann einem allgemeinen Zustand entsprechen, der auf der physischen Quantenhardware erstellt wird, sofern sie auf eine maximale Menge von K aufeinanderfolgenden Iterationen des Anwendens von Steuerimpulsen und zulässige Driftzeiten beschränkt ist, um eine Verschränkung zu erzeugen. Bei einigen Beispielen kann in einem allgemeinen Ansatz das Verschränken unitärer Elemente wirksam aus hk,l erzeugt werden, indem Zweipunktsteuerimpulse angewendet werden, wodurch die Schaltungstiefe vergrößert und die Einführung zusätzlicher kohärenter Fehler ermöglicht werden, wodurch die Variation über die Steuerparameter hinweg beschränkt wird. Daher können die Steuerimpulse bei Vorhandensein der Hamilton-Funktion mit natürlicher Drift direkt optimiert werden. Da die Menge von Driftwerten {hkl} zusammen mit einzelnen Steuerimpulsen Uloc(θ) allgemeingültig sein kann, können bei einigen Beispielen auf diese Weise beliebige Zustände mit ausreichender Schaltungstiefe erstellt werden.
  • In der Schaltung 500 kann eine Schaltungsdarstellung einer hardwareeffizienten Quantenschaltung geringer Tiefe abgebildet sein. Die Drehungen U (θi,t ) ∈ SU(2) einzelner Qubits sind durch Quadrate aus durchgezogenen Linien dargestellt, die durch die Winkel θi parametrieren sind, während der natürliche Verschränkungsarbeitsschritt exp(iK(φt)) 502a, 502b und 502c durch die Kreuzresonanzgatter eines supraleitenden Chips bestimmt werden kann. Zu beachten ist, dass die erste Ebene von Drehungen einzelner Qubits in der Regel zum Codieren der zu klassifizierenden Daten verwendet werden kann, sodass θi = θi(x) für die erste Reihe von Qubits nach der reinen Zustandserstellung gilt.
  • 6 veranschaulicht ein beispielhaftes, nicht einschränkendes Diagramm, das zeigt, wie sich eine Aufwandsfunktion in Bezug auf eine Anzahl von Ausführungen der Schaltungen geringer Tiefe als Quantenklassifikatoren gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ändert. Bei der Aufwandsfunktion kann es sich um eine Aufwandsfunktion handeln, die zu einem Klassifikator für maschinelles Lernen gehört, der unter Verwendung des Datenverarbeitungssystems 100 oder des Datenverarbeitungssystems 200 realisiert sein kann.
  • Das Diagramm 600 stellt eine Teilraumunterscheidung bei einer Ausführung und mehreren Ausführungen dar. Die Entscheidungsfunktion interpoliert aus linearer (Helstrom) in logistische Binomialverteilung (ungefähr Sigmoid). Die logistischen Binomialverteilungen werden bei KNNs zur Verbesserung der Optimierung verwendet, was darauf hinweist, dass dies zur Verwendung geeignet ist. Das Diagramm 600 enthält eine Y-Achse 602, die Pr(m = 1) darstellt, und eine X-Achse 604, die p1 darstellt.
  • 7 veranschaulicht ein beispielhaftes, nicht einschränkendes Diagramm, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ein Betriebsverhalten von Schaltungen geringer Tiefe als Quantenklassifikatoren in einem Beispiel mit drei Markierungen zeigt, wobei die Proben aus drei gut voneinander getrennten Normalverteilungen entnommen wurden. Bei diesem Betriebsverhalten kann es sich um ein Betriebsverhalten handeln, das zu einem Klassifikator für maschinelles Lernen gehört, der unter Verwendung des Datenverarbeitungssystems 100 oder des Datenverarbeitungssystems 200 realisiert sein kann. Das Diagramm 700 stellt ein Beispiel mit drei Bezeichnungen dar. Hierbei kann ein Betriebsverhalten betrachtet werden, bei dem Proben aus drei gut voneinander getrennten Normalverteilungen entnommen wurden, wie im Diagramm 702 gezeigt, und die Simulation kann mit einer Trainingsprobe pro Bezeichnung und 25 Testproben mit einem Ergebnis durchgeführt werden, das im Diagramm 704 gezeigt ist. Das Diagramm 702 enthält eine Y-Achse 706, die einen Wert der Probendaten darstellt, und eine X-Achse 708, die einen zweiten Wert der Probendaten darstellt. Das Diagramm 704 enthält eine Y-Achse 710, die eine Erfolgsquote darstellt, und eine X-Achse 712, die eine Anzahl von Ebenen darstellt.
  • Bei diesem folgenden Beispiel kann angenommen werden, dass Zugriff auf die Messungen in der Berechnungsgrundlage und auf die Klassifikatoren vorliegt, indem die Messergebnisse über eine endliche Anzahl von Ausführungen hinweg in c unterschiedliche Kategorien gruppiert sind. Es kann festgelegt werden, Klassifizierungsmessungen mit einer Quantenschaltung W zu steuern, die durch eine Menge mit echten Werten versehener Parameter θ,λ,φ parametriert ist. Bei diesem Beispiel kann die Familie der Schaltung W beliebige unitärer Elemente einzelner Qubits ermöglichen und außerdem in einer allgemeinen Weise die Eingaben entlang des Interaktionsgraphen E korrelieren. Auf der Grundlage dieser Überlegungen kann die folgende Schaltung geringer Tiefe verwendet werden: W = l = 1 L ( U 3 ( θ l , λ l , ϕ l ) Π ( i , j ) E CZ ( i , j ) U e n t ) U 3 ( θ 0 , λ 0 , ϕ 0 )
    Figure DE112017008151T5_0057
    wobei U 3 ( ϕ l , θ l , λ l ) : = e i Z ϕ l 2 e i Y ϕ l 2 e i Z λ 2
    Figure DE112017008151T5_0058
    Euler-Drehungen eines einzelnen Qubits sind und L die Anzahl von Verschränkungsebenen steuert. Bei diesem Beispiel kann ein klassischer Blackbox-Optimierungsprozess (z.B. SPSA-Prozess) verwendet werden, um optimale Parameter zu finden, sodass argmax von WMcW† im Eingabezustand aus der Testmenge mit hoher Wahrscheinlichkeit c beträgt. Bei diesem Beispiel wird U e n t = ( i , j ) E C Z ( i , j )
    Figure DE112017008151T5_0059
    zur zahlenmäßigen Vereinfachung bei jedem Schritt modelliert, indem die Topologie von E als Interaktionsgraph eines supraleitenden Chips ibmqx4 oder ein geeigneter Teilgraph davon gewählt wird und mit gesteuerten Phasengattern CZ Aktionen zwischen den durch eine Verknüpfung in D verbundenen Qubits i,j erfolgen.
  • 8 veranschaulicht beispielhafte, nicht einschränkende Diagramme, die gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ein Betriebsverhalten von Schaltungen geringer Tiefe als Quantenklassifikatoren in einem Beispiel mit drei Markierungen zeigen, wobei die Proben aus drei gespreizten Normalverteilungen entnommen wurden. Bei diesem Betriebsverhalten kann es sich um ein Betriebsverhalten handeln, das zu einem Klassifikator für maschinelles Lernen gehört, der unter Verwendung des Datenverarbeitungssystems 100 oder des Datenverarbeitungssystems 200 realisiert sein kann. Die Diagramme 800 veranschaulichen ein im Vergleich zu dem Beispiel mit drei Bezeichnungen der Diagramme 700 weiteres Beispiel mit drei Bezeichnungen. Hierbei kann ein Betriebsverhalten betrachtet werden, bei dem Proben aus auseinandergezogenen Normalverteilungen entnommen wurden, wie im Diagramm 802 gezeigt, und die Simulation kann mit einer Trainingsprobe pro Bezeichnung und 25 Testproben mit einem Ergebnis durchgeführt werden, das im Diagramm 804 gezeigt ist. Das Diagramm 802 enthält eine Y-Achse 806, die einen Wert der Probendaten darstellt, und eine X-Achse 806, die einen zweiten Wert der Probendaten darstellt. Das Diagramm 804 enthält eine Y-Achse 810, die eine Erfolgsquote darstellt, und eine X-Achse 812, die eine Anzahl von Ebenen darstellt.
  • 9 veranschaulicht beispielhafte, nicht einschränkende Diagramme, die gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ein Betriebsverhalten von Schaltungen geringer Tiefe als Quantenklassifikatoren in einem Beispiel mit drei Markierungen zeigen, wobei die Proben aus drei gespreizten Normalverteilungen entnommen wurden und im Vergleich zu 8 zusätzliche Ebenen verwendet werden. Bei diesem Betriebsverhalten kann es sich um ein Betriebsverhalten handeln, das zu einem Klassifikator für maschinelles Lernen gehört, der unter Verwendung des Datenverarbeitungssystems 100 oder des Datenverarbeitungssystems 200 realisiert sein kann. Die Diagramme 900 veranschaulichen ein im Vergleich zu den Beispielen mit drei Bezeichnungen der Diagramme 700 und Diagramme 800 weiteres Beispiel mit drei Bezeichnungen. Hierbei kann ein Betriebsverhalten betrachtet werden, bei dem Proben aus auseinandergezogenen Normalverteilungen entnommen wurden, wie im Diagramm 902 gezeigt, und die Simulation kann mit einer Trainingsprobe pro Bezeichnung und 25 Testproben mit einem Ergebnis durchgeführt werden, das im Diagramm 904 gezeigt ist. Das Betriebsverhalten des Klassifikators kann verglichen werden, und Ebenen in der ersten Kurve und sogar Ebenen in der zweiten Kurve sind dargestellt. Das Diagramm 902 enthält eine Y-Achse 906, die eine Erfolgsquote darstellt, und eine X-Achse 908, die eine Anzahl von Ebenen darstellt. Das Diagramm 904 enthält eine Y-Achse 910, die eine Erfolgsquote darstellt, und eine X-Achse 912, die eine Anzahl von Ebenen darstellt.
  • 10 veranschaulicht beispielhafte, nicht einschränkende Diagramme, die gemäß einer oder mehreren hierin beschriebenen Ausführungsformen ein Betriebsverhalten von Schaltungen geringer Tiefe als Quantenklassifikatoren in einem Beispiel mit drei Markierungen zeigen, wobei es sich bei den Proben nicht um Normalverteilungen handelt. Bei diesem Betriebsverhalten kann es sich um ein Betriebsverhalten handeln, das zu einem Klassifikator für maschinelles Lernen gehört, der unter Verwendung des Datenverarbeitungssystems 100 oder des Datenverarbeitungssystems 200 realisiert sein kann. Die Diagramme 1000 stellen im Diagramm 1002 eine Datenmenge (die in diesem Fall eine bestimmte Art von Getränk auf zwei Haupt-Prinzipachsen klassifiziert) dar. Das Betriebsverhalten kann im Vergleich zu einem naiven Bayes-Klassifikator an einer umskalierten Datenmenge bei auf 2 reduzierten Merkmalen getestet werden, wobei ein Ergebnis im Diagramm 1004 gezeigt ist. Die Datenmenge enthält ca. 180 Proben von drei Arten von Getränken. Eine gleiche Anzahl von Proben wird aus jeder Konzeptklasse in der Trainingsmenge entnommen, und die Anzahl von Proben aus jeder Klasse kann auf 48 beschränkt werden. Die Datenmenge kann ursprünglich 13-dimensional sein, und die Anzahl von Merkmalen kann über eine Vorverarbeitung auf 2 reduziert werden. Je Bezeichnung werden 16 Proben verwendet. Das Diagramm 1002 enthält eine Y-Achse 1006, die einen Wert der Probendaten darstellt, und eine X-Achse 1008, die einen zweiten Wert der Probendaten darstellt. Das Diagramm 1004 enthält eine Y-Achse 1010, die eine Erfolgsquote darstellt, und eine X-Achse 1012, die eine Anzahl von Ebenen darstellt.
  • 11 veranschaulicht ein Flussdiagramm eines beispielhaften, nicht einschränkenden, mittels Computer realisierten Verfahrens, das gemäß einer oder mehreren hierin beschriebenen Ausführungsformen das Realisieren von Schaltungen geringer Tiefe als Quantenklassifikatoren ermöglicht. Bei Beispielen können Aspekte dieses nicht einschränkenden, mittels Computer realisierten Verfahrens unter Verwendung des Datenverarbeitungssystems 100 oder des Datenverarbeitungssystems 200 realisiert sein. Es sollte klar sein, dass es Beispiele geben kann, bei denen mehr oder weniger Arbeitsschritte als im Flussdiagramm 1100 dargestellt sind, und/oder dass die im Flussdiagramm 1100 dargestellten Arbeitsschritte in einer anderen Reihenfolge realisiert sind, als hier dargestellt ist.
  • Im Flussdiagramm 1100 stellt ein Arbeitsschritt 1102 ein Kalibrieren von Quantenhardware durch ein Datenverarbeitungssystem (z.B. das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200) dar, um eine Quantenschaltung geringer Tiefe zu erzeugen. Bei einigen Beispielen nutzt die Quantenschaltung geringer Tiefe mindestens ein Gatter, das artbedingt auf der Quantenhardware zugänglich sein kann. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1102 ein Ermitteln einer Merkmalzuordnung, die auf der Grundlage von Trainingsinformationen einen einfachen Eingabezustand für die Quantenschaltung geringer Tiefe erstellt. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1102 ein Auswählen der Quantenschaltung geringer Tiefe aus einer Familie hardwareeffizienter Schaltungen. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1102 ein Erstellen einer Probe, die mit einer Merkmalzuordnung als Eingabequantenzustand klassifiziert werden soll.
  • Ein Arbeitsschritt 1104 stellt ein Ermitteln einer auf einem Anfangswert für einen Parameter eines Klassifikators für maschinelles Lernen beruhenden Aufwandsfunktion für die Quantenschaltung geringer Tiefe durch das Datenverarbeitungssystem (z.B. das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200) dar. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1104 ein Ermitteln einer zweiten Aufwandsfunktion, die eine Messung für eine Unterscheidung von Quantenbinärzuständen angibt. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1104 ein Ermitteln einer zweiten Aufwandsfunktion, die ein Konzept hoher Wahrscheinlichkeit zur Klassifizierung bei mehreren Bezeichnungen für die Unterscheidung k-närer Quantenzustände kennzeichnet. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1104 ein Ermitteln einer zweiten Aufwandsfunktion, die einen Hilbert-Raum und eine Merkmalraumaufteilung zur binären Klassifizierung von Daten kennzeichnet. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1104 ein Ermitteln einer zweiten Aufwandsfunktion, die einen Hilbert-Raum und eine Merkmalraumaufteilung zur k-nären Klassifizierung von Daten kennzeichnet.
  • Bei einigen Ausführungsformen beinhaltet der Arbeitsschritt 1104 ein Messen einer Ausgabestatistik der Quantenschaltung geringer Tiefe, ein Ermitteln einer zweiten Aufwandsfunktion einer Mehrzahl von Aufwandsfunktionen auf der Grundlage der Ausgabestatistik und ein Zuweisen der Ausgabestatistik zur zweiten Aufwandsfunktion. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1104 ein Ermitteln einer Gesamtaufwandsfunktion auf der Grundlage der zweiten Aufwandsfunktion.
  • Ein Arbeitsschritt 1106 stellt ein Ändern des Anfangswerts für den Parameter während des Trainings in einen zweiten Wert für den Parameter auf der Grundlage der Aufwandsfunktion für die Quantenschaltung geringer Tiefe durch das Datenverarbeitungssystem (z.B. das Quantendatenverarbeitungssystem 106 oder das Datenverarbeitungssystem 200) dar. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1106 ein Codieren bezeichneter Trainingsinformationen in mindestens ein Qubit über eine Quantenmerkmalzuordnung. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1106 ein Realisieren eines Messungskonzepts zur binären Klassifizierung von Bezeichnungen von Trainingsinformationen.
  • Bei einigen Beispielen beinhaltet der Arbeitsschritt 1106 ein Realisieren eines Konzepts mit kommutierenden Messungen, das die Klassifizierung von Trainingsinformationen bei mehreren Bezeichnungen ermöglicht. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1106 ein Ermitteln einer Ausgabe einer Aktivierungsfunktion des Klassifikators für maschinelles Lernen auf der Grundlage des zweiten Werts des Parameters. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1106 ein Betreiben der Quantenschaltung geringer Tiefe mit dem zweiten Wert des Parameters. Bei einigen Beispielen beinhaltet der Arbeitsschritt 1106 ein Messen einer Ausgabe infolge des Betreibens der Quantenschaltung geringer Tiefe und ein Zuweisen einer Klassifizierungsbezeichnung für die zu klassifizierende Probe auf der Grundlage der Ausgabe infolge des Betreibens der Quantenschaltung geringer Tiefe.
  • Um einen Kontext für die verschiedenen Aspekte des offenbarten Gegenstands bereitzustellen, sollen 12 sowie die folgende Erörterung eine allgemeine Beschreibung einer geeigneten klassischen Datenverarbeitungsumgebung bereitstellen, in der die verschiedenen Aspekte des offenbarten Gegenstands realisiert sein können. Bei einigen Beispielen kann diese klassische Datenverarbeitungsumgebung verwendet werden, um die Steuerlogik 204 der Klassifikatoren für maschinelles Lernen und die Auslesesteuerlogik 214 der Klassifikatoren für maschinelles Lernen zu realisieren. 12 veranschaulicht ein Blockschema einer beispielhaften, nicht einschränkenden Betriebsumgebung, die eine oder mehrere hierin beschriebene Ausführungsformen ermöglicht. Im Interesse der Kürze wird auf eine wiederholte Beschreibung ähnlicher Elemente verzichtet, die bei anderen hierin beschriebenen Ausführungsformen eingesetzt werden.
  • Unter Bezugnahme auf 12 kann eine geeignete Betriebsumgebung 1201 zum Realisieren verschiedener Aspekte dieser Offenbarung auch einen Computer 1212 beinhalten. Der Computer 1212 kann eine Verarbeitungseinheit 1214, einen Systemspeicher 1216 und einen Systembus 1218 beinhalten. Der Systembus 1218 verbindet Systemkomponenten einschließlich, ohne darauf beschränkt zu sein, des Systemspeichers 1216 mit der Verarbeitungseinheit 1214. Bei der Verarbeitungseinheit 1214 kann es sich um einen beliebigen verschiedener verfügbarer Prozessoren handeln. Als Verarbeitungseinheit 1214 können außerdem Architekturen mit zwei Mikroprozessoren und andere Mehrprozessorarchitekturen genutzt werden. Beim Systembus 1218 kann es sich um einen beliebigen von mehreren Arten von Busstrukturen handeln, darunter der Speicherbus oder die Speichersteuereinheit, ein Peripheriebus oder externer Bus und/oder ein lokaler Bus unter Verwendung einer beliebigen Vielfalt verfügbarer Busstrukturen einschließlich, ohne auf diese beschränkt zu sein, Industrial Standard Architecture (ISA), Micro-Channel Architecture (MSA), Extended ISA (EISA), Intelligent Drive Electronics (IDE), VESA Local Bus (VLB), Peripheral Component Interconnect (PCI), Card Bus, Universal Serial Bus (USB), Advanced Graphics Port (AGP), Firewire (IEEE 1094) und Small Computer Systems Interface (SCSI). Der Systemspeicher 1216 kann außerdem flüchtigen Speicher 1220 und nicht flüchtigen Speicher 1222 beinhalten. Das Basic Input/Output System (BIOS), dass die grundlegenden Routinen zum Übertragen von Daten zwischen Elementen innerhalb des Computers 1212 zum Beispiel während des Starts enthält, ist im nicht flüchtigen Speicher 1222 gespeichert. Zur Veranschaulichung und nicht als Einschränkung können zum nicht flüchtigen Speicher 1222 Nur-Lese-Speicher (read only memory, ROM), programmierbarer ROM (PROM), elektrisch programmierbarer ROM (EPROM), elektrisch löschbarer und programmierbarer ROM (electrically erasable programmable ROM, EEPROM), Flash-Speicher oder nicht flüchtiger Direktzugriffsspeicher (random access memory, RAM) (z.B. ferroelektrischer RAM (FeRAM) gehören. Zum flüchtigen Speicher 1220 kann außerdem Direktzugriffsspeicher (RAM) gehören, der als externer Cache-Speicher fungiert. Zur Veranschaulichung und nicht als Einschränkung ist RAM in vielen Formen verfügbar, zum Beispiel als static RAM (SRAM), dynamic RAM (DRAM), synchronous DRAM (SDRAM), double data rate SDRAM (DDR SDRAM), enhanced SDRAM (ESDRAM), Synchlink DRAM (SLDRAM), direct Rambus RAM (DRRAM), direct Rambus dynamic RAM (DRDRAM) und Rambus dynamic RAM.
  • Der Computer 1212 kann außerdem wechselbare/nicht wechselbare, flüchtige/nicht flüchtige Computerspeichermedien beinhalten. 12 veranschaulicht zum Beispiel einen Plattenspeicher 1224. Zum Plattenspeicher 1224 können außerdem, ohne auf diese beschränkt zu sein, Einheiten gehören wie zum Beispiel ein Magnetplattenlaufwerk, ein Diskettenlaufwerk ein Bandlaufwerk, ein Jaz-Laufwerk, ein Zip-Laufwerk, ein LS-100-Laufwerk, eine Flash-Speicherkarte oder ein Speicherstick. Zum Plattenspeicher 1224 können außerdem Speichermedien getrennt oder in Kombination mit anderen Speichermedien gehören einschließlich, ohne auf diese beschränkt zu sein, eines optischen Plattenlaufwerks wie zum Beispiel einer Compact-Disk-ROM-Einheit (CD-ROM), eines Laufwerks für einmal beschreibbare CDs (CD-R-Laufwerks), eines Laufwerks für wiederbeschreibbare CDs (CD-RW-Laufwerks) oder eines Digital-Versatile-Disk-ROM-Laufwerks (DVD-ROM-Laufwerks). Um eine Verbindung des Plattenspeichers 1224 mit dem Systembus 1218 zu ermöglichen, wird in der Regel eine wechselbare oder nicht wechselbare Schnittstelle wie zum Beispiel eine Schnittstelle 1226 verwendet. 12 stellt außerdem Software dar, die als Vermittler zwischen Benutzern und den grundlegenden Computerressourcen fungiert, die in der geeigneten Betriebsumgebung 1201 beschrieben sind. Zu einer derartigen Software kann zum Beispiel auch ein Betriebssystem 1228 gehören. Das Betriebssystem 1228, das auf dem Plattenspeicher 1224 gespeichert sein kann, dient zum Steuern und Zuweisen von Ressourcen des Computers 1212. Systemanwendungen 1230 nutzen die Verwaltung von Ressourcen durch das Betriebssystem 1228 über Programmmodule 1232 und Programmdaten 1234, die z.B. entweder im Systemspeicher 1216 oder auf dem Plattenspeicher 1224 gespeichert sind. Es sollte klar sein, dass diese Offenbarung mit verschiedenen Betriebssystemen oder Kombinationen von Betriebssystemen realisiert werden kann. Ein Benutzer gibt Befehle oder Informationen über eine Eingabeeinheit bzw. über Eingabeeinheiten 1236 in den Computer 1212 ein. Zu Eingabeeinheiten 1236 gehören, ohne auf diese beschränkt zu sein, eine Zeigeeinheit wie zum Beispiel eine Maus, ein Trackball, ein Stift, ein Touchpad, eine Tastatur, ein Mikrofon, ein Joystick, ein Gamepad, eine Satellitenempfangsantenne, ein Scanner, eine TV-Tunerkarte, eine Digitalkamera, eine digitale Videokamera, eine Webkamera und dergleichen. Diese und andere Eingabeeinheiten sind über den Systembus 1218 und den Schnittstellenanschluss bzw. die Schnittstellenanschlüsse 1238 mit der Verarbeitungseinheit 1214 verbunden. Zum Schnittstellenanschluss bzw. zu den Schnittstellenanschlüssen 1238 gehören zum Beispiel ein serieller Anschluss, ein paralleler Anschluss, ein Game-Anschluss und ein Universal Serial Bus (USB). Eine Ausgabeeinheit bzw. Ausgabeeinheiten 1240 nutzt/nutzen einige derselben Arten von Anschlüssen wie die Eingabeeinheit(en) 1236. Daher kann zum Beispiel ein USB-Anschluss verwendet werden, um dem Computer 1212 Eingaben bereitzustellen und Daten aus dem Computer 1212 zu einer Ausgabeeinheit 1240 auszugeben. Ein Ausgabeadapter 1242 ist bereitgestellt, um zu veranschaulichen, dass hierbei neben anderen Ausgabeeinheiten 1240, die spezielle Adapter erfordern, einige Ausgabeeinheiten 1240 wie z.B. Monitore, Lautsprecher und Drucker vorliegen können. Zur Veranschaulichung und nicht als Einschränkung gehören zu den Ausgabeadaptern 1242 Video- und Soundkarten, die ein Mittel zur Verbindung zwischen der Ausgabeeinheit 1240 und dem Systembus 1218 bereitstellen. Es sollte beachtet werden, dass andere Einheiten und/oder Systeme von Einheiten wie zum Beispiel entfernt angeordnete Computer 1244 sowohl Eingabe- als auch Ausgabefähigkeiten bereitstellen.
  • Der Computer 1212 kann unter Verwendung logischer Verbindungen zu einem oder mehreren entfernt angeordneten Computern wie zum Beispiel den entfernt angeordneten Computern 1244 in einer vernetzten Umgebung arbeiten. Bei den entfernt angeordneten Computern 1244 kann es sich um einen Computer, einen Server, einen Router, einen Netzwerk-PC, eine Workstation, um eine auf Mikroprozessoren beruhende Vorrichtung, eine gleichberechtigte Partnereinheit (Peer-Einheit) oder um ein anderes übliches Netzwerkneuron und dergleichen handeln, die darüber hinaus viele oder alle der im Zusammenhang mit dem Computer 1212 beschriebenen Elemente beinhalten. Der Kürze wegen ist bei den entfernt angeordneten Computern 1244 nur eine Hauptspeichereinheit 1246 veranschaulicht. Der/die entfernt angeordnete/angeordneten Computer 1244 ist/sind lokal mit dem Computer 1212 über eine Netzwerkschnittstelle 1248 und anschließend physisch über eine Datenaustauschverbindung 1250 verbunden. Die Netzwerkschnittstelle 1248 umfasst drahtgebundene und/oder drahtlose Datenaustauschnetzwerke wie zum Beispiel lokale Netzwerke (LAN), Weitverkehrsnetzwerke (WAN), Mobilfunknetze usw. Zu LAN-Technologien gehören Fiber Distributed Data Interface (FDDI), Copper Distributed Data Interface (CDDI), Ethernet, Token Ring und dergleichen. Zu WAN-Technologien gehören, oder auf diese beschränkt zu sein, Punkt-zu-Punkt-Verbindungen, leitungsvermittelte Netze wie zum Beispiel Integrated Services Digital Networks (ISDN) und Varianten davon, paketvermittelte Netze und digitale Teilnehmeranschlüsse (Digital Subscriber Lines, DSL). Der Begriff „Datenaustauschverbindung“ 1250 bezeichnet die Hardware/Software, die zum Verbinden der Netzwerkschnittstelle 1248 mit dem Systembus 1218 verwendet wird. Obwohl die Datenaustauschverbindung 1250 zur Verdeutlichung der Veranschaulichung innerhalb des Computers 1212 gezeigt ist, kann sie sich auch außerhalb des Computers 1212 befinden. Zu Hardware/Software zum Verbinden mit der Netzwerkschnittstelle 1248 können außerdem, um nur einige Beispiele zu nennen, interne und externe Technologien wie zum Beispiel Modems gehören, darunter normale Telefonmodems, Kabelmodems und DSL-Modems, ISDN-Adapter und Ethernet-Karten.
  • Bei Ausführungsformen der vorliegenden Erfindung kann es sich um ein System, ein Verfahren, eine Vorrichtung und/oder ein Computerprogrammprodukt mit einem beliebigen möglichen Integrationsgrad technischer Einzelheiten handeln. Das Computerprogrammprodukt kann (ein) durch einen Computer lesbare(s) Speichermedium (oder -medien) beinhalten, auf dem/denen durch einen Computer lesbare Programmanweisungen gespeichert ist/sind, um zu bewirken, dass ein Prozessor Aspekte der vorliegenden Erfindung ausführt. Bei dem durch einen Computer lesbaren Speichermedium kann es sich um eine physische Einheit handeln, auf der Anweisungen zur Verwendung durch eine Einheit zur Ausführung von Anweisungen aufbewahrt und gespeichert sein können. Bei dem durch einen Computer lesbaren Speichermedium kann es sich zum Beispiel, ohne auf diese beschränkt zu sein, um eine elektronische Speichereinheit, eine magnetische Speichereinheit, eine optische Speichereinheit, eine elektromagnetische Speichereinheit, eine Halbleiterspeichereinheit oder eine beliebige geeignete Kombination des Vorstehenden handeln. Zu einer nicht erschöpfenden Liste konkreterer Beispiele des durch einen Computer lesbaren Speichermediums können außerdem die folgenden gehören: eine transportable Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (random access memory, RAM), ein Nur-Lese-Speicher (read-only memory, ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (erasable programmable read-only memory, EPROM bzw. Flash-Speicher), ein statischer Direktzugriffsspeicher (static random access memory, SRAM), ein transportabler Kompaktspeicherplatte-Nur-Lese-Speicher (compact disc read-only memory, CD-ROM), eine DVD (digital versatile disc), ein Speicher-Stick, eine Diskette, eine mechanisch codierte Einheit wie zum Beispiel Lochkarten oder erhabene Strukturen in einer Rille, auf denen Anweisungen gespeichert sind, und beliebige geeignete Kombinationen des Vorstehenden. Ein durch einen Computer lesbares Speichermedium im hierin verwendeten Sinne ist nicht so auszulegen, dass es sich dabei um flüchtige Signale handelt, beispielsweise um Funkwellen oder sich frei ausbreitende elektromagnetische Wellen, um elektromagnetische Wellen, die sich durch einen Hohlleiter oder andere Übertragungsmedien ausbreiten (z.B. Lichtimpulse, die ein Lichtwellenleiterkabel durchlaufen) oder um elektrische Signale, die über ein Kabel übertragen werden.
  • Hierin beschriebene durch einen Computer lesbare Programmanweisungen können über ein Netzwerk, zum Beispiel das Internet, ein lokales Netzwerk ein Weitverkehrsnetzwerk und/oder ein Drahtlosnetzwerk von einem durch einen Computer lesbaren Speichermedium auf betreffende Datenverarbeitungs-/Verarbeitungseinheiten oder auf einen externen Computer oder eine externe Speichereinheit heruntergeladen werden. Das Netzwerk kann Kupferübertragungskabel, Lichtwellenleiter, Drahtlosübertragung, Router, Firewalls, Switches, Gateway-Computer und/oder Edge-Server aufweisen. Eine Netzwerkadapterkarte oder eine Netzwerkschnittstelle bei jeder Datenverarbeitungs-/Verarbeitungseinheit empfängt durch einen Computer lesbare Programmanweisungen aus dem Netzwerk und leitet die durch einen Computer lesbaren Programmanweisungen zur Speicherung in einem durch einen Computer lesbaren Speichermedium innerhalb der jeweiligen Datenverarbeitungs-/Verarbeitungseinheit weiter. Bei durch einen Computer lesbaren Programmanweisungen zum Ausführen von Arbeitsschritten der vorliegenden Erfindung kann es sich um Assembler-Anweisungen, ISA-Anweisungen (ISA = Instruction-Set-Architecture), Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, zustandssetzende Daten oder entweder Quellcode oder Objektcode handeln, die in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, darunter objektorientierte Programmiersprachen wie z.B. Smalltalk, C++ o.Ä. sowie prozedurale Programmiersprachen wie z.B. die Programmiersprache „C“ oder ähnliche Programmiersprachen. Die durch einen Computer lesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Softwarepaket, teilweise auf dem Computer des Benutzers und teilweise auf einem entfernt angeordneten Computer oder vollständig auf dem entfernt angeordneten Computer oder Server ausgeführt werden. Beim letztgenannten Szenario kann der entfernt angeordnete Computer mit dem Computer des Benutzers über eine beliebige Art von Netzwerk verbunden sein, unter anderem über ein lokales Netzwerk (Local Area Network, LAN) oder über ein Weitverkehrsnetzwerk (Wide Area Network, WAN), oder die Verbindung kann zu einem externen Computer hergestellt sein (beispielsweise über das Internet unter Nutzung eines Internet-Dienstanbieters (Internet Service Provider)). Beim letztgenannten Szenario kann der entfernt angeordnete Computer mit dem Computer des Benutzers über eine beliebige Art von Netzwerk verbunden sein, unter anderem über ein lokales Netzwerk (Local Area Network, LAN) oder über ein Weitverkehrsnetzwerk (Wide Area Network, WAN), oder die Verbindung kann zu einem externen Computer hergestellt sein (beispielsweise über das Internet unter Nutzung eines Internet-Dienstanbieters (Internet Service Provider)).
  • Aspekte der vorliegenden Erfindung sind hierin unter Bezugnahme auf Flussdiagrammdarstellungen und/oder Blockschemata von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es wird klar sein, dass jeder Block der Flussdiagramme und/oder der Blockschemata und Kombinationen von Blöcken in den Flussdiagrammen und/oder Blockschemata durch einen Computerprogrammanweisungen realisiert werden kann bzw. können. Diese Computerprogrammanweisungen können einem Prozessor eines Mehrzweckcomputers, eines Spezialcomputers oder anderer programmierbaren Datenverarbeitungsvorrichtungen bereitgestellt werden, um eine Maschine zu erzeugen, sodass die Anweisungen, die über den Prozessor des Computers oder anderer programmierbarer Datenverarbeitungsvorrichtungen ausgeführt werden, Mittel schaffen, um die in einem Block bzw. in den Blöcken des Flussdiagramms bzw. der Flussdiagramme und/oder des Blockschemas bzw. der Blockschemata angegebenen Funktionen/Aktionen zu realisieren. Diese durch einen Computer lesbaren Programmanweisungen können ebenfalls in einem durch einen Computer lesbaren Medium gespeichert sein, das einen Computer, andere programmierbare Datenverarbeitungsvorrichtungen oder andere Einheiten anweisen kann, in einer bestimmten Weise zu funktionieren, sodass das durch einen Computer lesbare Medium mit darauf gespeicherten Anweisungen ein Erzeugnis aufweist, das Anweisungen enthält, die die in einem Block bzw. in den Blöcken der Flussdiagramme und/oder der Blockschemata angegebene Funktion/Aktion realisieren. Die durch einen Computer lesbaren Programmanweisungen können auch in einen Computer, in andere programmierbare Datenverarbeitungsvorrichtungen oder in andere Einheiten geladen werden, um zu bewirken, dass auf dem Computer, auf anderen programmierbaren Vorrichtungen oder anderen Einheiten eine Reihe von Arbeitsschritten ausgeführt wird, um einen mittels Computer realisierten Prozess zu schaffen, sodass die Anweisungen, die auf dem Computer, auf anderen programmierbaren Vorrichtungen oder Einheiten ausgeführt werden, die in einem Block bzw. in den Blöcken der Flussdiagramme und/oder der Blockschemata angegebenen Funktionen/Aktionen realisieren.
  • Die Flussdiagramme und Blockschemata in den Figuren veranschaulichen die Architektur, Funktionalität und Wirkungsweise möglicher Realisierungsformen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in den Flussdiagrammen bzw. in den Blockschemata eine Steuerungskomponente, ein Segment oder einen Abschnitt von Anweisungen darstellen, das bzw. der eine oder mehrere ausführbare Anweisungen zum Realisieren der angegebenen Logikfunktion bzw. Logikfunktionen aufweist. Bei einigen alternativen Ausführungen können die in dem Block angegebenen Funktionen in einer anderen Reihenfolge als in den Figuren angegeben stattfinden. Zum Beispiel können zwei hintereinander aufgeführte Blöcke tatsächlich im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können je nach der mit den Blöcken verbundenen Funktionalität manchmal in umgekehrter Reihenfolge ausgeführt werden. Darüber hinaus ist anzumerken, dass jeder Block der dargestellten Blockschemata und/oder Flussdiagramme sowie Kombinationen von Blöcken in den dargestellten Blockschemata und/oder Flussdiagrammen mit Hilfe zweckgebundener hardwaregestützter Systeme zum Ausführen der angegebenen Funktionen bzw. Aktionen oder mit Hilfe von Kombinationen aus zweckgebundener Hardware und zweckgebundenen Computeranweisungen realisiert werden kann bzw. können.
  • Obwohl der Gegenstand im Vorstehenden im allgemeinen Kontext von durch einen Computer ausführbaren Anweisungen eines Computerprogrammprodukts beschrieben wurde, das auf einem Computer und/oder auf Computern ausgeführt wird, werden Fachleute erkennen, dass diese Offenbarung ebenso in Kombination mit anderen Programmmodulen realisiert werden kann. Programmmodule beinhalten im Allgemeinen Routinen, Programme, Komponenten, Datenstrukturen usw., die bestimmte Aufgaben durchführen und/oder bestimmte abstrakte Datentypen realisieren. Darüber hinaus wird Fachleuten klar sein, dass die erfindungsgemäßen, mittels Computer realisiertes Verfahren mit Hilfe anderer Computersystemkonfigurationen in die Praxis umgesetzt werden können, darunter Computersystem mit einem oder mehreren Prozessoren, Mini-Datenverarbeitungseinheiten, Großrechner sowie handgehaltene Datenverarbeitungseinheiten (z.B. PDA, Telefon), auf Mikroprozessoren beruhende oder programmierbare Unterhaltungs- oder Industrieelektronik und dergleichen. Die veranschaulichten Aspekte können außerdem in verteilten Datenverarbeitungsumgebungen praktisch umgesetzt werden, in denen Aufgaben durch entfernt angeordnete Verarbeitungseinheiten durchgeführt werden, die über ein Datenübertragungsnetzwerk verbunden sind. Jedoch können einige, wenn nicht alle Aspekte dieser Offenbarung auf eigenständigen Computern in die Praxis umgesetzt werden. Bei einer verteilten Datenverarbeitungsumgebung können sich Programmmodule sowohl auf lokal als auch auf entfernt angeordneten Hauptspeichereinheiten befinden.
  • In dem in dieser Anmeldung verwendeten Sinne können die Begriffe „Komponente“, „System“, „Plattform“, „Schnittstelle“ usw. eine mit Computern im Zusammenhang stehende Einheit oder eine Einheit bezeichnen oder diese beinhalten, die im Zusammenhang mit einer betriebsfähigen Maschine mit einer oder mehreren bestimmten Funktionalitäten steht. Bei den hierin offenbarten Einheiten kann es sich entweder um Hardware, eine Kombination aus Hardware und Software, Software oder Software in Ausführung handeln. Bei einer Komponente kann es sich zum Beispiel, ohne auf diese beschränkt zu sein, um einen auf einem Prozessor ausgeführten Prozess, einen Prozessor, ein Objekt, ein ausführbares Element, einen Ausführungs-Thread, ein Programm und/oder einen Computer handeln. Zur Veranschaulichung kann es sich sowohl bei einer auf einem Server ausgeführten Anwendung als auch bei dem Server um eine Komponente handeln. Eine oder mehrere Komponenten können sich innerhalb eines Prozesses und/oder Ausführungs-Threads befinden, und eine Komponente kann sich auf einem Computer befinden und/oder auf zwei oder mehr Computer verteilt sein. Bei einem weiteren Beispiel können jeweilige Komponenten von verschiedenen, durch einen Computer lesbare Medien ausgeführt werden, auf denen verschiedene Datenstrukturen gespeichert sind. Die Komponenten können über lokale und oder entfernt angeordnete Prozessoren Daten austauschen, zum Beispiel gemäß einem Signal, das ein oder mehrere Datenpakete enthält (z.B. Daten von einer Komponente, die mit einer anderen Komponente in einem lokalen System, verteilten System und/oder über ein Netzwerk wie zum Beispiel das Internet mit anderen Systemen über das Signal in Wechselwirkung steht). Weiterhin beispielhaft kann es sich bei einer Komponente um eine Vorrichtung mit einer bestimmten Funktionalität handeln, die durch mechanische Teile bereitgestellt wird, die durch elektrische oder elektronische Schaltungen betätigt werden, die durch eine Software- oder Firmware-Anwendung betrieben werden, die durch einen Prozessor ausgeführt wird. In einem derartigen Fall kann sich der Prozessor innerhalb oder außerhalb der Vorrichtung befinden und zumindest einen Teil der Software- oder Firmware-Anwendung ausführen. Als noch weiteres Beispiel kann es sich bei einer Komponente um eine Vorrichtung handeln, die eine bestimmte Funktionalität über elektronische Schaltungen ohne mechanische Teile bereitstellt, wobei die elektronischen Komponenten einen Prozessor oder andere Mittel beinhalten können, um Software oder Firmware auszuführen, die zumindest teilweise die Funktionalität der elektronischen Komponenten überträgt. Bei einem Aspekt kann eine Komponente eine elektronische Komponente über eine virtuelle Maschine emulieren, z.B. innerhalb eines Cloud-Computing-Systems.
  • Darüber hinaus ist der Begriff „oder“ so zu verstehen, dass er ein einschließendes „oder“ und nicht ein ausschließendes „oder“ bezeichnet. Das bedeutet, dass, sofern nichts anderes angegeben ist oder aus dem Kontext ersichtlich ist, mit dem Ausdruck „X nutzt A oder B“ beliebige der natürlichen einschließenden Permutationen gemeint sind. Das bedeutet, dass, wenn A durch X genutzt wird; B durch X genutzt wird; oder X sowohl A als auch B nutzt, „X nutzt A oder B“ unter beliebigen der vorstehend genannten Fälle erfüllt ist. Des Weiteren sollten die Artikel „ein“ und „eine“ in dem in der Beschreibung des Gegenstands und in den beigefügten Zeichnungen verwendeten Sinne generell so ausgelegt werden, dass sie „ein/eine/eines oder mehrere“ bedeuten, sofern nichts anderes angegeben oder aus dem Kontext ersichtlich ist, dass es sich um eine Einzahlform handelt. Im hierin verwendeten Sinne werden die Ausdrücke „Beispiel“ und/oder „beispielhaft“ in der Bedeutung von „als Beispiel, Exemplar oder der Veranschaulichung dienend“ verwendet. Um jegliche Zweifel auszuschließen, ist der hierin offenbarte Gegenstand nicht auf derartige Beispiele beschränkt. Darüber hinaus sind beliebige Aspekte oder Gestaltungsformen, die hierin als „Beispiel“ und/oder „beispielhaft“ beschrieben sind, weder zwangsläufig als gegenüber anderen Aspekten oder Gestaltungsformen bevorzugt oder vorteilhaft auszulegen, noch sollen sie gleichwertige beispielhafte Strukturen und Techniken ausschließen, die Fachleuten bekannt sind.
  • In dem in der Beschreibung des Gegenstands verwendeten Sinne kann der Begriff „Prozessor“ im Wesentlichen beliebige Datenverarbeitungseinheiten oder Einheiten bezeichnen, die, ohne auf diese beschränkt zu sein, Prozessoren mit einem Kern; Prozessoren mit einem Kern und Fähigkeit zur Multithread-Ausführung von Software; Prozessoren mit mehreren Kernen; Prozessoren mit mehreren Kernen und einer Fähigkeit zur Multithread-Ausführung von Software; Prozessoren mit mehreren Kernen und Hardware-Multithread-Technologie; Parallelplattformen; Und Parallelplattformen mit gemeinsam genutztem verteilten Speicher aufweisen. Darüber hinaus kann der Begriff „Prozessor“ eine integrierte Schaltung, eine anwendungsspezifische integrierte Schaltung (Application Specific Integrated Circuit, ASIC), einen digitalen Signalprozessor (DSP), ein vor Ort programmierbares Gate-Array (Field Programmable Gate Array, FPGA), eine speicherprogrammierbare Steuerung (SPS), eine Complex Programmable Logic Device (CPLD), eine Transistorlogik oder Logik mit diskreten Gattern, diskrete Hardwarekomponenten oder beliebige Kombinationen davon bezeichnen, die ausgelegt sind, um die hierin beschriebenen Funktionen durchzuführen. Ferner können Prozessoren Nanoarchitekturen nutzen wie zum Beispiel, ohne auf diese beschränkt zu sein, Molekular- oder Quantenpunkttransistoren, Schalter und Gatter, um die Raumausnutzung zu optimieren oder das Betriebsverhalten von Benutzergeräten zu verbessern. Ein Prozessor kann außerdem als Kombination aus Datenverarbeitungseinheiten realisiert sein. In der vorliegenden Offenbarung werden Begriffe wie zum Beispiel „speichern“, „Speicher“, „Datenspeicher“, „Datenbank“, „Datenbank“ und im Wesentlichen beliebige andere Informationsspeicherkomponenten genutzt, die für den Betrieb und die Funktionalität einer Komponente von Bedeutung sind, um „Speicherkomponenten“, in einem „Speicher“ verkörperte Einheiten oder Komponenten zu bezeichnen, die einen Speicher aufweisen. Es sollte klar sein, dass es sich bei Speicher und/oder Speicherkomponenten, die hierin beschrieben sind, entweder um flüchtigen Speicher oder nicht wichtigen Speicher handeln kann oder dieser Speicher bzw. diese Speicherkomponenten sowohl flüchtigen als auch nicht flüchtigen Speicher enthalten können. Zur Veranschaulichung und nicht als Einschränkung können zum nicht flüchtigen Speicher Nur-Lese-Speicher (read only memory, ROM), programmierbarer ROM (PROM), elektrisch programmierbarer ROM (EPROM), elektrisch löschbarer ROM (electrically erasable ROM, EEPROM), Flash-Speicher oder nicht flüchtiger Direktzugriffsspeicher (random access memory, RAM) (z.B. ferroelektrischer RAM (FeRAM) gehören. Flüchtiger Speicher kann RAM beinhalten, der zum Beispiel als externer Cache-Speicher fungieren kann. Zur Veranschaulichung und nicht als Einschränkung ist RAM in vielen Formen verfügbar, zum Beispiel als synchronous RAM (SRAM), dynamic RAM (DRAM), synchronous DRAM (SDRAM), double data rate SDRAM (DDR SDRAM), enhanced SDRAM (ESDRAM), Synchlink DRAM (SLDRAM), direct Rambus RAM (DRRAM), direct Rambus dynamic RAM (DRDRAM) und Rambus dynamic RAM (RDRAM). Darüber hinaus sollen die hierin offenbarten Speicherkomponenten von Systemen oder mittels Computer realisierten Verfahren diese und beliebige andere geeignete Arten von Speicher einschließen, ohne auf diese beschränkt zu sein.
  • Die oben aufgeführte Beschreibung beinhaltet lediglich Beispiele von Systemen und mittels Computer realisierten Verfahren. Es ist selbstverständlich nicht möglich, jede denkbare Kombination aus Komponenten oder mittels Computer realisierten Verfahren zum Beschreiben dieser Offenbarung zu beschreiben, aber Fachleute können erkennen, dass viele weitere Kombinationen und Abwandlungen dieser Offenbarung möglich sind. Des Weiteren sind in dem Ausmaß, in dem die Begriffe „beinhaltet“, „enthält“, „besitzt“ und dergleichen in der ausführlichen Beschreibung, in den Ansprüchen, Anhängen und Zeichnungen verwendet werden, derartige Begriffe als in einer ähnlichen Weise einschließend gedacht, in der der Begriff „aufweisen/aufweisend“ als „enthalten/enthaltend“ interpretiert wird, wenn er in einem Anspruch als Übergangswort verwendet wird. Die Beschreibungen der verschiedenen Ausführungsformen sollen der Veranschaulichung dienen, sind jedoch nicht als vollständig oder auf die Erfindung in der offenbarten Form beschränkt gedacht. Für den Fachmann sind viele Modifikationen und Variationen denkbar, ohne dass diese eine Abweichung vom Schutzbereich und Grundgedanken der beschriebenen Ausführungsformen darstellen würden. Die hierin verwendete Terminologie wurde gewählt, um die Grundgedanken der Ausführungsformen, die praktische Anwendung bzw. die technische Verbesserung gegenüber den auf dem Markt vorgefundenen Technologien auf bestmögliche Weise zu erläutern bzw. anderen mit entsprechenden Fachkenntnissen das Verständnis der hierin offenbarten Ausführungsformen zu ermöglichen.

Claims (20)

  1. System, das aufweist: Quantenhardware; einen Hauptspeicher, in dem durch einen Computer ausführbaren Komponenten gespeichert sind; und einen Prozessor, der die im Hauptspeicher gespeicherten, durch einen Computer ausführbaren Komponenten ausführt, wobei die durch einen Computer ausführbaren Komponenten aufweisen: eine Kalibrierungskomponente, die die Quantenhardware kalibriert, um eine Quantenschaltung geringer Tiefe zu erzeugen; eine Aufwandsfunktionskomponente, die auf der Grundlage eines Anfangswerts für einen Parameter eines Klassifikators für maschinelles Lernen eine Aufwandsfunktion für die Quantenschaltung geringer Tiefe ermittelt; und eine Trainingskomponente, die auf der Grundlage der Aufwandsfunktion für die Quantenschaltung geringer Tiefe den Anfangswert für den Parameter während des Trainings in einen zweiten Wert für den Parameter ändert.
  2. System nach Anspruch 1, wobei die durch einen Computer ausführbaren Komponenten ferner aufweisen: eine Komponente für maschinelles Lernen, die eine Ausgabe einer Aktivierungsfunktion des Klassifikators für maschinelles Lernen auf der Grundlage des zweiten Werts des Parameters ermittelt.
  3. System nach Anspruch 1, wobei die Trainingskomponente bezeichnete Trainingsinformationen über eine Quantenmerkmalzuordnung in mindestens ein Qubit codiert.
  4. System nach Anspruch 1, wobei die Quantenschaltung geringer Tiefe mindestens ein Gatter nutzt, das artbedingt auf der Quantenhardware zugänglich ist.
  5. System nach Anspruch 1 wobei die Trainingskomponente eine supraleitende Qubit-Architektur mit festen Häufigkeiten nutzt, um eine Architektur des Klassifikators für maschinelles Lernen zu erzeugen.
  6. System nach Anspruch 1, wobei die Trainingskomponente ein kommutierendes Messungskonzept zur binären Klassifizierung von Bezeichnungen von Trainingsinformationen realisiert.
  7. System nach Anspruch 1, wobei die Trainingskomponente ein kommutierendes Messungskonzept realisiert, das die Klassifizierung von Trainingsinformationen bei mehreren Bezeichnungen ermöglicht.
  8. Mittels Computer realisiertes Verfahren, das aufweist: durch ein Datenverarbeitungssystem Kalibrieren von Quantenhardware, um eine Quantenschaltung geringer Tiefe zu erzeugen; durch das System Ermitteln einer Aufwandsfunktion für die Quantenschaltung geringer Tiefe auf der Grundlage eines Anfangswerts für einen Parameter eines Klassifikators für maschinelles Lernen; und durch das System auf der Grundlage der ersten Aufwandsfunktion für die Quantenschaltung geringer Tiefe Ändern des Anfangswerts für den Parameter während des Trainings in einen zweiten Wert für den Parameter.
  9. Mittels Computer realisiertes Verfahren nach Anspruch 8, das ferner aufweist: durch das System Ermitteln einer zweiten Aufwandsfunktion, die eine Messung für eine Unterscheidung von Quantenbinärzuständen angibt.
  10. Mittels Computer realisiertes Verfahren nach Anspruch 8, das ferner aufweist: durch das System Ermitteln einer zweiten Aufwandsfunktion, die ein Konzept hoher Wahrscheinlichkeit zur Klassifizierung bei mehreren Bezeichnungen für die Unterscheidung k-närer Quantenzustände kennzeichnet.
  11. Mittels Computer realisiertes Verfahren nach Anspruch 8, das ferner aufweist: durch das System Ermitteln einer zweiten Aufwandsfunktion, die einen Hilbert-Raum und eine Merkmalraumaufteilung zur binären Klassifizierung von Daten kennzeichnet.
  12. Mittels Computer realisiertes Verfahren nach Anspruch 8, das ferner aufweist: durch das System Ermitteln einer zweiten Aufwandsfunktion, die einen Hilbert-Raum und eine Merkmalraumaufteilung zur k-nären Klassifizierung von Daten kennzeichnet.
  13. Mittels Computer realisiertes Verfahren nach Anspruch 8, das ferner aufweist: durch das System Ermitteln einer Merkmalzuordnung, die auf der Grundlage von Trainingsinformationen einen einfachen Eingabezustand für die Quantenschaltung geringer Tiefe erstellt.
  14. Mittels Computer realisiertes Verfahren nach Anspruch 8, das ferner aufweist: durch das System Auswählen der Quantenschaltung geringer Tiefe aus einer Familie hardwareeffizienter Schaltungen.
  15. Computerprogrammprodukt, wobei das Computerprogrammprodukt ein durch einen Computer lesbares Speichermedium aufweist, das darauf verkörperte Programmanweisungen beinhaltet, wobei die Programmanweisungen durch ein Datenverarbeitungssystem ausführbar sind, um zu bewirken, dass das Datenverarbeitungssystem zumindest: Quantenhardware kalibriert, um eine Quantenschaltung geringer Tiefe zu erzeugen; auf der Grundlage eines Anfangswerts für einen Parameter eines Klassifikators für maschinelles Lernen eine Aufwandsfunktion für die Quantenschaltung geringer Tiefe zu ermitteln; und auf der Grundlage der Aufwandsfunktion für die Quantenschaltung geringer Tiefe den Anfangswert für den Parameter während des Trainings in einen zweiten Wert für den Parameter zu ändern.
  16. Computerprogrammprodukt nach Anspruch 15, wobei die Programmanweisungen ferner durch das Datenverarbeitungssystem ausführbar sind, um zu bewirken, dass das Datenverarbeitungssystem zumindest: eine Ausgabestatistik der Quantenschaltung geringer Tiefe misst; auf der Grundlage der Ausgabestatistik eine zweite Aufwandsfunktion einer Mehrzahl von Aufwandsfunktion ermittelt; und die Ausgabestatistik der zweiten Aufwandsfunktion zuweist.
  17. Computerprogrammprodukt nach Anspruch 16, wobei die Programmanweisungen ferner durch das Datenverarbeitungssystem ausführbar sind, um zu bewirken, dass das Datenverarbeitungssystem zumindest: auf der Grundlage der zweiten Aufwandsfunktion eine Gesamtaufwandsfunktion ermittelt.
  18. Computerprogrammprodukt nach Anspruch 15, wobei die Programmanweisungen ferner durch das Datenverarbeitungssystem ausführbar sind, um zu bewirken, dass das Datenverarbeitungssystem zumindest: eine Probe erstellt, die mit einer Merkmalzuordnung als Eingabequantenzustand klassifiziert werden soll.
  19. Computerprogrammprodukt nach Anspruch 18, wobei die Programmanweisungen ferner durch das Datenverarbeitungssystem ausführbar sind, um zu bewirken, dass das Datenverarbeitungssystem zumindest: die Quantenschaltung geringer Tiefe mit dem zweiten Wert des Parameters betreibt.
  20. Computerprogrammprodukt nach Anspruch 19, wobei die Programmanweisungen ferner durch das Datenverarbeitungssystem ausführbar sind, um zu bewirken, dass das Datenverarbeitungssystem zumindest: eine Ausgabe infolge des Betreibens der Quantenschaltung geringer Tiefe misst; und auf der Grundlage der Ausgabe infolge des Betreibens der Quantenschaltung geringer Tiefe eine Klassifizierungsbezeichnung für die zu klassifizierende Probe zuweist.
DE112017008151.3T 2017-11-29 2017-12-21 Schaltungen geringer tiefe als quantenklassifikatoren Pending DE112017008151T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/826,327 US10977546B2 (en) 2017-11-29 2017-11-29 Short depth circuits as quantum classifiers
US15/826,327 2017-11-29
PCT/IB2017/058266 WO2019106418A1 (en) 2017-11-29 2017-12-21 Short depth circuits as quantum classifiers

Publications (1)

Publication Number Publication Date
DE112017008151T5 true DE112017008151T5 (de) 2020-09-03

Family

ID=66634554

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017008151.3T Pending DE112017008151T5 (de) 2017-11-29 2017-12-21 Schaltungen geringer tiefe als quantenklassifikatoren

Country Status (6)

Country Link
US (1) US10977546B2 (de)
JP (1) JP6979661B2 (de)
CN (1) CN111279369B (de)
DE (1) DE112017008151T5 (de)
GB (1) GB2581942A (de)
WO (1) WO2019106418A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020010147A1 (en) * 2018-07-02 2020-01-09 Zapata Computing, Inc. Compressed unsupervised quantum state preparation with quantum autoencoders
US11568293B2 (en) * 2018-07-18 2023-01-31 Accenture Global Solutions Limited Quantum formulation independent solver
WO2020037300A1 (en) * 2018-08-17 2020-02-20 Zapata Computing, Inc. Quantum computer with exact compression of quantum states
US11558069B1 (en) * 2018-09-13 2023-01-17 PsiQuantum Corp. Conversion of Pauli errors to erasure errors in a photonic quantum computing system
EP4235521A3 (de) * 2018-09-25 2023-11-01 Google LLC Fehlerkorrigierte variationsalgorithmen
KR102406312B1 (ko) * 2019-12-30 2022-06-10 한국과학기술원 양자회로 에러 보정 방법 및 그 장치
US11687817B2 (en) * 2020-09-28 2023-06-27 Cognizant Technology Solutions India Pvt. Ltd. System and method for providing data computation via quantum computers
CN112418387A (zh) * 2020-11-18 2021-02-26 北京百度网讯科技有限公司 量子数据处理方法及设备
US11983720B2 (en) 2021-10-21 2024-05-14 International Business Machines Corporation Mixed quantum-classical method for fraud detection with quantum feature selection

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1672569A1 (de) 2004-12-20 2006-06-21 STMicroelectronics S.r.l. Verfahren zur Durchführung eines Quanten-Algorithmus zur Simulation eines genetischen Algorithmus
US20090263010A1 (en) * 2008-04-18 2009-10-22 Microsoft Corporation Adapting a parameterized classifier to an environment
US8436912B2 (en) * 2010-04-30 2013-05-07 Intellectual Ventures Fund 83 Llc Range measurement using multiple coded apertures
US8588519B2 (en) * 2010-09-22 2013-11-19 Siemens Aktiengesellschaft Method and system for training a landmark detector using multiple instance learning
EP2864468B1 (de) * 2012-06-22 2020-08-05 The Regents of the University of Colorado, a body corporate Verfahren und Syteme zum Bewerten einer Position und einer Ausrichting eines Partikels
CA3178340A1 (en) * 2012-08-20 2014-02-27 Illumina, Inc. Method and system for fluorescence lifetime based sequencing
CN105229612B (zh) 2013-03-18 2018-06-26 纽约市哥伦比亚大学理事会 使用基于硬件的微体系结构数据的异常程序执行的检测
JP6465876B2 (ja) 2013-06-28 2019-02-06 ディー−ウェイブ システムズ インコーポレイテッド データの量子処理のためのシステムおよび方法
GB2528446B (en) * 2014-07-21 2021-08-04 Tobii Tech Ab Method and apparatus for detecting and following an eye and/or the gaze direction thereof
US10747740B2 (en) 2015-03-24 2020-08-18 Kyndi, Inc. Cognitive memory graph indexing, storage and retrieval
US20170140240A1 (en) 2015-07-27 2017-05-18 Salesforce.Com, Inc. Neural network combined image and text evaluator and classifier
WO2017031356A1 (en) 2015-08-19 2017-02-23 D-Wave Systems Inc. Discrete variational auto-encoder systems and methods for machine learning using adiabatic quantum computers
EP3362952A4 (de) 2015-10-16 2018-10-03 D-Wave Systems Inc. Systeme und verfahren zur herstellung und verwendung von quanten-boltzmann-maschinen
WO2017083752A1 (en) 2015-11-12 2017-05-18 Google Inc. Convolutional gated recurrent neural networks
CA3011415C (en) * 2016-01-26 2023-01-03 Michele MOSCA Decoding-based method for quantum circuit optimization
US10552763B2 (en) * 2016-03-24 2020-02-04 Cisco Technology, Inc. Constraint-aware resource synchronization across hyper-distributed learning systems
US10452990B2 (en) * 2017-11-28 2019-10-22 International Business Machines Corporation Cost function deformation in quantum approximate optimization

Also Published As

Publication number Publication date
WO2019106418A1 (en) 2019-06-06
CN111279369A (zh) 2020-06-12
JP6979661B2 (ja) 2021-12-15
US20190164034A1 (en) 2019-05-30
CN111279369B (zh) 2024-02-27
US10977546B2 (en) 2021-04-13
JP2021504792A (ja) 2021-02-15
GB202009136D0 (en) 2020-07-29
GB2581942A (en) 2020-09-02

Similar Documents

Publication Publication Date Title
DE112017008151T5 (de) Schaltungen geringer tiefe als quantenklassifikatoren
Dennis et al. Learning the architecture of sum-product networks using clustering on variables
DE102018111905A1 (de) Domänenspezifische Sprache zur Erzeugung rekurrenter neuronaler Netzarchitekturen
DE112021000189T5 (de) Mikrodienst-Aufspaltungsstrategie von monolithischen Anwendungen
DE112020000584T5 (de) Verfahren für unüberwachte bild-zu-bild-übersetzung mit wenigen aufnahmen
DE102005040306B4 (de) System und Verfahren zur biologischen Datenanalyse unter Verwendung eines Bayes&#39;schen Netzwerks in Verbindung mit einer Support-Vektor Maschine
DE112021000392T5 (de) Leistungsfähiges kommentieren der grundwahrheit
DE112020002110T5 (de) Ressourcenarme entitätsauflösung mit transfer learning
DE112021002867T5 (de) Defektdetektion für eine leiterplattenbaugruppe
DE112021001566T5 (de) Ermitteln von abhängigkeiten multivariater zeitreihendaten
DE112021006232T5 (de) Proaktive anomalieerkennung
DE112020004031T5 (de) Systembezogene selektive quantisierung für in der leistungsfähigkeit optimiertes verteiltes deep learning
DE112020002684T5 (de) Ein Mehrfachverfahrenssystem für optimale Vorhersagemodellauswahl
DE112020001034T5 (de) Seltene fälle berücksichtigende trainingsdaten für künstliche intelligenz
DE112021000689T5 (de) Attestierung von neuronalen abläufen
DE112021002866T5 (de) Modelltreueüberwachung und -neuerstellung zur entscheidungsunterstützung eines fertigungsverfahrens
DE112021005910T5 (de) Schnellere abdeckungskonvergenz mit automatischer testparameterabstimmung bei eingeschränkter zufallsverifikation
DE112021005678T5 (de) Normieren von OCT-Bilddaten
DE112021005925T5 (de) Domänenverallgemeinerter spielraum über metalernen zur tiefen gesichtserkennung
DE112016007411T5 (de) Fuzzy-eingabe für autoencoder
DE102021124445A1 (de) Metamerkmal-trainingsmodelle für maschinenlernalgorithmen
DE112021003761T5 (de) Prädiktive modelle mit zerlegbaren hierarchischen ebenen, die konfiguriert werden, um interpretierbare resultate zu erzeugen
DE112020000172T5 (de) Beantworten von kognitiven abfragen von sensoreingabesignalen
DE112022001375T5 (de) Leistungs-hotspots von neuronalen netzwerken ermitteln
DE112021004347T5 (de) Aktion-objekt-erkennung in überladenen videoszenen unter verwendung von text

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06N0099000000

Ipc: G06N0010600000

R016 Response to examination communication