KR20230085175A - 기계 학습을 위한 커널 방법을 사용한 양자 컴퓨팅 - Google Patents
기계 학습을 위한 커널 방법을 사용한 양자 컴퓨팅 Download PDFInfo
- Publication number
- KR20230085175A KR20230085175A KR1020237015862A KR20237015862A KR20230085175A KR 20230085175 A KR20230085175 A KR 20230085175A KR 1020237015862 A KR1020237015862 A KR 1020237015862A KR 20237015862 A KR20237015862 A KR 20237015862A KR 20230085175 A KR20230085175 A KR 20230085175A
- Authority
- KR
- South Korea
- Prior art keywords
- quantum
- qubit
- kernel function
- kernel
- state
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
- G06N10/60—Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
- G06N10/20—Models of quantum computing, e.g. quantum circuits or universal quantum computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
- G06N10/40—Physical realisations or architectures of quantum processors or components for manipulating qubits, e.g. qubit coupling or qubit control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B82—NANOTECHNOLOGY
- B82Y—SPECIFIC USES OR APPLICATIONS OF NANOSTRUCTURES; MEASUREMENT OR ANALYSIS OF NANOSTRUCTURES; MANUFACTURE OR TREATMENT OF NANOSTRUCTURES
- B82Y10/00—Nanotechnology for information processing, storage or transmission, e.g. quantum computing or single electron logic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
- Optical Modulation, Optical Deflection, Nonlinear Optics, Optical Demodulation, Optical Logic Elements (AREA)
- Luminescent Compositions (AREA)
Abstract
양자 기계 학습을 위한 방법, 시스템 및 장치. 일 양태에서, 방법은 양자 컴퓨팅 디바이스에 의해, 양자 데이터 포인트의 트레이닝 데이터세트를 획득하는 단계와; 양자 컴퓨팅 디바이스에 의해, 트레이닝 데이터세트에 포함된 양자 데이터 포인트 사이의 유사성을 나타내는 커널 매트릭스를 계산하는 단계로서, 트레이닝 데이터세트의 각 양자 데이터 포인트 쌍에 대해, 커널 함수의 대응하는 값을 계산하는 단계를 포함하고, 상기 커널 함수는 양자 데이터 포인트들에 대한 감소(된) 밀도 매트릭스에 기초하고; 그리고 양자 컴퓨팅 디바이스에 의해, 커널 매트릭스를 기존(classical) 프로세서에 제공하는 단계를 포함한다.
Description
커널 방법은 패턴 분석용 알고리즘의 클래스이다. 패턴 분석 작업은 데이터 세트에서 군집, 순위, 주성분, 상관 관계 및 분류와 같은 일반적인 유형의 관계를 찾고 연구하는 것이다. 이러한 작업을 해결하는 많은 알고리즘을 위해, 원시 표현의 데이터가 사용자-지정 특징 맵을 통해 특징 벡터 표현으로 명시적으로 변환되어야 한다. 그에 반해, 커널 방법은 원시 표현의 데이터 포인트 쌍에 대한 유사도 함수(또는 "커널 함수")인 사용자-지정 커널만 필요하다.
커널 함수는 커널 방법이 해당 공간에서 데이터의 좌표를 계산하지 않고 고차원의 암시적 특징 공간에서 작동할 수 있도록 한다. 대신에, 특징 공간에 있는 모든 데이터 쌍의 이미지 간 내적이 계산된다. 이러한 동작들은 종종 좌표의 명시적 계산보다 계산 비용이 저렴하다.
커널로 작동할 수 있는 알고리즘은 커널 퍼셉트론, 지원 벡터 머신(SVM), 가우시안 프로세스, 주성분 분석(PCA), 정규 상관 분석, 릿지 회귀, 스펙트럼 클러스터링, 선형 적응 필터 및 기타 여러 알고리즘을 포함한다. 모델에 커널 트릭을 적용함으로써, 즉 해당 특징(예측자)을 커널 함수로 대체함으로써 임의의 선형 모델을 비선형 모델로 전환할 수 있다.
본 명세서는 기계 학습을 위한 커널 방법을 사용한 양자 컴퓨팅 기술을 설명한다.
일반적으로, 본 명세서에 기술된 주제의 하나의 혁신적인 양태는 양자 컴퓨팅 디바이스에 의해, 양자 데이터 포인트의 트레이닝 데이터세트를 획득하는 단계와, 양자 컴퓨팅 디바이스에 의해, 트레이닝 데이터세트에 포함된 양자 데이터 포인트 사이의 유사성을 나타내는 커널 매트릭스를 계산하는 단계로서, 트레이닝 데이터세트의 각 양자 데이터 포인트 쌍에 대해, 커널 함수의 대응하는 값을 계산하는 단계를 포함하고, 커널 함수는 양자 데이터 포인트들에 대한 감소(된) 밀도 매트릭스에 기초하고, 그리고 양자 컴퓨팅 디바이스에 의해, 커널 매트릭스를 기존(classical) 프로세서에 제공하는 단계를 포함하는 방법으로 구현된다.
이 양태의 다른 구현은 각각 방법의 동작들을 수행하도록 각각 구성된 대응하는 컴퓨터 시스템, 장치, 및 하나 이상의 컴퓨터 저장 디바이스에 기록된 컴퓨터 프로그램을 포함한다. 하나 이상의 컴퓨터로 구성된 시스템은 동작 시 시스템으로 하여금 동작들을 수행하게 하는 소프트웨어, 펌웨어, 하드웨어 또는 이들의 조합을 시스템에 설치함으로써 특정 동작 또는 액션을 수행하도록 구성될 수 있다. 하나 이상의 컴퓨터 프로그램은 데이터 처리 장치에 의해 실행될 때 그 장치로 하여금 동작들을 수행하게 하는 명령(어)을 포함함으로써 특정 동작 또는 액션을 수행하도록 구성될 수 있다.
전술한 구현 및 기타 구현은 각각 선택적으로 다음 특징 중 하나 이상을 단독으로 또는 조합하여 포함할 수 있다. 일부 구현에서 방법은 양자 컴퓨팅 디바이스로부터 기존 프로세서에 의해 커널 매트릭스를 수신하는 단계; 및 기존 프로세서에 의해 머신 러닝 모델을 구성하기 위해 커널 매트릭스를 사용하는 트레이닝 알고리즘을 수행하는 단계를 포함한다.
일부 구현에서, 방법은 기존 프로세서에 의해 양자 컴퓨팅 디바이스로부터, 커널 매트릭스를 수신하는 단계; 및 기존 프로세서에 의해, 기계 학습 모델을 구성하기 위해 커널 매트릭스를 사용하여 트레이닝 알고리즘을 수행하는 단계를 더 포함한다.
일부 구현에서, 방법은 양자 컴퓨팅 디바이스에 의해, 양자 데이터 포인트의 검증 데이터세트를 획득하는 단계와; 양자 컴퓨팅 디바이스에 의해, 커널 매트릭스의 새로운 요소들을 계산하는 단계와, 상기 새로운 요소들은 검증 데이터세트의 양자 데이터 포인트와 트레이닝 데이터세트의 양자 데이터 포인트 사이이의 유사성을 나타내는 항목을 포함하고, 상기 새로운 요소들을 계산하는 단계는 트레이닝 데이터세트 및 검증 데이터세트의 각 양자 데이터 포인트 쌍에 대해, 커널 함수의 대응하는 값을 계산하는 단계를 포함하고; 그리고 양자 컴퓨팅 디바이스에 의해, 커널 매트릭스의 새로운 요소들을 기존 프로세서에 제공하는 단계를 더 포함한다.
일부 구현에서, 방법은 기존 프로세서에 의해, 검증 데이터세트의 각 양자 데이터 포인트에 대한 기대치를 출력하기 위해 커널 매트릭스의 새로운 요소들을 처리하는 단계를 더 포함한다.
일부 구현에서, 커널 함수는 트레이닝 데이터세트의 양자 데이터 포인트에 대한 단일체(single-body) 감소 밀도 매트릭스에 기초한다.
일부 구현에서, 커널 함수는 선형 커널 함수를 포함한다.
일부 구현에서, 선형 커널 함수는 i) 제1 양자 데이터 포인트 및 제2 양자 데이터 포인트를 입력으로 취하고, ii) 수치 출력을 생성하고, 그리고 iii) 항들의 합을 포함하며, 상기 합은 N>1인 경우 각각의 N-큐비트에 대해 실행되고 합산은 각각의 큐비트에 대응하며 a) 각 큐비트에 해당하는 서브시스템의 제1 양자 데이터 포인트에 대한 감소 밀도 매트릭스와 b) 각 큐비트에 해당하는 서브시스템의 제2 양자 데이터 포인트에 대한 감소 밀도 매트릭스의 곱의 트레이스와 동일하다.
일부 구현에서, 선형 커널 함수는
로 주어지고, 여기서 xi,xj는 제1 및 제2 양자 데이터 포인트를 나타내고, 은 1에서 큐비트 수(N)까지 실행되고 각 큐비트를 라벨링하는 인덱스를 나타내며, 및 는 큐비트(k)에서 1-감소 밀도 매트릭스(1-RDM)를 나타낸다
일부 구현에서, 쌍이 N>1인 제1 N-큐비트 양자 상태 및 N>1인 제2 N-큐비트 양자 상태를 포함하는 트레이닝 데이터세트의 양자 데이터 포인트 쌍에 대한 커널 함수의 값을 계산하는 단계는, 반복적으로 각 큐비트 인덱스에 대해: 큐비트()에 해당하는 서브시스템에서 제1 N-큐비트 양자 상태에 대한 1-감소 밀도 매트릭스(RDM)를 계산하는 단계로서, 제1 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하는 단계 및 양자 시스템의 제1 감소 양자 상태를 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하는 단계를 포함하고; 큐비트()에 해당하는 서브시스템에서 제2 N-큐비트 양자 상태에 대한 1-RDM을 계산하는 단계로서, 제2 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하는 단계 및 양자 시스템의 제2 감소 양자 상태를 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하는 단계를 포함하고; 제1 감소 양자 상태와 제2 감소 양자 상태의 곱의 트레이스(trace)를 결정하는 단계와; 그리고 각 큐비트 인덱스에 대해 결정된 트레이스의 평균을 합산하는 단계를 포함한다.
일부 구현에서, 커널 함수는 제곱 지수 커널 함수를 포함hks다
일부 구현에서, 제곱 지수 커널 함수는 i) 제1 양자 데이터 포인트 및 제2 양자 데이터 포인트를 입력으로 취하고, ii) 수치 출력을 생성하고, 그리고 iii) 항들의 합의 지수 함수를 포함하며, 상기 합는 N>1인 경우 각각의 N-큐비트에 대해 실행되고, 그 합산은 개별 큐비트에 해당하고 a) 개별 큐비트에 해당하는 서브시스템의 제1 양자 데이터 포인트에 대한 감소 밀도 매트릭스와 b) 개별 큐비트에 해당하는 서브시스템의 제2 양자 데이터 포인트에 대한 감소 밀도 매트릭스의 곱의 트레이스와 동일하다.
일부 구현에서, 제곱 지수 커널 함수는
로 주어지고, 여기서 xi,xj는 제1 및 제2 양자 데이터 포인트를 나타내고, 은 1에서 큐비트 수 N까지 실행되고 각 큐비트에 라벨을 지정하는 인덱스를 나타내며, 및 는 큐비트(k)에서 1-RDM을 나타낸다.
일부 구현에서, 쌍이 N>1인 제1 N-큐비트 양자 상태 및 N>1인 제2 N-큐비트 양자 상태를 포함하는 트레이닝 데이터세트의 양자 데이터 포인트 쌍에 대한 커널 함수의 값을 계산하는 단계는, 반복적으로 각 큐비트 인덱스에 대해: 큐비트()에 해당하는 서브시스템에서 제1 N-큐비트 양자 상태에 대한 1-감소 밀도 매트릭스(RDM)를 계산하는 단계로서, 제1 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하고 양자 시스템의 제1 감소 양자 상태를 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하는 단계를 포함하고; 큐비트()에 대응하는 서브시스템에서 제2 N-큐비트 양자 상태에 대한 1-RDM을 계산하는 단계로서, 제2 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하고 양자 시스템의 제2 감소 양자 상태를 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하는 단계를 포함하고; 제3 감소 양자 상태를 획득하기 위해 제1 감소 양자 상태에서 제2 감소 양자 상태를 감산하고 제3 감소 양자 상태의 놈(norm)을 결정하는 단계와; 그리고 각 큐비트 인덱스에 대해 결정된 놈의 평균을 합산하고 그 합산된 평균의 지수를 계산하는 단계를 포함한다.
일부 구현에서, 커널 함수는 양자 데이터 포인트에 대한 k-바디(body) RDM을 기반으로 하며, k는 사전 결정된 값보다 작다.
일부 구현에서, 선형 커널 함수를 포함한다.
일부 구현에서, 선형 커널 함수는 i) 제1 양자 데이터 포인트 및 제2 양자 데이터 포인트를 입력으로 취하고, ii) 수치 출력을 생성하고, iii) 항들의 합을 포함하며, 상기 합은 N 큐비트로부터 취한 k-큐비트의 각 서브세트에 대해 실행되고, 각 합산은 개별 서브세트에 대응하고 a) k 큐비트의 개별 서브세트에 해당하는 서브시스템의 제1 양자 데이터 포인트에 대한 감소 밀도 매트릭스와 b) k 큐비트의 개별 서브세트에 해당하는 서브시스템의 제2 양자 데이터 포인트에 대한 감소 밀도 매트릭스의 곱의 트레이스와 동일하다.
일부 구현에서, 선형 커널 함수는
일부 구현에서, 쌍이 제1 N-큐비트 양자 상태 및 제2 N-큐비트 양자 상태를 포함하는 트레이닝 데이터세트의 양자 데이터 포인트 쌍에 대한 커널 함수의 값을 계산하는 단계는, 반복적으로 각 k-큐비트 세트에 대해: 세트의 큐비트에 해당하는 서브시스템에서 제1 N-큐비트 양자 상태에 대한 k-RDM을 계산하는 단계로서, 제1 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하고 세트에 포함된 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하여 양자 시스템의 제1 감소 양자 상태를 획득하는 단계를 포함하고; 세트의 큐비트에 해당하는 서브시스템에서 제2 N-큐비트 양자 상태에 대한 k-RDM을 계산하는 단계로서, 제2 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하고 세트에 포함된 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하여 양자 시스템의 제2 감소 양자 상태를 획득하는 단계를 포함하고; 제1 감소 양자 상태와 제2 감소 양자 상태의 곱의 트레이스를 결정하는 단계와; 그리고 k 큐비트의 각 세트에 대해 결정된 평균을 합산하는 단계를 포함한다.
일부 구현에서, 커널 함수는 지수 커널 함수를 포함한다.
일부 구현에서, 지수 커널 함수는,
로 주어지고, 여기서 기대값(E)은 제1 및 제2 시스템(i 및 j)에서 측정된 무작위로 선택된 파울리 프레임에서 ns 샘플에 대해 취해지고, 는 제1 시스템(i)과 제2 시스템(j)에서 독립적으로 수행된 랜덤 파울리 측정 결과 간의 합의를 위한 제1 지표 함수를 나타내고, 는 측정 기준 합의를 위한 제2 지표 함수를 나타낸다.
일부 구현에서, 쌍이 제1 N-큐비트 양자 상태 및 제2 N-큐비트 양자 상태를 포함하는 트레이닝 데이터세트의 양자 데이터 포인트 쌍에 대한 커널 함수의 값을 계산하는 단계는, 반복적으로: 제1 측정 결과를 획득하는 단계로서, h번째 큐비트에 대한 값( 및)을 획득하기 위해 랜덤 파울리 기준(Pauli basis)으로 제1 시스템의 각 큐비트를 측정하는 단계를 포함하고, 여기서 는 1 또는 -1이고 는 랜덤 기준(X, Y 또는 Z)이고; 제2 측정 결과를 획득하는 단계로서, h번째 큐비트에 대한 값( 및)을 획득하기 위해 랜덤 파울리 기준으로 제2 시스템의 각 큐비트를 측정하는 단계를 포함하고, 여기서 는 1 또는 -1이고 는 랜덤 기반(X, Y 또는 Z)이고; N 큐비트 시스템의 h번째 큐비트에 대해, 제1 지표 함수의 값을 결정하기 위해 제1 측정 결과와 제2 측정 결과를 비교는 단계와; N 큐비트 시스템의 h번째 큐비트에 대해, 제2 지표 함수의 값을 결정하는 단계와; 그리고 제1 지표 함수와 제2 지표 함수의 결정된 값을 곱셈, 합산 및 평균화하는 단계를 포함한다.
일부 구현에서, 양자 데이터 포인트는 N>1인 N-큐비트 양자 상태를 포함한다.
일부 구현에서, 양자 데이터 포인트의 트레이닝 데이터세트를 획득하는 단계는 기존 데이터 포인트의 트레이닝 데이터 세트를 수신하는 단계와; 그리고 양자 데이터 포인트의 트레이닝 데이터 세트를 생성하는 단계로서, 개별 인코딩 회로를 기준 양자 상태에 적용함으로써 각각의 기존 데이터 포인트를 개별 양자 상태에 임베딩하는 단계를 포함한다.
본 명세서에 기술된 주제는 다음의 이점들 중 하나 이상을 실현하기 위해 특정한 방식으로 구현될 수 있다.
기계 학습을 위한 커널 방법은 다양한 회귀 및 분류 문제에 적용될 수 있다. 그러나, 특징 공간이 커지고 커널 함수를 추정하는데 계산 비용이 많이 드는 경우 이러한 문제를 성공적으로 해결하는데 한계가 있다. 현재 설명된 기술은 양자 컴퓨팅 디바이스를 사용하여 커널 함수를 계산함으로써 이 문제를 해결한다.
또한, 커널 함수의 현재 설명된 양자 계산은 큐비트의 수가 증가함에 따라 신호는 크게 유지되고 방법은 더 좋지 않더라도 계속해서 잘 기능하기 때문에 확장 가능하다. 이것은 예를 들어 모든 입력이 너무 멀리 떨어져 있는 기하급수적으로 큰 힐베르트(Hilbert) 공간으로 인한 작은 기하학적 차이로 인해 신호가 일반적으로 큐비트 수에서 기하급수적으로 감소하는 알려진 양자 커널 방법과 대조된다. 현재 설명된 기술의 확장성은 예를 들어 RDM을 사용하여 기존 데이터에서 다시 기존 공간으로 임베딩된 양자 상태를 투영하여 기하학적 차이를 확대함으로써 달성된다. 즉, 두 포인트마다 0에 가까운 커널 함수는 잘 일반화되지 않는다. 그러나, 현재 설명된 투영된 양자 커널은 양자 상태의 대략적인 기존 표현을 사용하여 정의되며, 이로 인해 더 나은 일반화 성능을 제공하는 0이 아닌 커널 함수가 생성된다.
또한, 확대된 기하학적 차이로 인해, 현재 설명된 기술은 일반적인 기존 기계 학습 모델에 비해 큰 예측 이점을 달성할 수 있다. 이러한 예측 이점은 적은 수의 큐비트, 예를 들어 최대 30큐비트로도 달성될 수 있다. 따라서, 현재 설명된 기술은 작은 양자 컴퓨터, 예를 들어 노이즈 중간 규모 양자 디바이스 및/또는 하이브리드 양자-기존 컴퓨터를 사용하는 구현에 특히 적합하다.
현재 설명된 기술은 MNIST 또는 기타 이미지/비디오 데이터 소스와 같은 이미지 및 숫자 분류, 감정 분류 및 텍스트 분석, 고에너지 물리학 데이터 분석, 양자 센서에서 위상으로 데이터 분류, 양자 상태 식별 또는 양자 리피터 엔지니어링, 양자 센서, 다체(many-body) 또는 기타 데이터를 사용한 기대치(prediction)를 포함하는 양자 입력 데이터를 자연스럽게 포함하는 양자 기계 학습으로부터의 예제를 포함하여 기존 기계 학습의 다양한 애플리케이션에 적용될 수 있다.
본 명세서의 주제의 하나 이상의 구현에 대한 세부 사항은 첨부된 도면 및 아래의 설명에 설명되어 있다. 본 발명의 다른 특징, 양태 및 이점은 설명, 도면 및 청구범위로부터 명백해질 것이다.
도 1은 기존 커널 방법, 종래의 양자 커널 방법, 및 투영된 양자 커널 방법으로 정의된 커널 함수의 예시이다.
도 2는 투영된 양자 커널 방법을 사용하여 분류 및 회귀 작업을 수행하기 위한 예시적인 시스템의 블록도를 도시한다.
도 3은 투영된 양자 커널 방법을 사용하여 분류 및 회귀 작업을 수행하기 위한 예시적인 프로세스의 블록도를 도시한다.
도 4는 커널 매트릭스를 생성 및 업데이트하기 위한 예시적인 프로세스의 흐름도이다.
다양한 도면에서 동일한 참조 번호 및 명칭은 동일한 요소를 나타낸다.
도 2는 투영된 양자 커널 방법을 사용하여 분류 및 회귀 작업을 수행하기 위한 예시적인 시스템의 블록도를 도시한다.
도 3은 투영된 양자 커널 방법을 사용하여 분류 및 회귀 작업을 수행하기 위한 예시적인 프로세스의 블록도를 도시한다.
도 4는 커널 매트릭스를 생성 및 업데이트하기 위한 예시적인 프로세스의 흐름도이다.
다양한 도면에서 동일한 참조 번호 및 명칭은 동일한 요소를 나타낸다.
본 명세서는 양자 커널 방법을 사용하여 기계 학습 작업을 수행하기 위한 기술을 설명한다.
종래 양자 커널 방법에서 커널 연산자는 예를 들어 로 주어진 충실도 유형 메트릭에 기초한다. 이 커널 연산자는 모든 데이터 포인트가 서로 떨어져 있다고 간주하고 항등식에 가까운 커널 매트릭스를 생성할 수 있다. 이것은 작은 기하학적 차이를 발생시킬 수 있으며 기존(classical) 기계 학습 모델이 경쟁력이 있거나 양자 커널 방법을 능가하도록 이끌 수 있다. 예를 들어, 일부 경우 양자 모델은 이 기존 커널 연산자를 사용하여 학습하는데 기하급수적인 양의 샘플이 필요할 수 있지만 기존 기계 학습 모델을 사용하여 학습하는데는 선형 개수의 샘플만 필요하다.
현재 설명되는 양자 커널 방법은 투영된 양자 커널 계열(family)을 사용하여 이 문제를 해결한다. 데이터 포인트의 양자 또는 기존 데이터 세트가 수신되고 양자 컴퓨터가 데이터 포인트 사이의 지오메트리(geometry)를 계산하는데 사용된다. 지오메트리는 확장 가능한(scalable) 감소된(reduced) 물리적 관찰 가능 항목 계열로부터 선택된 투영된 양자 커널 연산자를 사용하여 계산된다. 투영된 양자 커널 연산자는 예를 들어 감소된 관찰 가능 항목 또는 기존 쉐도우(shadow, 음영)를 사용하여 양자 상태를 대략적인 기존 표현으로 투영한다. 그런 다음 계산된 지오메트리는 트레이닝 및 검증을 위해 기존 방법으로 공급된다. 트레이닝 세트 공간이 큰 차원(예를 들어, 사용 가능한 양자 컴퓨터에 포함된 큐비트 수에 비례하는 차원)을 갖더라도, 투영은 더 잘 일반화할 수 있는 저차원 기존 공간으로의 감소를 제공한다.
도 1은 기존 커널 방법(100), 종래 양자 커널 방법(102) 및 현재 설명되는 투영된 양자 커널 방법(104)으로 정의된 지오메트리(커널 함수)의 예시이다. 문자(A, B, C,…)는 데이터 사이의 유사도 측정치(커널 함수)를 나타내는 화살표와 함께 상이한 공간의 데이터 포인트를 나타낸다. 기하학적 차이(g)는 서로 다른 방법(100, 102 및 104)에서 유사도 측정치 간의 차이이고, d는 양자 힐버트(Hilbert) 공간에서 데이터 세트의 유효 차원이다. 도시되는 바와 같이, 기존 커널 방법(100)과 투영된 양자 커널 방법(104)에서의 유사도 측정치 간의 기하학적 차이는 기존 커널 방법(100)과 종래 양자 커널 방법(102)에서의 유사성 측정치 간의 기하학적 차이보다 크다. 이 더 큰 기하학적 차이는 위에서 설명한 바와 같이 확장성과 향상된 예측 정확도를 제공한다.
운영 환경의 예
도 2는 투영된 양자 커널 방법을 사용하여 분류 및 회귀 작업을 수행하기 위한 예시적인 시스템(200)을 도시한다. 예시적인 시스템(200)은 하나 이상의 위치에 있는 하나 이상의 기존 컴퓨터 및 양자 컴퓨팅 디바이스에서 기존 및 양자 컴퓨터 프로그램으로 구현된 시스템의 예로서, 아래에 설명된 시스템, 구성 요소 및 기술들을 구현할 수 있다.
예시적인 시스템(200)은 예시적인 양자 컴퓨팅 디바이스(202)를 포함한다. 양자 컴퓨팅 디바이스(202)는 일부 구현에 따라 본 명세서에 기술된 양자 컴퓨팅 연산을 수행하는데 사용될 수 있다. 양자 컴퓨팅 디바이스(202)는 다양한 형태의 양자 컴퓨팅 디바이스를 나타내기 위한 것이다. 본 명세서에 도시된 구성 요소, 그의 연결 및 관계, 기능은 예시일 뿐이며 본 문서에서 설명 및/또는 청구된 발명의 구현을 제한하지 않는다.
예시적인 양자 컴퓨팅 디바이스(202)는 큐비트 어셈블리(252)와 제어 및 측정 시스템(204)을 포함한다. 큐비트 어셈블리는 알고리즘 연산 또는 양자 계산을 수행하는데 사용되는 다중 큐비트, 예를 들어 큐비트(206)를 포함한다. 도 2에 도시된 큐비트는 직사각형 어레이로 배열되어 있지만, 이는 개략적인 묘사이며 제한하려는 의도가 아니다. 큐비트 어셈블리(252)는 또한 결합된 큐비트들 사이의 상호 작용을 허용하는 조정 가능한 결합 소자, 예를 들어 커플러(208)를 포함한다. 도 2의 개략도에서, 각 큐비트는 개별 결합 소자를 통해 4개의 인접한 큐비트 각각에 조정 가능하게 결합된다. 그러나 이것은 큐비트와 커플러의 예시적인 배열이며 직사각형이 아닌 배열, 인접하지 않는 큐비트 간의 결합을 허용하는 배열, 및 2개 이상의 큐비트 간의 조정 가능한 결합을 포함하는 배열을 비롯하여 다른 배열도 가능하다.
각각의 큐비트는 0과 1의 논리 값을 나타내는 준위(level)를 갖는 물리적 2-준위 양자 시스템 또는 디바이스일 수 있다. 다중 큐비트의 특정 물리적 구현 및 다중 큐비트가 서로 상호 작용하는 방식은 예시적인 시스템(200)에 포함된 양자 컴퓨팅 디바이스의 유형 또는 양자 컴퓨팅 디바이스가 수행하고 있는 양자 계산의 유형을 비롯하여 다양한 인자에 의존한다. 예를 들어, 원자 양자 컴퓨터에서 큐비트는 원자, 분자 또는 고체 상태 양자 시스템, 예를 들어 초미세 원자 상태를 통해 실현될 수 있다. 다른 예로서, 초전도 양자 컴퓨터에서 큐비트는 초전도 큐비트 또는 반도체 큐비트, 예를 들어 초전도 트랜스몬 상태를 통해 실현될 수 있다. 다른 예로서, NMR 양자 컴퓨터에서 큐비트는 핵 스핀 상태를 통해 실현될 수 있다.
일부 구현에서 양자 계산은 선택된 초기 상태에서 큐비트를 초기화하고 큐비트에 단일 연산자 시퀀스를 적용함으로써 진행할 수 있다. 단일 연산자를 양자 상태에 적용하는 것은 양자 논리 게이트의 해당 시퀀스를 큐비트에 적용하는 것을 포함할 수 있다. 에시적인 양자 논리 게이트는 단일 큐비트 게이트, 예를 들어, 파울리-X, 파울리-Y, 파울리-Z(X, Y, Z라고도 지칭됨), 하다마드 및 S 게이트, 2-큐비트 게이트(예를 들어, 제어된(controlled)-X, 제어된-Y, 제어된-Z(CX, CY, CZ라고도 지칭됨), 및 3개 이상의 큐비트를 포함하는 게이트(예를 들어, Toffoli 게이트)를 포함한다. 양자 논리 게이트는 제어 및 측정 시스템(204)에 의해 생성된 제어 신호(210)를 큐비트 및 커플러에 인가함으로써 구현될 수 있다.
예를 들어, 일부 구현에서 큐비트 어셈블리(252)의 큐비트는 주파수 조정 가능할 수 있다. 이러한 예에서, 각 큐비트는 큐비트에 연결된 하나 이상의 드라이브 라인을 통한 전압 펄스의 적용을 통해 조정될 수 있는 관련 동작 주파수를 가질 수 있다. 동작 주파수의 예에는 큐비트 유휴 주파수, 큐비트 상호 작용 주파수 및 큐비트 판독 주파수가 포함된다. 상이한 주파수는 큐비트가 수행할 수 있는 상이한 동작에 해당한다. 예를 들어 동작 주파수를 해당 유휴 주파수로 설정하면 큐비트가 다른 큐비트와 강력하게 상호 작용하지 않으며 단일 큐비트 게이트를 수행하는데 사용될 수 있는 상태에 놓일 수 있다. 다른 예로, 큐비트들이 고정 결합이 있는 커플러를 통해 상호 작용하는 경우, 큐비트들은 그들의 공통 상호 작용 주파수에서 동조(detuning)되는 일부 게이트 종속 주파수에서 각각의 동작 주파수를 설정함으로써 서로 상호 작용하도록 구성될 수 있다. 다른 경우, 예를 들어 큐비트들이 조정 가능한 커플러를 통해 상호 작용할 때, 큐비트들은 큐비트 간의 상호 작용을 활성화하도록 그들의 개별 커플러의 파라미터를 설정한 다음 그들의 공통 상호 작용 주파수에서 동조되는 일부 게이트 종속 주파수에서 큐비트의 개별 동작 주파수를 설정함으로써 서로 상호 작용하도록 구성할 수 있다. 이러한 상호 작용은 다중 큐비트 게이트를 수행하기 위해 수행될 수 있다.
사용되는 제어 신호(210)의 유형은 큐비트의 물리적 구현에 의존한다. 예를 들어, 제어 신호는 NMR 또는 초전도 양자 컴퓨터 시스템의 RF 또는 마이크로파 펄스, 또는 원자 양자 컴퓨터 시스템에서 광 펄스를 포함할 수 있다.
양자 계산은 개별 제어 신호(210)를 사용하여 예를 들어 X 또는 Z와 같은 양자 관찰 가능 항목을 사용하여 큐비트의 상태를 측정함으로써 완료될 수 있다. 측정은 측정 결과를 나타내는 판독 신호(212)가 측정 및 제어 시스템(204)으로 다시 전달되게 한다. 판독 신호(212)는 양자 컴퓨팅 디바이스 및/또는 큐비트에 대한 물리적 방식에 의존하는 RF, 마이크로파 또는 광 신호를 포함할 수 있다. 편의상, 도 2에 도시된 제어 신호(210) 및 판독 신호(212)는 큐비트 어셈블리의 선택된 요소(즉, 상단 및 하단 행)만 어드레싱하는 것으로 도시되어 있지만, 동작 중에 제어 신호(210) 및 판독 신호(212)는 큐비트 어셈블리(252)의 각 요소를 어드레싱할 수 있다.
제어 및 측정 시스템(204)은 전술한 바와 같이 큐비트 어셈블리(252)에 대한 다양한 동작(연산)뿐만 아니라 다른 기존 서브루틴 또는 계산을 수행하는데 사용될 수 있는 기존 컴퓨터 시스템의 예이다. 제어 및 측정 시스템(204)은 하나 이상의 데이터 버스로 연결된 하나 이상의 기존 프로세서, 예를 들어 기존 프로세서(214), 하나 이상의 메모리(예를 들어, 메모리(216)), 및 하나 이상의 I/O 유닛(예를 들어, I/O 유닛(218))을 포함한다. 제어 및 측정 시스템(204)은 신호(210)의 시퀀스를 큐비트 어셈블리에 전송하여 측정 동작들의 일부로서, 선택된 일련의 양자 게이트 연산을 수행하고 큐비트 어셈블리로부터 판독 신호(212) 시퀀스를 수신하도록 프로그래밍될 수 있다.
프로세서(214)는 제어 및 측정 시스템(204) 내에서 실행하기 위한 명령을 처리하도록 구성된다. 일부 구현에서, 프로세서(214)는 단일 스레드 프로세서이다. 다른 구현에서, 프로세서(214)는 멀티스레드 프로세서이다. 프로세서(214)는 메모리(216)에 저장된 명령을 처리할 수 있다.
메모리(216)는 제어 및 측정 시스템(204) 내에 정보를 저장한다. 일부 구현에서, 메모리(216)는 컴퓨터 판독 가능 매체, 휘발성 메모리 유닛 및/또는 비휘발성 메모리 유닛을 포함한다. 일부 경우, 메모리(216)는 시스템(204)을 위한 대용량 저장소를 제공할 수 있는 저장 디바이스, 예를 들어 하드 디스크 디바이스, 광학 디스크 디바이스, 다수의 컴퓨팅 디바이스(예를 들어, 클라우드 저장 디바이스)에 의해 네트워크를 통해 공유되는 저장 디바이스, 및/또는 일부 다른 대용량 저장 디바이스를 포함할 수 있다.
입/출력 디바이스(218)는 제어 및 측정 시스템(204)에 대한 입/출력 동작을 제공한다. 입/출력 디바이스(218)는 D/A 변환기, A/D 변환기 및 RF/마이크로웨이브/광 신호 생성기, 송신기 및 수신기를 포함할 수 있으며, 이에 의해 양자 컴퓨터의 물리적 방식에 적합하도록 제어 신호(210)를 큐비트 어셈블리로 전송하고 그로부터 판독 신호(212)를 수신한다. 일부 구현에서, 입/출력 디바이스(218)는 또한 하나 이상의 네트워크 인터페이스 디바이스(예를 들어, 이더넷 카드), 직렬 통신 디바이스(예를 들어, RS-232 포트), 및/또는 예를 들어 802.11 카드와 같은 무선 인터페이스 디바이스를 포함할 수 있다. 일부 구현에서, 입/출력 디바이스(218)는 입력 데이터를 수신하고 출력 데이터를 다른 외부 디바이스, 예를 들어 키보드, 프린터 및 디스플레이 디바이스로 전송하도록 구성된 드라이버 디바이스를 포함할 수 있다.
예시적인 제어 및 측정 시스템(204)이 도 2에 도시되어 있지만, 본 명세서에 기술된 주제 및 기능적 동작의 구현은 다른 유형의 디지털 전자 회로 또는 본 명세서에 개시된 구조 및 이들의 구조적 등가물을 포함하는 컴퓨터 소프트웨어, 펌웨어 또는 하드웨어, 또는 이들 중 하나 이상의 조합으로 구현될 수 있다. 예시적인 시스템(200)은 예시적인 기존 프로세서(250)를 포함한다. 기존 프로세서(250)는 예를 들어 본 명세서에 기술된 기존 기계 학습 방법과 같은 일부 구현에 따라 본 명세서에 기술된 기존 계산 작업을 수행하는데 사용될 수 있다.
도 3은 투영된 양자 커널 방법을 사용하여 분류 및 회귀 작업을 수행하는 도 2의 예시적인 시스템(200)의 블록도를 도시한다. 단계(stage)(A)-(E)는 트레이닝 단계를 나타내고 도 4를 참조하여 아래에서 설명되는 예시적인 프로세스(400)의 단계(402-406)에 대응한다. 예시 프로세스의 단계(A) 동안, 양자 컴퓨팅 디바이스(202)는 데이터 포인트들의 트레이닝 데이터세트를 획득한다. 일부 구현에서 데이터 포인트는 예를 들어 양자 상태와 같은 양자 데이터 포인트일 수 있다. 다른 구현에서 데이터 포인트는 기존 데이터 포인트일 수 있다. 이러한 구현에서, 단계(B) 동안 양자 컴퓨팅 디바이스는 개별 양자 상태에 기존 데이터 포인트를 임베딩한다. 단계(A) 및 (B)는 예시적인 프로세스(400)의 단계(402)를 참조하여 아래에서 더 상세히 설명된다. 일부 구현에서, 데이터 포인트의 트레이닝 데이터세트는 기존 프로세서(250)와 같은 기존 컴퓨터로부터 수신될 수 있다. 다른 구현에서, 데이터 포인트의 트레이닝 데이터 세트는 양자 컴퓨팅 디바이스(202)와 같은 양자 컴퓨팅 디바이스로부터 수신될 수 있다.
단계(C) 동안, 양자 컴퓨팅 디바이스(102)는 획득된 양자 데이터 포인트/상태에 대한 감소(된)(reduced) 밀도 매트릭스에 기초하는 커널 함수를 사용하여 커널 매트릭스를 계산한다. 단계(C)는 예시적인 프로세스(400)의 단계(404)를 참조하여 아래에서 더 상세히 설명된다.
단계(D) 동안, 양자 컴퓨팅 디바이스(202)는 계산된 커널 매트릭스를 기존 프로세서(250)로 전송한다. 단계(E) 동안, 기존 프로세서는 커널 매트릭스를 수신하고 그 커널 매트릭스를 사용하여 기계 학습 모델을 트레이닝한다.
단계(F)-(K)는 검증 또는 추론 단계를 나타내고 예시적인 프로세스(400)의 단계(408-412)에 대응한다. 단계(F) 동안, 양자 컴퓨팅 디바이스(202)는 데이터 포인트의 검증 데이터세트를 획득한다. 일부 구현에서, 데이터 포인트는 예를 들어 양자 상태와 같은 양자 데이터 포인트일 수 있다. 다른 구현에서, 데이터 포인트는 기존 데이터 포인트일 수 있다. 이러한 구현에서, 단계(G) 동안, 양자 컴퓨팅 디바이스는 개별 양자 상태에 기존 데이터 포인트를 임베딩한다.
단계(H) 동안, 양자 컴퓨팅 디바이스는 검증 데이터 세트의 데이터 포인트에 해당하는 새로운 행과 열을 계산하여 커널 매트릭스를 업데이트한다. 단계(H)는 예시적인 프로세스(400)의 단계(404 및 410)를 참조하여 아래에서 더 상세히 설명된다.
단계(I) 동안, 양자 컴퓨팅 디바이스(202)는 업데이트된 커널 매트릭스를 기존 프로세서(250)로 전송한다. 단계(J) 동안, 기존 프로세서는 업데이트된 커널 매트릭스를 수신하고 트레이닝된 기계 학습 모델을 사용하여 업데이트된 커널 매트릭스를 처리한다. 단계(K) 동안, 기존 프로세서(250)는 검증 데이터세트의 데이터 포인트에 대응하는 기대치(predictions)를 출력한다.
하드웨어 프로그래밍
도 4는 커널 매트릭스를 생성 및 업데이트하기 위한 예시적인 프로세스(400)의 흐름도이다. 편의상, 프로세스(400)는 하나 이상의 위치에 위치한 하나 이상의 기존 및 양자 컴퓨팅 디바이스의 시스템에 의해 수행되는 것으로 설명될 것이다. 예를 들어, 본 명세서에 따라 적절하게 프로그래밍된 도 1의 양자 컴퓨팅 디바이스(100)는 프로세스(400)를 수행할 수 있다.
양자 컴퓨팅 디바이스는 양자 데이터 포인트의 트레이닝 데이터 세트를 획득한다(단계 402). 데이터 포인트에는 라벨이 지정되지 않거나 관련 범주 라벨 또는 숫자 값이 할당될 수 있다.
일부 구현에서, 양자 컴퓨팅 디바이스는 양자 데이터 입력으로서 트레이닝 데이터 세트를 수신할 수 있다. 예를 들어, 양자 컴퓨팅 디바이스는 양자 상태()의 세트를 수신하거나 양자 컴퓨팅 디바이스에 포함된 양자 메모리로부터 양자 상태 세트에 액세스할 수 있다. 트레이닝 데이터 세트에 있는 각 양자 상태()는 N-큐비트 양자 시스템의 개별 상태일 수 있다. 각 양자 상태()는 개별 기존 데이터 포인트, 예를 들어 아래에 설명된 이미지를 나타낼 수 있다.
다른 구현에서, 양자 컴퓨팅 디바이스는 기존 데이터 포인트({xi})들의 트레이닝 데이터 세트를 수신하고 각 기존 데이터 포인트(xi)를 개별 양자 상태()에 임베딩함으로써 양자 데이터 포인트의 개별 트레이닝 데이터 세트를 생성할 수 있다. 기존 데이터 포인트(xi)를 N-큐비트 양자 상태()에 임베딩하기 위해, 양자 컴퓨팅 디바이스는 인코딩 회로(Uenc(xi))를 N-큐비트의 기준 양자 상태(예를 들어, 상태(|00…0〉)에 적용할 수 있다. 기존 데이터 포인트를 각각의 양자 상태에 임베딩하는데 사용되는 인코딩 회로(Uenc)는 기존 데이터 포인트의 트레이닝 데이터 세트에 포함된 데이터의 유형에 따라 다르며 다양한 회로가 사용될 수 있다. 예를 들어, 기존 데이터 포인트가 이미지를 나타내는 경우, 인코딩 회로는 N-큐비트 각각을 이미지의 각각의 스케일링된 특이값(singular value)만큼 회전시키는 회로로 정의될 수 있다. 일부 경우에, 일부 계층 사이에 얽힌 양자 게이트들이 있는 회전 계층을 포함하는 더 복잡한 인코딩 회로가 사용될 수 있다.
양자 컴퓨팅 디바이스는 트레이닝 데이터세트에 포함된 양자 데이터 포인트들 간의 유사성을 나타내는 커널 매트릭스(Q)를 계산하기 위해 다중 양자 계산을 수행한다(단계 404). 커널 매트릭스를 계산하는 것은 트레이닝 데이터 세트에서 양자 데이터 포인트(xi,xj)의 각 쌍에 대한 커널 함수(Qij = Q(xi,xj))의 값을 계산하는 것을 포함한다. 커널 함수 Q(xi,xj)는 단계(402)에서 획득된 양자 데이터 포인트들에 대한 감소 밀도 매트릭스를 기반으로 한다. 예를 들어, 일부 구현에서 커널 함수는 양자 데이터 포인트들에 대한 단일체(single-body) 감소 밀도 매트릭스(1-RDM)를 기반으로 할 수 있다. 다른 구현에서, 커널 함수는 양자 데이터 포인트들에 대한 k-바디 RDM을 기반으로 할 수 있으며, 여기서 k는 사전 결정된 값보다 작다. 예시적인 커널 함수는 아래에 설명되어 있다.
1-RDM을 사용한 선형 커널 함수
커널 함수가 1-RDM의 세트를 기반으로 하는 구현에서, 커널 함수는 선형 커널 함수일 수 있다. 선형 커널 함수는 제1 양자 데이터 포인트와 제2 양자 데이터 포인트를 입력으로 사용하여 수치 출력을 생성한다. 선형 커널 함수는 항들의 합을 포함할 수 있으며, 여기서 합은 N-큐비트 각각에 대해 실행된다. 각 합계는 개별 큐비트에 해당하고 i) 개별 큐비트에 해당하는 서브시스템의 제1 양자 데이터 포인트에 대한 감소 밀도 매트릭스와 ii) 개별 큐비트에 해당하는 서브시스템의 제2 양자 데이터 포인트에 대한 감소 밀도 매트릭스의 곱(product)의 트레이스(trace)와 동일하다. 예를 들어, 선형 커널 함수는 아래의 수학식 1으로 주어질 수 있다.
수학식 1에서, 은 1부터 큐비트 수(N)까지 실행되고 각 큐비트를 라벨링하는 인덱스를 나타내며, 및 는 1-RDM, 예를 들어 큐비트(k)를 제외한 모든 큐비트에 대한 트레이스를 나타낸다. 수학식 1으로 주어진 선형 커널 함수는 일체(one-body) 항들의 합으로 작성될 수 있는 임의의 관찰 가능 항목을 학습할 수 있다.
제1 N-큐비트 양자 상태 및 제2 N-큐비트 양자 상태를 포함하는 한 쌍의 양자 데이터 포인트에 대해 수학식 1로 주어진 선형 커널 함수의 값을 계산하기 위해, 양자 컴퓨팅 장치는 다음을 수행할 수 있다.
- 제1 N-큐비트 양자 상태의 사본을 획득하거나 준비함으로써, 예를 들어, 제1 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하거나 준비하고, 양자 시스템의 제1 감소(된) 양자 상태의 기존 표현, 예를 들어 2×2 매트릭스를 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정함으로써 큐비트()에 해당하는 서브시스템의 제1 N-큐비트 양자 상태에 대한 1-RDM, 예를 들어 Trm≠l[ρ(xi)]를 계산하고,
- 제2 N-큐비트 양자 상태의 사본을 획득하거나 준비함으로써, 예를 들어 제2 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 얻거나 준비하고, 양자 시스템의 제2 감소(된) 양자 상태의 고전적 표현, 예를 들어 2×2 매트릭스를 얻기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하고, 양자 시스템의 제2 감소 양자 상태의 기존 표현, 예를 들어 2×2 매트릭스를 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정함으로써 큐비트()에 해당하는 서브시스템에서 제2 N-큐비트 양자 상태에 대한 1-RDM, 예를 들어 Trm≠l[ρ(xj)]를 계산하고, 그리고
- Q(xi,xj)에 대한 수치 값을 얻기 위해 수학식 1에 따라 기존 연산(예를 들어, 제1 감소 양자 상태 및 제2 감소 양자 상태의 기존 표현 곱하기, 곱해진 값의 트레이스 계산 및 각 큐비트 인덱스(=1,…,N)에 대한 계산된 트레이스의 평균의 합산)을 수행한다.
완전한 커널 매트릭스를 계산하기 위해, 양자 컴퓨팅 디바이스는 트레이닝 데이터 세트 내의 양자 데이터 포인트(xi,xj)의 각 쌍에 대해 위에서 설명한 절차를 반복한다.
1-RDM을 사용한 제곱 지수 커널 함수
다른 예로서, 커널 함수가 1-RDM 세트를 기반으로 하는 구현에서, 커널 함수는 제곱 지수 커널 함수일 수 있다. 제곱 지수 커널 함수는 제1 양자 데이터 포인트와 제2 양자 데이터 포인트를 입력으로 사용하여 수치 출력을 생성한다. 제곱 지수 커널 함수는 항들의 합에 대한 지수 함수를 포함할 수 있으며, 여기서 합은 N-큐비트 각각에 대해 실행된다. 각 합산은 개별 큐비트에 해당하고 i) 개별 큐비트에 해당하는 서브시스템의 제1 양자 데이터 포인트에 대한 감소 밀도 매트릭스 빼기(minus) ii) 개별 큐비트에 해당하는 서브시스템의 제2 양자 데이터 포인트에 대한 감소 밀도 매트릭스의 놈(norm)과 같다. 예를 들어, 제곱 지수 커널 함수는 아래의 수학식 2로 주어질 수 있다.
수학식 2에서 는 예측 정확도를 향상시키기 위해 조정될 수 있는 조정 가능한 파라미터를 나타내고(는 가까운 포인트(xi 및 xj)가 RDM을 사용하는 방법을 정의하는데 사용될 수 있으며, 가 크면 대부분의 포인트들은 유사성이 0에 가깝고, 반면에, 가 작으면 유사한 RDM을 가진 포인트들이 높은 유사성을 갖는 것으로 간주된다. 가 0인 경우, 각 포인트는 동일한 것으로 간주될 수 있다), 은 1부터 큐비트 수(N)까지 실행되고 각 큐비트를 라벨링하는 인덱스이며, 및 는 1-RDM을 나타낸다. 수학식 2로 주어진 제곱 지수 커널 함수는 1-RDM의 임의의 비선형 함수를 학습할 수 있다.
제1 N-큐비트 양자 상태와 제2 N-큐비트 양자 상태를 포함하는 한 쌍의 양자 데이터 포인트에 대해 방정식(2)로 주어진 제곱 지수 커널 함수의 값을 계산하기 위해, 양자 컴퓨팅 디바이스는 다음을 수행할 수 있다.
- 제1 N-큐비트 양자 상태의 사본을 획득하거나 준비함으로써, 예를 들어, 제1 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하거나 준비하고, 양자 시스템의 (제1 감소 양자 상태의 기존 표현)을 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정함으로써 큐비트()에 해당하는 서브시스템의 제1 N-큐비트 양자 상태에 대한 1-RDM, 예를 들어 Trm≠l[ρ(xi)])를 계산하고,
- 제2 N-큐비트 양자 상태의 사본을 획득하거나 준비함으로써, 예를 들어 제2 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하거나 준비하고, 양자 시스템의 (제2 감소 양자 상태의 기존 표현)을 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정함으로써 큐비트()에 해당하는 서브시스템에서 제2 N-큐비트 양자 상태에 대한 1-RDM, 예를 들어 Trm≠l[ρ(xj)]를 계산하고, 그리고
완전한 커널 매트릭스를 계산하기 위해, 양자 컴퓨팅 디바이스는 트레이닝 데이터 세트의 양자 데이터 포인트(xi,xj)의 각 쌍에 대해 위에서 설명한 절차를 반복한다.
k-RDM을 사용한 선형 커널 함수
또 다른 예로서, 커널 함수가 k-RDM 세트를 기반으로 하는 구현에서, 커널 함수는 선형 커널 함수일 수 있다. 선형 커널 함수는 제1 양자 데이터 포인트와 제2 양자 데이터 포인트를 입력으로 사용하여 수치 출력을 생성한다. 선형 커널 함수는 항들의 합을 포함할 수 있으며, 여기서 합은 N 큐비트에서 가져온 k-큐비트의 각 서브세트에 대해 실행된다. 각 합계는 개별 서브세트에 해당하고 i) k 큐비트의 개별 서브세트에 해당하는 서브시스템의 제1 양자 데이터 포인트에 대한 감소 밀도 매트릭스와 ii) k 큐비트의 각 서브세트에 해당하는 서브시스템의 제2 양자 데이터 포인트에 대한 감소 밀도 매트릭스의 곱의 트레이스와 같다. 예를 들어, 선형 커널 함수는 아래의 수학식 3으로 주어질 수 있다.
수학식 3에서, Sk(n)은 k 큐비트(N 큐비트에서 가져옴)의 서브세트의 세트를 나타내고, 및 는 k-RDM, 예를 들어 세트(K)에 포함된 k 큐비트를 제외한 모든 큐비트에 대한 트레이스를 나타낸다. 수학식 3의 선형 커널 함수는 k-바디 항들의 합으로 작성될 수 있는 이므이의 관찰 가능 항목을 학습할 수 있다.
제1 N-큐비트 양자 상태 및 제2 N-큐비트 양자 상태를 포함하는 한 쌍의 양자 데이터 포인트에 대해 수학식 3으로 주어진 선형 커널 함수의 값을 계산하기 위해, 양자 컴퓨팅 디바이스는 다음을 수행할 수 있다.
반복적으로 그리고 k-큐비트의 각 세트(K)에 대해:
- 제1 N-큐빗 양자 상태의 사본을 획득하거나 준비함으로써, 예를 들어, 제1 N-큐비트 양자 상태에서 N-큐빗 양자 시스템의 사본을 획득하거나 준비하고, 양자 시스템의 제1 감소 양자 상태의 (기존 표현, 예를 들어 매트릭스 표현)을 획득하기 위해 세트(K)에 포함된 큐비트를 제외한 양자 시스템의 각 큐비트를 측정함으로써 세트(K)의 큐비트에 해당하는 서브시스템의 제1 N-큐비트 양자 상태에 대한 k-RDM, 예를 들어 Trm≠K[ρ(xi)]를 계산하고,
- 제2 N-큐빗 양자 상태의 사본을 획득하거나 준비함으로써, 예를 들어, 제2 N-큐비트 양자 상태에서 N-큐빗 양자 시스템의 사본을 획득하거나 준비하고, 양자 시스템의 제2 감소 양자 상태의 (기존 표현)을 획득하기 위해 세트(K)에 포함된 큐비트를 제외한 양자 시스템의 각 큐비트를 측정함으로써 세트(K)의 큐비트에 해당하는 서브시스템에서 제2 N-큐비트 양자 상태에 대한 k-RDM, 예를 들어 Trm≠K [ρ(xj)]를 계산하고,
완전한 커널 매트릭스를 계산하기 위해, 양자 컴퓨팅 디바이스는 트레이닝 데이터 세트의 양자 데이터 포인트(xi,xj)의 각 쌍에 대해 위에서 설명한 절차를 반복한다.
k-RDM을 사용한 지수 커널 함수
수학식 1-3으로 주어진 커널 함수는 함수의 제한된 클래스를 학습할 수 있는데, 예를 들어 수학식 1에 의해 제공된 선형 커널 함수는 단일 큐비트 관찰 가능 항목의 합계인 관찰 가능 항목을 학습할 수 있다. 그러나, 일부 구현에서는 임의의 양자 모델, 예를 들어 전체 양자 상태의 선형 함수 로 주어진 임의의 심층 양자 신경망을 학습할 수 있는 커널을 정의하는 것이 유리할 수 있다. 이러한 구현에서, 커널 함수는 기존 쉐도우 기술을 사용하여 샘플링된 k-RDM을 사용하는 지수 커널 함수일 수 있다. 큐비트 인덱스(p1,p2,…pk)에 대한 양자 상태 ρ(x)의 k-RDM은 기존 쉐도우 수식화(shasow formalism)을 사용하여 로컬 랜덤 측정에 의해 재구성될 수 있다.
여기서 은 pr번째 큐비트의 랜덤 파울리 측정 기준(X, Y, Z)이고, 은 파울리 기준(Pauli basis)()하에서 양자 상태 ρ(x)의 pr번째 큐비트의 측정 결과(±1)이다. ρ(x)의 랜덤 측정에 대한 기대치가 취해진다. 두 k-RDM의 내적은 다음과 같다.
여기서 ρ(xi), ρ(xj)에 대한 랜덤 측정 결과는 독립적이다. 이 수학식은 일부 인덱스(pr,ps)가 일치하는 경우로 확장될 수 있다. 이는 커널을 정의하는 특징 맵에 추가 기능을 도입한다. 가능한 모든 k-RDM의 합은 다음과 같이 작성될 수 있다.
여기서 두 k-RDM의 내적과 기대치의 선형성에 대한 방정식이 사용된다. 따라서 RDM의 모든 차수를 포함하는 커널 함수는 아래의 수학식 4로 제공된다.
수학식 4에서, 기대값(E)은 시스템(i 및 j)에서 측정된 무작위로 선택된 파울리 프레임으로부터 ns 샘플에 대해 취해지고, 는 시스템(i)과 시스템(j)에서 독립적으로 수행된 임의의 파울리 측정 결과 간의 합의(agreement)에 대한 제1 지표(indicator) 함수를 나타내고, 는 두 시스템 간의 각 큐비트에서 동일한 기준(X,Y,Z,I)이 선택되었는지 여부와 같은 측정 기준 합의에 대한 제2 지표 함수를 나타낸다.는 하이퍼 파라미터를 나타낸다.
제1 N-큐비트 양자 상태 및 제2 N-큐비트 양자 상태를 포함하는 한 쌍의 양자 데이터 포인트에 대해 수학식 4로 주어진 선형 커널 함수의 값을 계산하기 위해, 양자 컴퓨팅 디바이스는 다음을 수행할 수 있다.
ns 샘플의 k번째 반복에 대해:
- h번째 큐비트에 대한 및 를 획득하기 위해 무작위로 샘플링된 파울리 기준(X, Y 또는 Z)에서 시스템(i)의 각 큐비트를 측정함으로써 제1 측정 결과를 획득하고, 여기서 는 1 또는 -1이고 는 랜덤 기준(X, Y 또는 Z이며,
- h번째 큐비트에 대한 및 를 획득하기 위해 무작위로 샘플링된 파울리 기준(X, Y 또는 Z)에서 시스템(j)의 각 큐비트를 측정함으로써 제2 측정 결과를 획득하고, 여기서 는 1 또는 -1이고 는 랜덤 기준(X, Y 또는 Z)이며,
- n 큐비트 시스템의 h 번째 큐비트에 대해, 제1 측정 결과와 제2 측정 결과를 비교하여 두 결과( 및 )가 같으면 1이고 그렇지 않으면 0인 제1 지표 함수()의 값을 결정하고,
수학적으로, 그 양(quantity)
이 계산되는데, 여기서 Ns는 시스템(i 또는 j)의 각 양자 상태에 대한 반복 횟수를 나타내고, r1 및 r2는 반복이고, 는 r2 반복에 대한 p번째 큐비트의 파울리 기준을 나타내고, 는 해당 측정 결과이다. 로컬 랜덤 측정과 기존 쉐도우 수식화를 사용하여 이 커널 함수를 계산하는 것은 기존 쉐도우 수식화가 몇 가지 측정으로 RDM을 효율적으로 구성할 수 있기 때문에 효율적이다.
완전한 커널 매트릭스를 계산하기 위해, 양자 컴퓨팅 디바이스는 트레이닝 데이터 세트의 양자 데이터 포인트(xi,xj)의 각 쌍에 대해 위에서 설명한 절차를 반복한다.
도 4로 돌아가서, 양자 컴퓨팅 디바이스는 계산된 커널 매트릭스(Q)를 기존인 프로세서에 제공한다(단계 406). 기존 프로세서는 커널 매트릭스(Q)를 사용하여 기존 기계 학습 방법을 수행하도록 구성된다. 예를 들어, 단계(402)에서 획득된 트레이닝 데이터 포인트들이 라벨링된 데이터인 구현에서, 기존인 프로세서는 가우시안 커널, 뉴럴(neural) 탄젠트 커널, 랜덤 포레스트를 포함하여 분류 또는 예측에 사용되는 모든 커널 SVM 방법을 수행하도록 구성될 수 있다. 다른 예로서, 단계(402)에서 획득된 트레이닝 데이터 포인트들이 라벨링되지 않은 데이터인 구현에서, 기존 프로세서는 k-평균과 같은 알고리즘을 사용하여 비지도 학습 또는 분류를 수행하는데 사용될 수 있는 거리 메트릭을 공간에 부여하기 위해 상기 계산된 커널 매트릭스를 사용하도록 구성될 수 있다.
기존 프로세서는 수신된 커널 매트릭스를 사용하여 해당 기계 학습 모델을 트레이닝하는 트레이닝 알고리즘을 수행한다. 기존 프로세서에 의해 수행되는 특정 트레이닝 알고리즘은 기존 프로세서가 수행하도록 구성된 기계 학습 방법의 유형에 따라 다르며 다양한 트레이닝 알고리즘을 포함할 수 있다.
양자 컴퓨팅 디바이스는 양자 데이터 포인트 {yi}의 검증 데이터세트를 획득한다(단계 408). 단계(402)를 참조하여 전술한 바와 같이, 검증 데이터세트에 포함된 양자 데이터 포인트들은 양자 데이터 입력으로서 수신될 수 있거나 기존 데이터 입력에 기초하여 생성될 수 있다.
양자 컴퓨팅 디바이스는 커널 매트릭스의 새로운 행과 열을 계산함으로써 커널 매트릭스을 업데이트하기 위해 다수의 양자 계산을 수행한다(단계 410). 새로운 행과 열은 검증 데이터세트 내의 양자 데이터 포인트들과 트레이닝 데이터세트 내의 양자 데이터 포인트들 간의 유사성을 나타낸다. 커널 매트릭스의 새로운 행과 열을 계산하는 것은 단계(404)를 참조하여 전술한 바와 같이, 트레이닝 데이터세트 및 검증 데이터세트 내의 각각의 양자 데이터 포인트 쌍(xi,yj)에 대해 이전에 사용된 커널 함수 Qij = Q(xi,xj)의 계산 값을 포함한다.
양자 컴퓨팅 디바이스는 업데이트된 커널 매트릭스, 예를 들어 커널 매트릭스의 새로운 행과 열을 기존 프로세서에 제공한다(단계 412). 기존 프로세서는 업데이트된 커널 매트릭스를 처리하여 검증 데이터 세트의 각각의 양자 데이터 포인트에 대한 기대치를 출력(예를 들어, 라벨 또는 숫자 값을 할당)한다.
본 명세서에 기술된 디지털 및/또는 양자 주제 및 디지털 기능 연산 및 양자 연산의 구현은 본 명세서에 개시된 구조 및 이들의 구조적 등가물, 또는 이들 중 하나 이상의 조합을 비롯하여 디지털 전자 회로, 적합한 양자 회로 또는 보다 일반적으로는 양자 계산 시스템, 유형으로 구현된 디지털 및/또는 양자 컴퓨터 소프트웨어 또는 펌웨어, 디지털 및/또는 양자 컴퓨터 하드웨어에서 구현될 수 있다. "양자 계산 시스템"이라는 용어는 양자 컴퓨터, 양자 정보 처리 시스템, 양자 암호 시스템 또는 양자 시뮬레이터를 포함할 수 있지만 이에 한정되지 않는다.
본 명세서에 기술된 디지털 및/또는 양자 주제의 구현은 하나 이상의 디지털 및/또는 양자 컴퓨터 프로그램, 즉 데이터 처리 장치에 의해 실행하거나 데이터 처리 장치의 작동을 제어하기 위해 유형의 비-일시적 저장 매체에 인코딩된 디지털 및/또는 양자 컴퓨터 프로그램 명령의 하나 이상의 모듈로 구현될 수 있다. 디지털 및/또는 양자 컴퓨터 저장 매체는 기계 판독 가능 저장 디바이스, 기계 판독 가능 저장 기판, 랜덤 또는 직렬 액세스 메모리 디바이스, 하나 이상의 큐비트 또는 이들 중 하나 이상의 조합일 수 있다. 대안적으로 또는 추가적으로, 프로그램 명령은 디지털 및/또는 양자 정보를 인코딩할 수 있는 인위적으로 생성된 전파 신호, 예를 들어, 데이터 처리 장치에 의한 실행을 위해 적합한 수신기 장치로 전송하기 위해 디지털 및/또는 양자 정보를 인코딩하기 위해 생성되는 기계 생성 전기, 광학 또는 전자기 신호에 인코딩될 수 있다.
양자 정보 및 양자 데이터라는 용어는 양자 시스템에 의해 운반, 유지 또는 저장되는 정보 또는 데이터를 지칭하며, 여기서 가장 작은 중요한 시스템은 큐비트, 즉 양자 정보의 단위를 정의하는 시스템이다. "큐비트"이라는 용어는 해당 문맥에서 2-준위 시스템으로 적절하게 근사화될 수 있는 모든 양자 시스템을 포함하는 것으로 이해된다. 이러한 양자 시스템은 예를 들어 2개 이상의 준위를 갖는 다중 준위 시스템을 포함할 수 있다. 예를 들어, 이러한 시스템은 원자, 전자, 광자, 이온 또는 초전도 큐비트를 포함할 수 있다. 많은 구현에서 계산 기준 상태는 기저 및 제1 여기 상태로 식별되지만 계산 상태가 더 높은 준위의 여기 상태로 식별되는 다른 설정도 가능함이 이해된다. "데이터 처리 장치"라는 용어는 디지털 및/또는 양자 데이터 처리 하드웨어를 지칭하며, 디지털 및/또는 양자 데이터를 처리하기 위한 모든 종류의 장치, 디바이스 및 기계, 예를 들어 프로그래밍 가능한 디지털 프로세서, 프로그래밍 가능한 양자 프로세서, 디지털 컴퓨터, 양자 컴퓨터, 다중 디지털 및 양자 프로세서 또는 컴퓨터 및 이들의 조합을 포함한다. 장치는 또한 특수 목적 논리 회로, 예를 들어 FPGA, ASIC 또는 양자 시뮬레이터, 즉 특정 양자 시스템에 대한 정보를 시뮬레이션하거나 생성하도록 설계된 양자 데이터 처리 장치일 수 있거나 이를 더 포함할 수 있다. 특히, 양자 시뮬레이터는 범용 양자 연산을 수행할 수 있는 능력이 없는 특수 목적의 양자 컴퓨터이다. 장치는 하드웨어에 더하여, 디지털 및/또는 양자 컴퓨터 프로그램을 위한 실행 환경을 생성하는 코드, 예를 들어 프로세서 펌웨어, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 또는 이들 중 하나 이상의 조합을 구성하는 코드를 포함할 수 있다.
프로그램, 소프트웨어, 소프트웨어 애플리케이션, 모듈, 소프트웨어 모듈, 스크립트 또는 코드라고도 지칭되거나 설명될 수 있는 디지털 컴퓨터 프로그램은 컴파일 또는 해석 언어, 선언적 또는 절차적 언어를 포함하여 모든 형태의 프로그래밍 언어로 작성될 수 있으며, 독립 실행형 프로그램 또는 모듈, 구성 요소, 서브루틴 또는 디지털 컴퓨팅 환경에서 사용하기에 적합한 기타 단위를 포함하여 모든 형태로 배포할 수 있다. 프로그램, 소프트웨어, 소프트웨어 애플리케이션, 모듈, 소프트웨어 모듈, 스크립트 또는 코드라고도 지칭되거나 설명될 수 있는 양자 컴퓨터 프로그램은 컴파일 또는 해석 언어, 선언적 또는 절차적 언어를 포함하여 모든 형태의 프로그래밍 언어로 작성하고 적합한 양자 프로그래밍 언어로 번역하거나 양자 프로그래밍 언어(예를 들어, QCL 또는 Quipper)로 작성될 수 있다.
디지털 및/또는 양자 컴퓨터 프로그램은 파일 시스템의 파일에 해당할 수 있지만 반드시 그럴 필요는 없다. 프로그램은 다른 프로그램이나 데이터, 예를 들어 마크업 언어 문서에 저장된 하나 이상의 스크립트, 문제의 프로그램 전용 단일 파일 또는 여러 조정 파일, 예를 들어 하나 이상의 모듈, 서브 프로그램 또는 코드의 일부를 저장하는 파일에 저장될 수 있다. 디지털 및/또는 양자 컴퓨터 프로그램은 하나의 디지털 또는 하나의 양자 컴퓨터 또는 한 사이트에 있거나 여러 사이트에 분산되어 있고 디지털 및/또는 양자 데이터 통신 네트워크로 상호 연결된 여러 디지털 및/또는 양자 컴퓨터에서 실행되도록 배포될 수 있다. 양자 데이터 통신 네트워크는 양자 시스템을 사용하여 양자 데이터(예를 들어 큐비트)를 전송할 수 있는 네트워크로 이해된다. 일반적으로, 디지털 데이터 통신망은 양자 데이터를 전송할 수 없지만, 양자 데이터 통신망은 양자 데이터와 디지털 데이터를 모두 전송할 수 있다.
본 명세서에 기술된 프로세스 및 논리 흐름은 하나 이상의 디지털 및/또는 양자 프로세서로 적절하게 작동하고, 하나 이상의 디지털 및/또는 양자 컴퓨터 프로그램을 실행하여 입력 디지털 및 양자 데이터에서 작동하고 출력을 생성하여 기능을 수행하는, 하나 이상의 디지털 및/또는 양자 프로세서로 적절하게 작동하는 하나 이상의 프로그래밍 가능한 디지털 및/또는 양자 컴퓨터에 의해 수행될 수 있다. 프로세스 및 논리 흐름은 또한 특수 목적 논리 회로(예를 들어 FPGA 또는 ASIC 또는 양자 시뮬레이터) 양자 시뮬레이터와 하나 이상의 프로그래밍된 디지털 및/또는 양자 컴퓨터의 조합에 의해 수행될 수 있으며 장치는 특수 목적 논리 회로로 구현될 수도 있다.
하나 이상의 디지털 및/또는 양자 컴퓨터로 구성된 시스템이 특정 동작 또는 액션을 수행하도록 "구성"된다는 것은 시스템이 소프트웨어, 펌웨어, 하드웨어 또는 작동 중에 시스템이 동작들 또는 액션들을 수행하게 하는 이들의 조합을 설치했음을 의미한다. 특정 동작들 또는 액션들을 수행하도록 구성된 하나 이상의 디지털 및/또는 양자 컴퓨터 프로그램은 하나 이상의 프로그램이 디지털 및/또는 양자 데이터 처리 장치에 의해 실행될 때 장치로 하여금 동작들 또는 액션들을 수행하게 하는 명령을 포함한다는 것을 의미한다. 양자 컴퓨터는 양자 컴퓨팅 장치에 의해 실행될 때 그 장치로 하여금 동작들 또는 액션들을 수행하게 하는 명령을 디지털 컴퓨터로부터 수신할 수 있다.
디지털 및/또는 양자 컴퓨터 프로그램의 실행에 적합한 디지털 및/또는 양자 컴퓨터는 일반 또는 특수 목적의 디지털 및/또는 양자 프로세서 또는 둘 다 또는 다른 종류의 중앙 디지털 및/또는 양자 처리 장치를 기반으로 할 수 있다. 일반적으로 중앙 디지털 및/또는 양자 처리 장치는 판독 전용 메모리, 랜덤 액세스 메모리, 또는 양자 데이터(예를 들어, 광자) 전송에 적합한 양자 시스템, 또는 이들의 조합으로부터 명령과 디지털 및/또는 양자 데이터를 수신할 것이다.
디지털 및/또는 양자 컴퓨터의 필수 요소는 명령을 수행하거나 실행하기 위한 중앙 처리 장치와 명령 및 디지털 및/또는 양자 데이터를 저장하기 위한 하나 이상의 메모리 디바이스이다. 중앙 처리 장치와 메모리는 특수 목적 논리 회로 또는 양자 시뮬레이터에 의해 보완되거나 통합될 수 있다. 일반적으로, 디지털 및/또는 양자 컴퓨터는 또한 디지털 및/또는 양자 데이터를 저장하기 위한 하나 이상의 대용량 저장 디바이스, 예를 들어 자기, 광 자기 디스크, 광 디스크 또는 양자 정보를 저장하는데 적합한 양자 시스템으로부터 디지털 및/또는 양자 데이터를 수신하거나 이들로 디지털 및/또는 양자 데이터를 전송하거나 둘 모두를 수행하거나 작동 가능하게 연결될 것이다. 그러나, 디지털 및/또는 양자 컴퓨터에는 이러한 디바이스들이 필요하지 않다.
디지털 및/또는 양자 컴퓨터 프로그램 명령 및 디지털 및/또는 양자 데이터를 저장하기에 적합한 디지털 및/또는 양자 컴퓨터 판독 가능 매체는 반도체 메모리 디바이스(예를 들어, EPROM, EEPROM 및 플래시 메모리 디바이스), 자기 디스크(예를 들어, 내부 하드 디스크 또는 이동식 디스크), 광자기 디스크, CD-ROM 및 DVD-ROM 디스크, 및 양자 시스템(예를 들어, 포획된 원자 또는 전자)을 비롯하여 모든 형태의 비휘발성 디지털 및/또는 양자 메모리, 미디어 및 메모리 디바이스를 포함한다. 양자 메모리는 양자 데이터를 높은 충실도와 효율로 장기간 저장할 수 있는 디바이스로, 예를 들어 빛을 전송에 사용하는 광-물질 인터페이스와 중첩과 같은 양자 데이터의 양자 특성을 저장하고 중첩 또는 양자 일관성과 같은 양자 데이터의 양자 특성을 보존하기 위한 물질로 이해된다.
본 명세서에 기술된 다양한 시스템 또는 그 일부의 제어는 하나 이상의 비-일시적 기계 판독 가능 저장 매체에 저장되고 하나 이상의 디지털 및/또는 양자 처리 디바이스에서 실행 가능한 명령을 포함하는 디지털 및/또는 양자 컴퓨터 프로그램 제품으로 구현될 수 있다. 본 명세서에 기술된 시스템 또는 그 일부는 하나 이상의 디지털 및/또는 양자 처리 디바이스와 본 명세서에 설명된 동작들을 수행하기 위한 실행 가능한 명령을 저장하는 메모리를 포함할 수 있는 장치, 방법 또는 시스템으로 각각 구현될 수 있다.
본 명세서는 많은 구체적인 구현 세부사항을 포함하지만, 이들은 청구될 수 있는 범위에 대한 제한으로 해석되어서는 안되며, 오히려 특정 구현에 고유할 수 있는 특징에 대한 설명으로 해석되어야 한다. 개별 구현의 맥락에서 본 명세서에 설명된 특정 특징은 단일 구현에서 조합하여 구현될 수도 있다. 반대로, 단일 구현의 맥락에서 설명된 다양한 특징은 여러 구현에서 개별적으로 또는 임의의 적합한 하위 조합으로 구현될 수도 있다. 더욱이, 특징들이 특정 조합에서 작동하는 것으로 위에서 설명되고 초기에도 그렇게 주장되었을지라도, 주장된 조합으로부터의 하나 이상의 특징은 경우에 따라 조합으로부터 제거될 수 있고, 주장된 조합은 하위 조합 또는 하위 조합의 변형에 관한 것일 수 있다.
유사하게, 동작들이 특정 순서로 도면에 도시되어 있지만, 이는 바람직한 결과를 달성하기 위해 이러한 동작들이 도시된 특정 순서 또는 순차적인 순서로 수행되거나 예시된 모든 동작들이 수행될 것을 요구하는 것으로 이해되어서는 안 된다. 특정 상황에서는 멀티태스킹 및 병렬 처리가 유리할 수 있다. 또한, 위에서 설명된 구현에서 다양한 시스템 모듈 및 구성 요소의 분리는 모든 구현에서 그러한 분리를 요구하는 것으로 이해되어서는 안되며, 설명된 프로그램 구성 요소 및 시스템은 일반적으로 단일 소프트웨어 제품에 함께 통합되거나 여러 소프트웨어 제품으로 패키징될 수 있음을 이해해야 한다.
주제의 특정 구현들이 설명되었다. 다른 구현은 다음 청구 범위 내에 있다. 예를 들어, 청구범위에 인용된 동작들은 다른 순서로 수행될 수 있으며 여전히 원하는 결과를 얻을 수 있다. 일 예로서, 첨부된 도면에 묘사된 프로세스는 원하는 결과를 획득하기 위해 표시된 특정 순서 또는 순차적인 순서를 반드시 요구하지는 않는다. 경우에 따라 멀티태스킹 및 병렬 처리가 유리할 수 있다.
Claims (24)
- 컴퓨터 구현 방법으로서,
양자 컴퓨팅 디바이스에 의해, 양자 데이터 포인트의 트레이닝 데이터세트를 획득하는 단계와;
양자 컴퓨팅 디바이스에 의해, 트레이닝 데이터세트에 포함된 양자 데이터 포인트 사이의 유사성을 나타내는 커널 매트릭스를 계산하는 단계와, 상기 커널 매트릭스를 계산하는 단계는 트레이닝 데이터세트의 각 양자 데이터 포인트 쌍에 대해, 커널 함수의 대응하는 값을 계산하는 단계를 포함하고, 상기 커널 함수는 양자 데이터 포인트들에 대한 감소(reduced) 밀도 매트릭스에 기초하고; 그리고
양자 컴퓨팅 디바이스에 의해, 커널 매트릭스를 기존(classical) 프로세서에 제공하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제1항에 있어서,
기존 프로세서에 의해 양자 컴퓨팅 디바이스로부터, 커널 매트릭스를 수신하는 단계와; 그리고
기존 프로세서에 의해, 기계 학습 모델을 구성하기 위해 커널 매트릭스를 사용하여 트레이닝 알고리즘을 수행하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제1항에 있어서,
양자 컴퓨팅 디바이스에 의해, 양자 데이터 포인트의 검증 데이터세트를 획득하는 단계와;
양자 컴퓨팅 디바이스에 의해, 커널 매트릭스의 새로운 요소들을 계산하는 단계와, 상기 새로운 요소들은 검증 데이터세트의 양자 데이터 포인트와 트레이닝 데이터세트의 양자 데이터 포인트 사이이의 유사성을 나타내는 항목을 포함하고, 상기 새로운 요소들을 계산하는 단계는 트레이닝 데이터세트 및 검증 데이터세트의 각 양자 데이터 포인트 쌍에 대해, 커널 함수의 대응하는 값을 계산하는 단계를 포함하고; 그리고
양자 컴퓨팅 디바이스에 의해, 커널 매트릭스의 새로운 요소들을 기존 프로세서에 제공하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제3항에 있어서,
기존 프로세서에 의해, 검증 데이터세트의 각 양자 데이터 포인트에 대한 기대치(predictions)를 출력하기 위해 커널 매트릭스의 새로운 요소들을 처리하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 임의의 선행하는 항에 있어서,
상기 커널 함수는,
트레이닝 데이터세트의 양자 데이터 포인트에 대한 단일체(single-body) 감소 밀도 매트릭스에 기초하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제5항에 있어서,
상기 커널 함수는,
선형 커널 함수를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제6항에 있어서,
상기 선형 커널 함수는,
i) 제1 양자 데이터 포인트 및 제2 양자 데이터 포인트를 입력으로 취하고, ii) 수치 출력을 생성하고, 그리고 iii) 항들의 합을 포함하며, 상기 합은 N>1인 경우 각각의 N-큐비트에 대해 실행되고 합산은 각각의 큐비트에 대응하며 a) 각 큐비트에 해당하는 서브시스템의 제1 양자 데이터 포인트에 대한 감소 밀도 매트릭스와 b) 각 큐비트에 해당하는 서브시스템의 제2 양자 데이터 포인트에 대한 감소 밀도 매트릭스의 곱의 트레이스와 동일한 것을 특징으로 하는 컴퓨터 구현 방법. - 제6항 내지 제8항 중 어느 한 항에 있어서,
쌍이 N>1인 제1 N-큐비트 양자 상태 및 N>1인 제2 N-큐비트 양자 상태를 포함하는 트레이닝 데이터세트의 양자 데이터 포인트 쌍에 대한 커널 함수의 값을 계산하는 단계는,
반복적으로 각 큐비트 인덱스에 대해:
큐비트()에 해당하는 서브시스템에서 제1 N-큐비트 양자 상태에 대한 1-감소 밀도 매트릭스(RDM)를 계산하는 단계로서, 제1 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하는 단계 및 양자 시스템의 제1 감소 양자 상태를 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하는 단계를 포함하고;
큐비트()에 해당하는 서브시스템에서 제2 N-큐비트 양자 상태에 대한 1-RDM을 계산하는 단계로서, 제2 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하는 단계 및 양자 시스템의 제2 감소 양자 상태를 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하는 단계를 포함하고;
제1 감소 양자 상태와 제2 감소 양자 상태의 곱의 트레이스(trace)를 결정하는 단계와; 그리고
각 큐비트 인덱스에 대해 결정된 트레이스의 평균을 합산하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제5항에 있어서,
상기 커널 함수는 제곱 지수 커널 함수를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제10항에 있어서,
상기 제곱 지수 커널 함수는,
i) 제1 양자 데이터 포인트 및 제2 양자 데이터 포인트를 입력으로 취하고, ii) 수치 출력을 생성하고, 그리고 iii) 항들의 합의 지수 함수를 포함하며,
상기 합는 N>1인 경우 각각의 N-큐비트에 대해 실행되고, 그 합산은 개별 큐비트에 해당하고 a) 개별 큐비트에 해당하는 서브시스템의 제1 양자 데이터 포인트에 대한 감소 밀도 매트릭스와 b) 개별 큐비트에 해당하는 서브시스템의 제2 양자 데이터 포인트에 대한 감소 밀도 매트릭스의 곱의 트레이스와 동일한 것을 특징으로 하는 컴퓨터 구현 방법. - 제10항 내지 제12항 중 어느 한 항에 있어서,
쌍이 N>1인 제1 N-큐비트 양자 상태 및 N>1인 제2 N-큐비트 양자 상태를 포함하는 트레이닝 데이터세트의 양자 데이터 포인트 쌍에 대한 커널 함수의 값을 계산하는 단계는,
반복적으로 각 큐비트 인덱스에 대해:
큐비트()에 해당하는 서브시스템에서 제1 N-큐비트 양자 상태에 대한 1-감소 밀도 매트릭스(RDM)를 계산하는 단계로서, 제1 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하고 양자 시스템의 제1 감소 양자 상태를 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하는 단계를 포함하고;
큐비트()에 대응하는 서브시스템에서 제2 N-큐비트 양자 상태에 대한 1-RDM을 계산하는 단계로서, 제2 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하고 양자 시스템의 제2 감소 양자 상태를 획득하기 위해 번째 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하는 단계를 포함하고;
제3 감소 양자 상태를 획득하기 위해 제1 감소 양자 상태에서 제2 감소 양자 상태를 감산하고 제3 감소 양자 상태의 놈(norm)을 결정하는 단계와; 그리고
각 큐비트 인덱스에 대해 결정된 놈의 평균을 합산하고 그 합산된 평균의 지수를 계산하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제1항 내지 제4항 중 어느 한 항에 있어서,
상기 커널 함수는,
양자 데이터 포인트에 대한 k-바디(body) RDM을 기반으로 하며, k는 사전 결정된 값보다 작은 것을 특징으로 하는 컴퓨터 구현 방법. - 제14항에 있어서,
상기 커널 함수는,
선형 커널 함수를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제15항에 있어서,
상기 선형 커널 함수는,
i) 제1 양자 데이터 포인트 및 제2 양자 데이터 포인트를 입력으로 취하고, ii) 수치 출력을 생성하고, iii) 항들의 합을 포함하며,
상기 합은 N 큐비트로부터 취한 k-큐비트의 각 서브세트에 대해 실행되고, 각 합산은 개별 서브세트에 대응하고 a) k 큐비트의 개별 서브세트에 해당하는 서브시스템의 제1 양자 데이터 포인트에 대한 감소 밀도 매트릭스와 b) k 큐비트의 개별 서브세트에 해당하는 서브시스템의 제2 양자 데이터 포인트에 대한 감소 밀도 매트릭스의 곱의 트레이스와 동일한 것을 특징으로 하는 컴퓨터 구현 방법. - 제15항 내지 제17항 중 어느 한 항에 있어서,
쌍이 제1 N-큐비트 양자 상태 및 제2 N-큐비트 양자 상태를 포함하는 트레이닝 데이터세트의 양자 데이터 포인트 쌍에 대한 커널 함수의 값을 계산하는 단계는,
반복적으로 각 k-큐비트 세트에 대해:
세트의 큐비트에 해당하는 서브시스템에서 제1 N-큐비트 양자 상태에 대한 k-RDM을 계산하는 단계로서, 제1 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하고 세트에 포함된 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하여 양자 시스템의 제1 감소 양자 상태를 획득하는 단계를 포함하고;
세트의 큐비트에 해당하는 서브시스템에서 제2 N-큐비트 양자 상태에 대한 k-RDM을 계산하는 단계로서, 제2 N-큐비트 양자 상태에서 N-큐비트 양자 시스템의 사본을 획득하고 세트에 포함된 큐비트를 제외한 양자 시스템의 각 큐비트를 측정하여 양자 시스템의 제2 감소 양자 상태를 획득하는 단계를 포함하고;
제1 감소 양자 상태와 제2 감소 양자 상태의 곱의 트레이스를 결정하는 단계와; 그리고
k 큐비트의 각 세트에 대해 결정된 평균을 합산하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제14항에 있어서,
상기 커널 함수는 지수 커널 함수를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제20항에 있어서,
쌍이 제1 N-큐비트 양자 상태 및 제2 N-큐비트 양자 상태를 포함하는 트레이닝 데이터세트의 양자 데이터 포인트 쌍에 대한 커널 함수의 값을 계산하는 단계는,
반복적으로:
제1 측정 결과를 획득하는 단계로서, h번째 큐비트에 대한 값( 및)을 획득하기 위해 랜덤 파울리 기준(Pauli basis)으로 제1 시스템의 각 큐비트를 측정하는 단계를 포함하고, 여기서 는 1 또는 -1이고 는 랜덤 기준(X, Y 또는 Z)이고;
제2 측정 결과를 획득하는 단계로서, h번째 큐비트에 대한 값( 및)을 획득하기 위해 랜덤 파울리 기준으로 제2 시스템의 각 큐비트를 측정하는 단계를 포함하고, 여기서 는 1 또는 -1이고 는 랜덤 기반(X, Y 또는 Z)이고;
N 큐비트 시스템의 h번째 큐비트에 대해, 제1 지표 함수의 값을 결정하기 위해 제1 측정 결과와 제2 측정 결과를 비교는 단계와;
N 큐비트 시스템의 h번째 큐비트에 대해, 제2 지표 함수의 값을 결정하는 단계와; 그리고
제1 지표 함수와 제2 지표 함수의 결정된 값을 곱셈, 합산 및 평균화하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제1항에 있어서,
상기 양자 데이터 포인트는,
N>1인 N-큐비트 양자 상태를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 제1항에 있어서,
상기 양자 데이터 포인트의 트레이닝 데이터세트를 획득하는 단계는,
기존 데이터 포인트의 트레이닝 데이터 세트를 수신하는 단계와; 그리고
양자 데이터 포인트의 트레이닝 데이터 세트를 생성하는 단계로서, 개별 인코딩 회로를 기준 양자 상태에 적용함으로써 각각의 기존 데이터 포인트를 개별 양자 상태에 임베딩하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 구현 방법. - 장치로서,
하나 이상의 기존 프로세서; 및
하나 이상의 기존 프로세서와 데이터 통신하는 하나 이상의 양자 컴퓨팅 디바이스를 포함하고, 상기 양자 컴퓨팅 하드웨어는,
각 큐비트 레지스터가 하나 이상의 큐비트를 포함하는 하나 이상의 큐비트 레지스터와, 그리고
하나 이상의 큐비트 레지스터를 동작시키도록 구성된 복수의 제어 디바이스를 포함하며, 상기 장치는 제1항 내지 제23항 중 어느 한 항의 방법을 수행하도록 구성되는 것으르 특징으로 하는 장치.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063093611P | 2020-10-19 | 2020-10-19 | |
US63/093,611 | 2020-10-19 | ||
PCT/US2021/055545 WO2022086918A1 (en) | 2020-10-19 | 2021-10-19 | Quantum computing with kernel methods for machine learning |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230085175A true KR20230085175A (ko) | 2023-06-13 |
Family
ID=78695804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020237015862A KR20230085175A (ko) | 2020-10-19 | 2021-10-19 | 기계 학습을 위한 커널 방법을 사용한 양자 컴퓨팅 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20220121998A1 (ko) |
EP (1) | EP4211626A1 (ko) |
JP (2) | JP7502560B2 (ko) |
KR (1) | KR20230085175A (ko) |
CN (1) | CN116368502A (ko) |
AU (2) | AU2021364446B2 (ko) |
CA (1) | CA3196122A1 (ko) |
WO (1) | WO2022086918A1 (ko) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW202420151A (zh) * | 2022-07-05 | 2024-05-16 | 澳洲商矽基量子計算有限公司 | 量子機器學習裝置和方法 |
EP4310793A1 (en) | 2022-07-22 | 2024-01-24 | Multiverse Computing S.L. | Quantum method and system for classifying images |
CN116739097B (zh) * | 2023-06-15 | 2024-07-12 | 北京百度网讯科技有限公司 | 量子测量设备性能估计方法及装置、电子设备和介质 |
CN116502726B (zh) * | 2023-06-28 | 2023-09-19 | 深圳市爱云信息科技有限公司 | 基于量子芯片的数据存储系统及方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3520041A4 (en) * | 2016-09-30 | 2020-07-29 | Rigetti & Co., Inc. | SIMULATION OF QUANTUM SYSTEMS WITH QUANTUM CALCULATION |
US11295223B2 (en) * | 2018-06-12 | 2022-04-05 | International Business Machines Corporation | Quantum feature kernel estimation using an alternating two layer quantum circuit |
US11748665B2 (en) | 2019-04-03 | 2023-09-05 | International Business Machines Corporation | Quantum feature kernel alignment |
-
2021
- 2021-10-19 KR KR1020237015862A patent/KR20230085175A/ko unknown
- 2021-10-19 EP EP21810797.7A patent/EP4211626A1/en active Pending
- 2021-10-19 WO PCT/US2021/055545 patent/WO2022086918A1/en active Application Filing
- 2021-10-19 CA CA3196122A patent/CA3196122A1/en active Pending
- 2021-10-19 CN CN202180071498.9A patent/CN116368502A/zh active Pending
- 2021-10-19 US US17/505,202 patent/US20220121998A1/en active Pending
- 2021-10-19 JP JP2023524185A patent/JP7502560B2/ja active Active
- 2021-10-19 AU AU2021364446A patent/AU2021364446B2/en active Active
-
2024
- 2024-03-12 AU AU2024201618A patent/AU2024201618A1/en active Pending
- 2024-06-06 JP JP2024092137A patent/JP2024125311A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
CA3196122A1 (en) | 2022-04-28 |
AU2021364446B2 (en) | 2023-12-14 |
JP2023546590A (ja) | 2023-11-06 |
JP2024125311A (ja) | 2024-09-18 |
WO2022086918A1 (en) | 2022-04-28 |
AU2021364446A1 (en) | 2023-05-25 |
US20220121998A1 (en) | 2022-04-21 |
EP4211626A1 (en) | 2023-07-19 |
JP7502560B2 (ja) | 2024-06-18 |
CN116368502A (zh) | 2023-06-30 |
AU2024201618A1 (en) | 2024-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cerezo et al. | Variational quantum algorithms | |
AU2017414716B2 (en) | Operator averaging within quantum computing systems | |
JP7362692B2 (ja) | 量子ニューラルネットワーク | |
Klus et al. | Data-driven approximation of the Koopman generator: Model reduction, system identification, and control | |
KR20230085175A (ko) | 기계 학습을 위한 커널 방법을 사용한 양자 컴퓨팅 | |
CA3091246C (en) | Variational quantum state preparation | |
CN109074518B (zh) | 多个本征值的量子相位估计 | |
US20180096085A1 (en) | Simulating quantum systems with quantum computation | |
AU2021364446A9 (en) | Quantum computing with kernel methods for machine learning | |
US20220358392A1 (en) | Parallel cross entropy benchmarking | |
US20240013087A1 (en) | Virtual distillation for quantum error mitigation | |
US20220383180A1 (en) | Patch and elided fidelity estimation | |
Ledinauskas et al. | Scalable imaginary time evolution with neural network quantum states | |
Ibnouhsein et al. | Renormalized entropy of entanglement in relativistic field theory | |
Chen et al. | QSlack: A slack-variable approach for variational quantum semi-definite programming | |
Polson et al. | Quantum Bayesian computation | |
De Prins | Photonic quantum reservoir computing | |
Vedrukov et al. | Quantum Process Tomography on Cloud-accessible Quantum Computing Platforms | |
Ashman et al. | In-Context In-Context Learning with Transformer Neural Processes | |
London | Advances in Machine Learning: Theory and Applications in Time Series Prediction |