KR20210148095A - 데이터 분류 방법 및 시스템, 그리고 분류기 트레이닝 방법 및 시스템 - Google Patents

데이터 분류 방법 및 시스템, 그리고 분류기 트레이닝 방법 및 시스템 Download PDF

Info

Publication number
KR20210148095A
KR20210148095A KR1020217028002A KR20217028002A KR20210148095A KR 20210148095 A KR20210148095 A KR 20210148095A KR 1020217028002 A KR1020217028002 A KR 1020217028002A KR 20217028002 A KR20217028002 A KR 20217028002A KR 20210148095 A KR20210148095 A KR 20210148095A
Authority
KR
South Korea
Prior art keywords
quantum
index information
training
data
computer
Prior art date
Application number
KR1020217028002A
Other languages
English (en)
Other versions
KR102618916B1 (ko
Inventor
쑹롄 어우
창유 시에
성유 장
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20210148095A publication Critical patent/KR20210148095A/ko
Application granted granted Critical
Publication of KR102618916B1 publication Critical patent/KR102618916B1/ko

Links

Images

Classifications

    • G06K9/6256
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06K9/6269
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

데이터 분류 방법 및 시스템, 분류기 트레이닝 방법 및 시스템이 제공된다. 본 출원은 인공 지능, 클라우드 기술들, 및 양자 기술들의 분야에 관한 것이다. 방법은 고전적 컴퓨터에 의해, 분류 대상 데이터를 획득하고, 고전적 컴퓨터에 의해, 분류 대상 데이터를 양자 컴퓨터에 제공하는 단계; 양자 컴퓨터에 의해, 분류 대상 데이터의 양자 상태를 획득하기 위하여 양자 회로를 이용하여 분류 대상 데이터에 대한 특징 맵핑을 수행하는 단계; 분류기의 경계 벡터, 분류 대상 데이터의 양자 상태, 및 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하는 단계; 및 추정 결과를 고전적 컴퓨터로 송신하는 단계 - 경계 벡터에 대응하는 인덱스 정보의 양자 상태는 트레이닝 동안에 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타냄 -; 및 고전적 컴퓨터에 의해, 추정 결과에 따라 분류 대상 데이터의 분류 결과를 결정하는 단계를 포함한다. 본 개시의 실시예에서 획득된 경계 벡터는 더 정확하고, 분류기의 분류 정밀도는 더 높아서, 최종적인 분류 결과가 더 정확하다.

Description

데이터 분류 방법 및 시스템, 그리고 분류기 트레이닝 방법 및 시스템
본 출원은, 2020년 5월 25일자로 "데이터 분류 방법 및 시스템, 그리고 분류기 트레이닝 방법 및 시스템"라는 명칭으로 출원된, 중국 특허 출원 제202010446946.6호를 우선권으로 주장하며, 이 중국 특허 출원은 그 전체가 참조로 본원에 포함된다.
본 개시의 실시예들은 인공 지능(artificial intelligence), 클라우드 기술(cloud technology)들, 및 양자 기술(quantum technology)들의 분야에 관한 것으로, 특히, 데이터 분류 방법 및 시스템, 그리고 분류기 트레이닝(classifier training) 방법 및 시스템에 관한 것이다.
지원 벡터 머신(support vector machine; SVM)은 데이터를 분류하기 위한 감독된 러닝 모델(supervised learning model)이고, 인공 지능(artificial intelligence; AI)의 기술적 분야에서 널리 적용된다.
트레이닝 동안에, 대형 데이터 세트를 프로세싱하는 효율을 개선시키기 위하여, 기술자들은 시프트-불변 커널(shift-invariant kernel)들에 대응하는 특징 맵(feature map)들을 이용하여 SVM을 트레이닝한다. 시프트-불변 커널은 2개의 트레이닝 데이터를 동일한 거리만큼 이동시킴으로써 획득된 커널 함수가 미변경된 상태로 유지되는 것을 나타낸다. 실제적인 적용 동안에, 분류 대상 데이터(to-be-classified data)는 SVM으로 입력되고, SVM은 분류 대상 데이터의 분류 결과를 출력한다.
그러나, SVM에서의 시프트-불변 커널들에 대응하는 특징 맵들의 이용으로 인해, 특징 공간은 제한되고, SVM의 분류 정밀도는 상대적으로 낮아서, 부정확한 최종적인 분류 결과로 귀착된다.
본 개시의 실시예들에 따르면, 데이터 분류 방법 및 시스템, 그리고 분류기 트레이닝 방법 및 시스템은 최종적인 분류 결과의 정확도를 개선시키기 위하여 제공된다. 기술적 해결책은 다음과 같다.
일 양태에서, 데이터 분류 방법이 본 개시의 실시예에 따라 제공된다. 이 방법은:
고전적 컴퓨터(classical computer)에 의해, 분류 대상 데이터를 획득하고, 고전적 컴퓨터에 의해, 분류 대상 데이터를 양자 컴퓨터(quantum computer)에 제공하는 단계;
양자 컴퓨터에 의해, 분류 대상 데이터의 양자 상태를 획득하기 위하여 양자 회로를 이용하여 분류 대상 데이터에 대한 특징 맵핑(feature mapping)을 수행하고, 분류기의 경계 벡터(boundary vector), 분류 대상 데이터의 양자 상태, 및 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하고, 추정 결과를 고전적 컴퓨터로 송신하는 단계 - 경계 벡터에 대응하는 인덱스 정보의 양자 상태는 트레이닝 동안에 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타냄 -; 및
고전적 컴퓨터에 의해, 추정 결과에 따라 분류 대상 데이터의 분류 결과를 결정하는 단계를 포함한다.
또 다른 양태에서, 분류기 트레이닝 방법은 본 개시의 실시예에 따라 제공된다. 방법은:
고전적 컴퓨터에 의해, 트레이닝 데이터 세트를 획득하는 단계 - 트레이닝 데이터 세트는 m개의 트레이닝 데이터 및 트레이닝 데이터의 표준 라벨들을 포함하고, m은 양의 정수임 -;
양자 컴퓨터에 의해, 내적 세트(inner product set)를 생성하기 위하여 작업 세트에서의 매 2개의 인덱스 정보(every two pieces of index information)의 양자 상태들의 내적(inner product)을 계산하는 단계 - 작업 세트는 적어도 2개의 인덱스 정보를 포함하고, 인덱스 정보는 현재의 트레이닝에서 이용된 트레이닝 데이터를 지시하고, 인덱스 정보의 양자 상태는 현재의 트레이닝에서 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타냄 -; 및
고전적 컴퓨터에 의해, 내적 세트에 따라 분류기의 최적화 문제를 생성하고, 분류기의 경계 벡터를 획득하기 위하여 분류기의 최적화 문제에 따라 분류기를 트레이닝하는 단계를 포함한다.
또 다른 양태에서, 데이터 분류 시스템이 본 개시의 실시예에 따라 제공된다. 이 시스템은 고전적 컴퓨터 및 양자 컴퓨터를 포함한다. 고전적 컴퓨터는 분류 대상 데이터를 획득하고, 분류 대상 데이터를 양자 컴퓨터에 제공하도록 구성된다. 양자 컴퓨터는 분류 대상 데이터의 양자 상태를 획득하기 위하여 양자 회로를 이용하여 분류 대상 데이터에 대한 특징 맵핑을 수행하고, 분류기의 경계 벡터, 분류 대상 데이터의 양자 상태, 및 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하고, 추정 결과를 고전적 컴퓨터로 송신하도록 구성된다. 경계 벡터에 대응하는 인덱스 정보의 양자 상태는 트레이닝 동안에 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다. 고전적 컴퓨터는 추정 결과에 따라 분류 대상 데이터의 분류 결과를 결정하도록 추가로 구성된다.
또 다른 양태에서, 분류기 트레이닝 시스템이 본 개시의 실시예에 따라 제공된다. 이 시스템은 고전적 컴퓨터 및 양자 컴퓨터를 포함한다. 고전적 컴퓨터는 트레이닝 데이터 세트를 획득하도록 구성된다. 트레이닝 데이터 세트는 m개의 트레이닝 데이터 및 트레이닝 데이터의 표준 라벨들을 포함하고, m은 양의 정수이다. 양자 컴퓨터는 내적 세트를 생성하기 위하여 작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적을 계산하도록 구성된다. 작업 세트는 적어도 2개의 인덱스 정보를 포함하고, 인덱스 정보는 현재의 트레이닝에서 이용된 트레이닝 데이터를 지시하고, 인덱스 정보의 양자 상태는 현재의 트레이닝에서 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다. 고전적 컴퓨터는 내적 세트에 따라 분류기의 최적화 문제를 생성하고, 분류기의 경계 벡터를 획득하기 위하여 분류기의 최적화 문제에 따라 분류기를 트레이닝하도록 추가로 구성된다.
본 개시의 실시예들에서 제공된 기술적 해결책은 다음의 유익한 효과들을 달성할 수 있다. 양자 컴퓨터는 분류기의 경계 벡터, 분류 대상 데이터의 양자 상태, 및 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하여, 고전적 컴퓨터는 추정 결과에 따라 분류 대상 데이터의 분류 결과를 결정한다. 경계 벡터에 대응하는 인덱스 정보의 양자 상태는 트레이닝 동안에 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다. 본 개시에서의 분류기는 시프트-불변 커널들에 대응하는 특징 맵들을 이용하도록 제한되지 않고, 특징 공간은 제한되지 않으므로, 분류 대상 데이터를 분류하기 위하여 본 개시의 분류기에 의해 더 양호한 특징 공간이 발견될 수 있다. 즉, 본 개시에서 획득된 경계 벡터가 더 정확하고, 분류기의 분류 정밀도가 더 높음으로써, 더 정확한 최종적인 분류 결과를 획득한다.
본 개시의 실시예들에서의 기술적 해결책을 더 명확하게 설명하기 위하여, 실시예들을 설명하기 위하여 요구된 첨부 도면들은 이하에서 간략하게 설명된다. 분명히, 다음의 설명에서의 첨부 도면들은 본 개시의 일부 실시예들을 오직 도시하고, 본 기술분야에서의 통상의 기술자는 창조적인 노력들 없이 이 첨부 도면들로부터 다른 첨부 도면들을 여전히 도출할 수 있다.
도 1은 본 개시의 실시예에 따른 구현 환경의 개략도이다.
도 2는 본 개시의 실시예에 따른 데이터 분류 방법의 흐름도이다.
도 3은 본 개시의 실시예에 따른 분류기의 개략도이다.
도 4는 본 개시의 또 다른 실시예에 따른 데이터 분류 방법의 흐름도이다.
도 5는 본 개시의 또 다른 실시예에 따른 데이터 분류 방법의 개략도이다.
도 6은 본 개시의 실시예에 따른 분류기 트레이닝 방법의 흐름도이다.
도 7은 본 개시의 또 다른 실시예에 따른 분류기 트레이닝 방법의 흐름도이다.
도 8은 본 개시의 또 다른 실시예에 따른 분류기 트레이닝 방법의 개략도이다.
도 9는 본 개시의 실시예에 따른 데이터 분류 시스템의 개략도이다.
도 10은 본 개시의 실시예에 따른 분류기 트레이닝 시스템의 개략도이다.
본 개시의 목적들, 기술적 해결책들, 및 장점들을 더 명화가게 하기 위하여, 본 개시의 실시예들은 이하에서 동반 도면들을 참조하여 상세하게 설명된다.
본 개시의 실시예들이 설명되기 전에, 본 개시에서 관여된 일부 용어들이 먼저 설명된다.
1. 양자 컴퓨터는 양자 시스템의 상태를 제어함으로써 연산(computation)을 수행하는 디바이스이다. 양자 컴퓨터는 내결함성(fault tolerant)이 있고, 즉, 양자 컴퓨터는 사용자-특정된 정밀도를 달성하기 위하여 임의적인 길이의 연산을 수행할 수 있다는 것이 가정된다. 양자 컴퓨터는, 고속 수학적 및 논리적 동작들을 수행하고, 양자 역학의 법칙들을 따름으로써 양자 정보를 저장하고 프로세싱하는 물리적 장치이다. 양자 정보를 프로세싱하고 컴퓨팅하고 양자 알고리즘을 작동시키는 장치는 양자 컴퓨터이다.
2. 고전적 컴퓨터는 평범한 비-양자 컴퓨터이다.
3. SVM은 데이터를 분류하기 위한 감독된 러닝 모델이고, 이미지, 패턴, 및 수기(handwriting) 인식, 감정 분석, 얼굴 및 객체 검출, 음성 검증, 및 생물정보학(bioinformatics)과 같은 다수의 시나리오들에 적용될 수 있다.
4. 양자 회로는 하나의 입력된 양자 상태를 출력을 위한 또 다른 양자 상태로 변환하기 위하여 양자 컴퓨터에 의해 수행된 일련의 동작들을 지칭한다. 양자 회로는 양자 비트들에 대해 작동하는 회로이고, 양자 비트들은 양자 칩으로서 구현될 수 있다.
5. 수학에서, 내적은 2개의 벡터들로부터 스케일러(scalar)로의 맵핑을 지칭하고, 하나의 벡터와 또 다른 벡터 사이의 중첩하는 부분을 정의한다. 벡터 x 및 벡터 y의 내적은 <x, y>에 의해 표현된다.
6. 특징 맵은 하나의 벡터 공간을 또 다른 벡터 공간(일반적으로, 더 높은 차원의 공간)으로 맵핑하기 위한 수학적 동작을 수행하는 것을 지칭한다. 특징 맵은 머신 러닝(machine learning)에서 통상적으로 이용된다.
7. 양자 랜덤 액세스 메모리(quantum random access memory; QRAM)는 데이터 벡터들을 저장하도록 구성된 디바이스이어서, 양자 컴퓨터는 양자 상태의 확률 진폭(probability amplitude)을 효율적으로 판독할 수 있고 인코딩할 수 있다. 예를 들어, 데이터 벡터 z∈Rn가 QRAM에서 저장될 경우에, log (n) 양자 비트의 양자 상태에 비례하는 양자 상태
Figure pct00001
는 효율적으로 준비될 수 있다. QRAM은 특정 방식으로 적절한 데이터를 저장하도록 주로 구성되어, 양자 컴퓨터는 내적 추정을 위하여 요구된 양자 상태를 효과적으로 생성할 수 있다.
8. 분류기는 특징 공간을 표면들의 2개의 부분들로 분할한다.
9. 양자 상태
Figure pct00002
는 양자 시스템의 모든 정보를 표현하기 위하여 이용된다.
Figure pct00003
Figure pct00004
복소 행렬이고, 여기서,
Figure pct00005
는 양자 시스템의 차원들의 수량이다.
도 1은 본 개시의 실시예에 따른 구현 환경의 개략도이다. 구현 환경은 양자 컴퓨터(11), 고전적 컴퓨터(12), 및 QRAM(13)을 포함한다.
고전적 컴퓨터(12)는 분류 대상 데이터를 획득하고 분류 대상 데이터를 QRAM(13)으로 송신하도록 구성된다. QRAM(13)은 분류기의 경계 벡터, m개의 트레이닝 데이터(m은 양의 정수임), 및 경계 벡터의 인덱스 정보에 대응하는 타깃 파라미터(target parameter)를 저장한다. 양자 컴퓨터(11)는 QRAM(13)으로부터, 분류 대상 데이터, 분류기의 경계 벡터, 경계 벡터의 인덱스 정보에 대응하는 트레이닝 데이터, 및 경계 벡터의 인덱스 정보에 대응하는 타깃 파라미터를 획득하고, 상기 4개의 정보에 따라 추정 결과를 획득하고, 추정 결과를 고전적 컴퓨터(12)로 송신한다. 고전적 컴퓨터(12)는 추정 결과에 따라 분류 대상 데이터의 분류 결과를 획득하도록 구성된다.
예에서, QRAM(13)은 양자 컴퓨터(11) 내부에 배열되고, 양자 컴퓨터(11)의 컴포넌트이다. 또 다른 예에서, QRAM(13)은 양자 컴퓨터(11) 외부에 배치되고, 양자 컴퓨터(11)의 컴포넌트가 아니다.
양자 컴퓨터(11)는 클라우드 컴퓨팅 하에서 임의적인 특수한 하드웨어로서 역할을 할 수 있다. 본 개시의 실시예에서 제공된 양자 분류 알고리즘은 양자 컴퓨터 상에서 수행된 인공 지능 서비스일 수 있다. 본 개시의 실시예에서 제공된 해결책은 클라우드 기술들의 분야에서의 인공 지능의 머신 러닝 기술의 적용에 관련된다.
클라우드 기술은 클라우드 컴퓨팅 사업 모드에 기초하여 적용되는 네트워크 기술, 정보 기술, 통합 기술, 관리 플랫폼 기술, 애플리케이션 기술 등의 집합적인 명칭이고, 요건들에 기초하여 이용되고 유연하고 편리한 자원 풀(resource pool)을 형성할 수 있다. 클라우드 컴퓨팅 기술은 중요한 지원이 된다. 기술적 네트워크 시스템의 백엔드 서비스(backend service)는 비디오 웹사이트, 이미지 웹사이트, 및 더 많은 포털 웹사이트들과 같은 다량의 컴퓨팅 및 저장 자원들을 요구한다. 인터넷 산업의 집약적인 개발 및 응용으로, 각각의 항목은 미래에 고유한 식별자를 가질 수 있고, 식별자는 논리적인 프로세싱을 위하여 백엔드 시스템으로 송신될 필요가 있다. 상이한 레벨들에서의 데이터는 별도로 프로세싱되고, 다양한 산업들을 위한 데이터는 클라우드 컴퓨팅을 통해 구현될 수 있는 강력한 시스템 지원을 요구한다.
클라우드 컴퓨팅은 인터넷 기술(Internet technology; IT) 기반구조의 전달 및 이용 모드를 지칭하고, 온-디맨드(on-demand) 및 확장가능한 방식으로 네트워크를 통해 요구된 자원들을 획득하는 것을 지시한다. 일반화된 클라우드 컴퓨팅은 서비스들의 전달 및 이용 모드를 지칭하고, 온-디맨드 및 확장가능한 방식으로 네트워크를 통해 요구된 서비스들을 획득하는 것을 지시한다. 서비스들은 IT 및 소프트웨어, 또는 인터넷과 관련될 수 있거나, 다른 서비스들일 수 있다. 클라우드 컴퓨팅은 그리드 컴퓨팅(grid computing), 분산된 컴퓨팅(distributed computing), 병렬 컴퓨팅(parallel computing), 유틸리티 컴퓨팅(utility computing), 네트워크 저장 기술들, 시각화(virtualization), 및 부하 균형(load balance)과 같은 전통적인 컴퓨터 및 네트워크 기술들의 통합의 산물이다.
인터넷, 실시간 데이터 스트림들, 및 접속 디바이스들의 다양화된 개발 뿐만 아니라, 검색 서비스들, 소셜 네트워크(social network)들, 모바일 상거래(mobile commerce), 및 개방형 협업과 같은 최근에 등장하는 요건들로, 클라우드 컴퓨팅은 급속하게 개발된다. 기존의 병렬 분산된 컴퓨팅과 달리, 클라우드 컴퓨팅은 이론적으로, 전체 인터넷 모드 및 기업 관리 모드에 대한 혁명적인 변경들을 촉진시킨다. 클라우드 컴퓨팅은 클라우드 서버 상에서 수행될 수 있고, 클라우드 서버는 클라우드 서비스, 클라우드 컴퓨팅, 및 인공 지능 플랫폼과 같은 기본적인 클라우드 컴퓨팅 서비스들을 제공할 수 있다.
인공 지능 클라우드 서비스는 또한 일반적으로, 서비스로서의 AI(AI as a service; AIaaS)로서 지칭된다. 이것은 현재, 인공 지능 플랫폼의 주류 서비스 모드이다. 구체적으로, AIaaS 플랫폼은 몇몇 유형들의 공통적인 AI 서비스들을 분할하고, 클라우드 상에서 독립적인 또는 패키징된 서비스들을 제공한다. 이러한 서비스 모드는 AI 주제 몰(theme mall)을 개설하는 것과 유사하고, 이 AI 주제 몰에서는, 모든 개발자들이 API 인터페이스들을 통해, 플랫폼에 의해 제공된 하나 이상의 인공 지능 서비스들을 액세스할 수 있고, 일부 고위 개발자들은 또한, 플랫품에 의해 제공된 AI 프레임워크 및 AI 기반구조를 이용하여 그 자신의 클라우드 인공 지능 서비스들을 전개시킬 수 있고 동작시킬 수 있다.
다음으로, 본 개시는 몇몇 실시예들을 이용하여 설명된다.
도 2는 본 개시의 실시예에 따른 데이터 분류 방법의 흐름도이다. 방법은 다음의 단계들(201 내지 206)을 포함할 수 있다.
단계(201)에서, 고전적 컴퓨터는 분류 대상 데이터를 획득한다.
분류 대상 데이터는 임의의 데이터일 수 있다. 본 개시의 실시예에서, 분류 대상 데이터는 분류될 필요가 있는 데이터이고, 분류 대상 데이터는 라벨(label)을 갖지 않는 데이터이다. 예시적으로, 분류 대상 데이터는 문자, 의학적 진단 이미지, 텍스트 정보, 분자 정보, 재료 정보 등을 포함할 수 있다. 문자는 글자 또는 숫자를 지칭하고; 의학적 진단 이미지는 환자가 질병을 가지는지 여부를 진단하기 위한 환자의 이미지를 지칭하고; 텍스트 정보는 텍스트의 형태인 정보를 지칭하고; 분자 정보는 분자들을 설명하기 위하여 이용된 정보를 지칭하고; 재료 정보는 재료를 설명하기 위하여 이용된 정보를 지칭한다.
실시예에서, 고전적 컴퓨터는 분류 대상 데이터를 로컬 방식으로 획득한다.
실시예에서, 전자 디바이스는 분류 대상 데이터를 고전적 컴퓨터로 송신하고, 고전적 컴퓨터는 전자 디바이스로부터 분류 대상 데이터를 수신한다. 예시적으로, 전자 디바이스는 모바일 전화, 태블릿 컴퓨터, 스마트 웨어러블 디바이스, 전자 현미경 등일 수 있다.
단계(202)에서, 고전적 컴퓨터는 분류 대상 데이터를 양자 컴퓨터에 제공한다.
실시예에서, 고전적 컴퓨터는 분류 대상 데이터를 QRAM으로 송신하고, 양자 컴퓨터는 QRAM으로부터 분류 대상 데이터를 획득한다.
실시예에서, 고전적 컴퓨터 및 양자 컴퓨터는 네트워크를 통해 서로 통신할 수 있다. 네트워크는 유선 네트워크 또는 무선 네트워크일 수 있다. 네트워크의 유형은 본 개시의 실시예에서 제한되지는 않는다. 고전적 컴퓨터는 분류 대상 데이터를 네트워크를 통해 양자 컴퓨터로 송신한다.
단계(203)에서, 양자 컴퓨터는 분류 대상 데이터의 양자 상태를 획득하기 위하여 양자 회로를 이용하여 분류 대상 데이터에 대한 특징 맵핑을 수행한다.
양자 회로는 사용자-정의될 수 있고, 양자 회로는 분류 대상 데이터를 대응하는양자 상태로 맵핑하도록 구성된다.
예시적인 실시예에서, 상기한 단계(203)는: 양자 컴퓨터에 의해, 양자 회로를 이용하여 분류 대상 데이터의 특징 맵에서의 각각의 특징 값 및 특징 값에 대응하는 양자 상태의 곱셈(product)들의 합에 따라 분류 대상 데이터의 양자 상태를 결정함으로써 구현될 수 있다.
실시예에서, 분류 대상 데이터의 양자 상태는 다음의 공식을 이용하여 계산된다:
Figure pct00006
여기서,
Figure pct00007
은 분류 대상 데이터의 특징 맵을 나타내고,
Figure pct00008
은 분류 대상 데이터의 특징 맵에서의 j번째 특징 값을 나타내고,
Figure pct00009
은 (j의 양자 상태로서 또한 지칭된) j번째 특징 값에 대응하는 양자 상태를 나타내고,
Figure pct00010
은 분류 대상 데이터의 양자 상태를 나타내고,
Figure pct00011
은 분류 대상 데이터의 특징 맵에서의 각각의 특징 값 및 특징 값에 대응하는 양자 상태의 곱셈들의 합을 나타내고,
Figure pct00012
Figure pct00013
의 모듈러스(modulus)를 나타낸다.
Figure pct00014
은 실질적인 데이터 벡터이다. 분류 대상 데이터의 특징 맵은 n개의 특징 값들을 포함하고, j는 n 이하인 양의 정수이다.
단계(204)에서, 양자 컴퓨터는 분류기의 경계 벡터, 분류 대상 데이터의 양자 상태, 및 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정한다.
분류 모델로서 또한 지칭된 분류기는 데이터를 분류하도록 구성된 툴(tool)이다. 실시예에서, 분류기는 2진 분류 작업을 위한 분류기, 예를 들어, SVM이다. 실시예에서, 분류기는 멀티-분류 작업을 위한 분류기일 수 있다. 이 경우에, 멀티-분류 작업을 위한 분류기는 최종적인 분류 결과를 획득하기 위하여 분류 대상 데이터에 대한 다수 횟수의 2진 분류를 수행할 수 있다.
분류기의 경계 벡터는 제2 카테고리로부터 제1 카테고리를 구별하기 위하여 이용된다(제1 카테고리 및 제2 카테고리는 2개의 상이한 카테고리들임). 도 3에서 도시된 바와 같이, 분류기는 제1 카테고리의 데이터 및 제2 카테고리의 데이터를 획득하고(예를 들어, 도 3에서, 흑색 원들(31)은 제1 카테고리의 데이터를 나타내고, 백색 원들(32)은 제2 카테고리의 데이터를 표현함), 제1 카테고리의 데이터 및 제2 카테고리의 데이터를 더 높은 차원의 특징 공간으로 맵핑하고, 경계 벡터를 계산하여(예를 들어, 도 3에서, 수평 스트라이프(33)는 경계 벡터를 표현함), 제1 카테고리의 데이터 및 제2 카테고리의 데이터는 각각 경계 벡터의 2개의 면들 상에서 배열된다. 분류 동안에, 분류 대상 데이터는 특징 공간으로 맵핑되고, 분류 결과는 분류 대상 데이터가 배열되는 분류기의 면에 따라 결정된다. 상이한 분류기들은 상이한 경계 벡터들을 가질 수 있고, 상이한 분류 정밀도들을 또한 가질 수 있다. 구현예에서, 분류기의 트레이닝을 완료한 후에, 고전적 컴퓨터는 획득된 경계 벡터를 QRAM으로 송신하고, 양자 컴퓨터는 QRAM으로부터 경계 벡터를 획득한다.
본 개시의 실시예에서, 경계 벡터에 대응하는 인덱스 정보의 양자 상태는 트레이닝 동안에 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다. 인덱스 정보는 트레이닝 동안에 이용된 트레이닝 데이터를 지시하고, 경계 벡터에 대응하는 인덱스 정보는 분류기가 최종적으로 트레이닝 동안에 경계 벡터를 획득할 때에 이용된 트레이닝 데이터를 지시한다. 실시예에서, 분류기의 경계 벡터가 최후의 트레이닝 동안에 고전적 컴퓨터에 의해 획득된 벡터일 경우에, 경계 벡터에 대응하는 인덱스 정보의 양자 상태는 최후의 트레이닝 동안에 양자 컴퓨터에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다. QRAM은 트레이닝 데이터, 및 경계 벡터의 인덱스 정보에 대응하는 타깃 파라미터를 저장한다(경계 벡터의 인덱스 정보에 대응하는 타깃 파라미터는 경계 벡터에 대응하는 인덱스 정보, 트레이닝 데이터의 수량(m), 및 사전설정된 상수에 기초하여 생성된다. 타깃 파라미터를 결정하는 설명을 위하여, 통상의 기술자는 다음의 실시예들을 참조할 수 있고, 세부사항들은 본 명세서에서 설명되지 않는다). 양자 컴퓨터는 추후에 QRAM으로부터 상기한 데이터를 획득하고, 상기한 데이터에 따라 경계 벡터에 대응하는 인덱스 정보의 양자 상태를 신속하게 획득한다.
추정 결과는 분류 대상 데이터의 분류 결과를 결정하기 위하여 이용될 수 있다. 양자 컴퓨터는 먼저, 경계 벡터에 대응하는 인덱스 정보의 양자 상태와 경계 벡터 사이의 곱셈을 계산하고, 그 다음으로, 추정 결과를 획득하기 위하여, 분류 대상 데이터의 양자 상태와 곱셈 사이의 내적을 계산한다.
단계(205)에서, 양자 컴퓨터는 추정 결과를 고전적 컴퓨터로 송신한다.
실시예에서, 양자 컴퓨터는 추정 결과를 네트워크를 통해 고전적 컴퓨터로 송신한다. 네트워크는 유선 네트워크 또는 무선 네트워크일 수 있다. 네트워크의 유형은 본 개시의 실시예에서 제한되지는 않는다.
단계(206)에서, 고전적 컴퓨터는 추정 결과에 따라 분류 대상 데이터에 대응하는 분류 결과를 결정한다.
예에서, 고전적 컴퓨터는 추정 결과가 양의 값일 경우에, 분류 대상 데이터가 제1 카테고리에 속하는 것으로 결정하고; 고전적 컴퓨터는 추정 결과가 음의 값일 경우에, 분류 대상 데이터가 제2 카테고리에 속하는 것으로 결정한다. 제1 카테고리 및 제2 카테고리는 2개의 상이한 카테고리들이다.
실시예에서, 분류 결과는 라벨에 대응하고, 제1 카테고리는 제1 라벨에 대응하고, 제2 카테고리는 제2 라벨에 대응한다. 분류 대상 데이터의 분류 결과를 결정한 후에, 고전적 컴퓨터는 분류 대상 데이터에 대응하는 라벨을 주석으로 부기할 수 있다. 예를 들어, 분류 대상 데이터가 제1 카테고리에 속하는 것으로 결정될 경우에, 고전적 컴퓨터는 분류 대상 데이터에 제1 라벨을 주석으로 부기한다. 또 다른 예에서, 분류 대상 데이터가 제2 카테고리에 속하는 것으로 결정될 경우에, 고전적 컴퓨터는 분류 대상 데이터에 제2 라벨을 주석으로 부기한다. 실시예에서, 제1 라벨은 +1에 의해 표현되고, 제2 라벨은 -1에 의해 표현된다. 확실히, 또 다른 구현예에서는, 제1 라벨 및 제2 라벨이 다른 형태들로 표현될 수 있다. 제1 및 제2 라벨들의 표현은 본 개시의 이 실시예에서 제한되지는 않는다.
요약하면, 본 개시의 실시예에서 제공된 기술적 해결책에서, 양자 컴퓨터는 분류기의 경계 벡터, 분류 대상 데이터의 양자 상태, 및 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하여, 고전적 컴퓨터는 추정 결과에 따라 분류 대상 데이터의 분류 결과를 결정한다. 경계 벡터에 대응하는 인덱스 정보의 양자 상태는 트레이닝 동안에 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다. 본 개시에서의 분류기는 시프트-불변 커널들에 대응하는 특징 맵들을 이용하도록 제한되지 않고, 특징 공간은 제한되지 않으므로, 분류 대상 데이터를 분류하기 위하여 본 개시에서의 분류기에 따라 더 양호한 특징 공간이 발견될 수 있다. 즉, 본 개시에서 획득된 경계 벡터가 더 정확하고, 분류기의 분류 정밀도가 더 높음으로써, 더 정확한 최종적인 분류 결과를 획득한다.
추가적으로, 본 개시의 실시예에서, 추정 결과는 양자 컴퓨터에 의해 결정되고, 양자 컴퓨터는 상대적으로 높은 프로세싱 속력을 가짐으로써, 분류 효율을 보장한다.
예시적인 실시예에서, 도 4에서 도시된 바와 같이, 상기한 단계(204)는 다음의 단계들(204a 및 204b)을 포함할 수 있다.
단계(204a)에서, 양자 컴퓨터는 경계 벡터에서의 각각의 제1 벡터 요소 및 제1 벡터 요소에 대응하는 인덱스 정보의 양자 상태의 곱셈들의 합을 제1 양자 상태로서 결정한다.
제1 벡터 요소는 경계 벡터에서의 임의의 요소이거나, 경계 벡터에서의 임의의 벡터 값으로서 지칭될 수 있다.
단계(204b)에서, 양자 컴퓨터는 추정 결과를 획득하기 위하여 제1 양자 상태와 분류 대상 데이터의 양자 상태 사이의 내적을 결정한다.
구현예에서, 경계 벡터는 최후의 트레이닝 동안에 고전적 컴퓨터에 의해 획득되고, 제1 벡터 요소는 최후의 트레이닝 동안에 이용된 작업 세트 내에 포함된 인덱스 정보에 관련되고, 최후의 트레이닝 동안에 이용된 작업 세트는 제1 벡터 요소에 대응하는 인덱스 정보를 포함한다. 인덱스 정보는 c에 의해 표현될 수 있고, 인덱스 정보는 m 개의 차원들의 2진 벡터이다(m은 트레이닝 데이터의 피스들의 수량임).
구현예에서, 추정 결과는 다음의 공식을 이용하여 계산되고:
Figure pct00015
여기서,
Figure pct00016
은 경계 벡터에서의 c번째 벡터 요소를 나타내고(c번째 벡터 요소는 c의 10진수 값, 즉, 제1 벡터 요소에 대응하는 위치에서 위치됨),
Figure pct00017
은 제1 벡터 요소에 대응하는 인덱스 정보의 양자 상태를 나타내고,
Figure pct00018
은 분류 대상 데이터의 양자 상태를 나타낸다. 제1 양자 상태는
Figure pct00019
에 의해 표현된다. 이해의 용이함을 위하여, 다음의 경계 벡터에서의 벡터 요소들의 아랫첨자들은 10진수들에 의해 표현된다. 10진수들은 인덱스 정보에 대응한다는 것이 이해되어야 한다.
실시예에서,
Figure pct00020
은 다음의 공식
Figure pct00021
에 의해 이하에서 정의되고, 여기서,
Figure pct00022
은 확률 진폭으로서 또한 지칭될 수 있는 m-차원 벡터이다. 본 개시의 실시예에서, 특징 맵핑은 양자 회로를 이용하여 구현된다. 즉, 각각의 입력 벡터에 대하여, 양자 컴퓨터는 양자 회로를 이용하여, 벡터를 하나 이상의 양자 비트(quantum bit)들에 의해 형성된 양자 상태(또는 양자 컴퓨터의 물리적 구현에 종속되는 더 높은 차원의 양자 상태)의 확률 진폭으로 인코딩한다. 인덱스 정보의 양자 상태를 획득하는 상세한 설명을 위하여, 통상의 기술자는 다음의 실시예들을 참조할 수 있다.
다음의 공식에서의
Figure pct00023
Figure pct00024
은 내적 표현식을 더 직관적이고 간결하게 하기 위하여 단지 이용되지만, 양자 상태들을 필수적으로 의미하고,
Figure pct00025
Figure pct00026
으로서 실제적으로 표현된다는 것이 주목되어야 한다. 그러므로, 본 개시의 실시예에서, 내적 공식에서의 모든 파라미터들은 일반적으로 양자 상태들이다.
예시적으로, 트레이닝 데이터 세트는 2개의 트레이닝 데이터를 포함하고, 즉, m은 2이고; 최후의 트레이닝에서 이용된 작업 세트는 다음의 인덱스 정보: 01, 10, 및 11을 포함한다는 것이 가정된다. 경계 벡터에서의 제1 벡터 요소는
Figure pct00027
에 의해 표현되고,
Figure pct00028
에 대응하는 인덱스 정보는 01이고, 01의 양자 상태는
Figure pct00029
에 의해 표현되고; 경계 벡터에서의 제2 벡터 요소는
Figure pct00030
에 의해 표현되고,
Figure pct00031
에 대응하는 인덱스 정보는 10이고, 10의 양자 상태는
Figure pct00032
에 의해 표현되고; 경계 벡터에서의 제3 벡터 요소가
Figure pct00033
에 의해 표현될 경우에,
Figure pct00034
에 대응하는 인덱스 정보는 11이고, 11의 양자 상태는
Figure pct00035
에 의해 표현되고, 추정 결과는
Figure pct00036
이다.
구현예에서, 양자 컴퓨터는 QRAM을 포함하고, QRAM은 분류기의 경계 벡터, m개의 트레이닝 데이터, 및 경계 벡터의 인덱스 정보에 대응하는 타깃 파라미터를 저장한다. 도 5는 본 개시의 또 다른 실시예에 따른 데이터 분류 방법의 개략도이다. 고전적 컴퓨터는 분류 대상 데이터를 획득하고, 분류 대상 데이터를 QRAM으로 송신한다. 양자 컴퓨터는 분류 대상 데이터의 양자 상태를 획득하기 위하여 양자 회로를 이용하여 분류 대상 데이터에 대한 특징 맵핑을 수행한다. 양자 컴퓨터는 QRAM에서 저장되는, 경계 벡터의 인덱스 정보에 대응하는 트레이닝 데이터 및 타깃 파라미터에 따라, 경계 벡터에 대응하는 인덱스 정보의 양자 상태를 결정하고; QRAM에서 저장되는, 분류기의 경계 벡터, 분류 대상 데이터의 양자 상태, 및 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하고; 추정 결과를 고전적 컴퓨터로 송신한다. 고전적 컴퓨터는 추정 결과에 따라 분류 대상 데이터의 분류 결과를 결정한다.
본 개시는 임의의 분류 시나리오에 적용가능하다. 예를 들어, 본 개시는 문자 인식 시나리오, 의학적 이미지 시나리오, 감정 분석 시나리오, 분자 및 재료 특성 테스팅 시나리오들 등에 적용가능하다. 특정 응용 시나리오는 본 개시의 실시예에서 제한되지는 않는다.
예에서, 분류 대상 데이터는 문자를 포함하고, 분류 결과는 문자의 문자 인식 결과를 포함한다.
문자는 글자 또는 숫자를 지칭한다. 예시적으로, 문자는 수기된 글자 또는 수기된 숫자를 지칭한다. 문자 인식 결과는 문자가 사전설정된 표준과 정합하는지 여부를 지시한다. 예를 들어, 문자 인식 결과는 글자가 모음(vowel)인지 여부를 지시한다. 또 다른 예에서, 문자 인식 결과는 숫자가 5 초과인지 여부를 지시한다. 본 개시의 실시예들은 수기된 샘플들을 분류하고, 문자 인식 결과를 제공하도록 적용될 수 있다.
또 다른 예에서, 분류 대상 데이터는 의학적 진단 이미지를 포함하고, 분류 결과는 의학적 진단 이미지의 이미지 인식 결과를 포함한다.
의학적 진단 이미지는 환자가 질병을 가지는지 여부를 진단하기 위한 환자의 이미지이다. 예를 들어, 의학적 진단 이미지는 X-선 이미지 또는 자기 공명 이미징(magnetic resonance imaging; MRI) 이미지일 수 있고, 이미지 인식 결과는 환자가 질병을 가지는지 여부를 지시한다. 본 개시의 실시예들에 따르면, 의학적 진단의 정확도는 개선될 수 있고, 적절한 치료 해결책이 제공된다.
예에서, 분류 대상 데이터는 소셜 애플리케이션(social application)에서의 텍스트 정보를 포함하고, 분류 결과는 텍스트 정보의 감정 인식 결과를 포함한다.
소셜 애플리케이션에서의 텍스트 정보는 트위트(tweet), 소셜 미디어 포스트(social media post) 등을 포함한다. 감정 인식 결과는 텍스트 정보가 긍정적 감정 또는 부정적 감정을 표현하는지 여부를 지시한다.
또 다른 예에서, 분류 대상 데이터는 분자 정보를 포함하고, 분류 결과는 분자 정보에 대응하는 특성 인식 결과를 포함한다.
분자 정보는 분자를 설명하기 위하여 이용되고, 특성 인식 결과는 분자가 사전설정된 특성을 가지는지 여부를 지시하기 위하여 이용된다. 분자 정보 및 특성 인식 결과는 생물정보학, 생화학(biochemistry), 및 약물 설계에서 유용하다.
또 다른 예에서, 분류 대상 데이터는 재료 정보를 포함하고, 분류 결과는 재료 정보에 대응하는 특성 인식 결과를 포함한다.
재료 정보는 재료를 설명하기 위하여 이용되고, 특성 인식 결과는 재료가 사전설정된 특성을 가지는지 여부를 지시하기 위하여 이용된다. 예를 들어, 재료는 자기적 재료일 수 있다. 이 경우에, 특성 인식 결과는 재료가 자성(magnetism)을 가지는지 여부, 또는 자성이 임계치보다 더 높은지 여부를 지시하기 위하여 이용된다. 재료의 자기적 특성을 예측하기 위하여, 양자 스핀(quantum spin)들로 구성된 결정 격자 모델(crystal lattice model)은 재료 정보에 따라 확립되고, 재료 정보에 대응하는 특성 인식 결과가 결정된다. 본 개시에서의 기술적 해결책은 재료의 자기적 특성을 예측하기 위하여 이용될 수 있고, 이에 따라, 진보된 재료 설계에서 유용하다. 본 개시가 관련된 기술보다 우수한 특정 분류 문제의 예가 이하에서 제공된다. 물리적 시스템이 n개의 양자 스핀들에 기초하여 형성된 일반화된 아이징 체인(Ising chain)인 것을 고려하면, 물리적 시스템은 다음의 해밀토니안(Hamiltonian) HN을 이용하여 설명되고:
Figure pct00037
,
여기서, Zj 및 Xj는 체인에서의 j번째 양자 스핀에 대해 작용하는 파울리 연산자(Pauli operator)들이고,
Figure pct00038
,
Figure pct00039
, 및
Figure pct00040
은 실수 파라미터들이다. 이 분류 문제에서의 각각의 분류 대상 데이터는 일반화된 아이징 체인을 정의하기 위하여 요구된 파라미터이다:
Figure pct00041
. 추가적으로, 분류 결과 또는 라벨은 평균 자기적 정사각형(average magnetic square)
Figure pct00042
이 특정 임계 값 μ0 초과 또는 미만인지 여부의 결정에 따라 결정된다. 분류는 아이징 체인이 주어진 분류 대상 데이터
Figure pct00043
에 대하여 자성을 가지는지 여부를 예측하도록 수행된다.
이러한 문제는 기초적인 물리학의 관점으로부터 큰 중요성을 가질 뿐만 아니라, 일부 요구된 특징들을 갖는 재료들의 설계 및 분석에 대한 잠재적인 중요성을 가진다.
도 6은 본 개시의 실시예에 따른 분류기 트레이닝 방법의 흐름도이다. 방법은 다음의 단계들(601 내지 604)을 포함할 수 있다.
단계(601)에서, 고전적 컴퓨터는 트레이닝 데이터 세트를 획득한다.
본 개시의 실시예에서, 트레이닝 데이터 세트는 m개의 트레이닝 데이터 및 트레이닝 데이터의 표준 라벨들을 포함하고, m은 양의 정수이다. 실시예에서, 표준 라벨은 표준 분류 결과를 지시하기 위하여 이용된다. 예시적으로, 표준 라벨은 +1 또는 -1에 의해 표현된다. 표준 라벨이 +1인 경우에, 트레이닝 데이터가 제1 카테고리에 속한다는 것이 지시된다. 표준 라벨이 -1인 경우에, 트레이닝 데이터가 제2 카테고리에 속한다는 것이 지시된다. 구현예에서는, 표준 라벨이 수동적으로 주석으로 부기된다.
단계(602)에서, 양자 컴퓨터는 내적 세트를 생성하기 위하여 작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적을 계산한다.
본 개시의 실시예에서, 작업 세트는 적어도 2개의 인덱스 정보를 포함한다. 인덱스 정보는 현재의 트레이닝에서 이용된 트레이닝 데이터를 지시하기 위하여 이용되고, 인덱스 정보의 양자 상태는 현재의 트레이닝에서 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다. 실시예에서, 인덱스 정보는 길이 m을 갖는 2진 벡터이다. 인덱스 정보는 c에 의해 표현될 수 있고, 인덱스 정보의 양자 상태는
Figure pct00044
에 의해 표현될 수 있고, 인덱스 정보의 2개의 피스들의 양자 상태들의 내적은
Figure pct00045
에 의해 표현될 수 있고, 여기서, c 및 c'은 상이한 인덱스 정보의 2개의 피스들 또는 동일한 인덱스 정보의 2개의 피스들일 수 있다. 작업 세트는 W에 의해 표현될 수 있다.
본 개시의 실시예에서, 양자 컴퓨터는
Figure pct00046
의 형태로 내적을 예측하도록 주로 구성된다.
구현예에서, m은 트레이닝 데이터의 수량과 일치하고, 길이 m을 갖는 2진 벡터에서의 i번째 차원의 요소는 i번째 트레이닝 데이터가 현재의 트레이닝에서 이용되는지 여부를 지시하기 위하여 이용되고, i는 m 이하인 양의 정수이다. 구현예에서, 고전적 컴퓨터는 트레이닝 데이터 세트에서의 트레이닝 데이터를 등급화하고, 트레이닝 데이터에 대한 라벨들을 할당한다. 예를 들어, 트레이닝 데이터 세트가 3개의 트레이닝 데이터를 포함하는 것으로 가정하면, 고전적 컴퓨터는 3개의 트레이닝 데이터를 다음과 같이 등급화한다: 트레이닝 데이터 1, 트레이닝 데이터 2, 및 트레이닝 데이터 3.
트레이닝 데이터 세트가 3개의 트레이닝 데이터: 트레이닝 데이터 1, 트레이닝 데이터 2, 및 트레이닝 데이터 3을 포함하고, 작업 세트는 다음의 인덱스 정보: 001, 011, 및 110을 포함하는 것으로 가정하면: 001은 현재의 트레이닝에서 이용된 트레이닝 데이터 3을 지시하기 위하여 이용되고, 001의 양자 상태
Figure pct00047
는 트레이닝 데이터 3의 특징 맵을 지칭하고; 011은 현재의 트레이닝에서 이용된 트레이닝 데이터 2 및 트레이닝 데이터 3을 지시하기 위하여 이용되고, 011의 양자 상태
Figure pct00048
는 트레이닝 데이터 2 및 트레이닝 데이터 3의 특징 맵들의 중첩을 나타내고; 110은 현재의 트레이닝에서 이용된 트레이닝 데이터 1 및 트레이닝 데이터 2를 지시하기 위하여 이용되고, 110의 양자 상태
Figure pct00049
는 트레이닝 데이터 1 및 트레이닝 데이터 2의 특징 맵들의 중첩을 나타낸다.
예시적으로, 양자 컴퓨터는 내적 세트를 생성하기 위하여 작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적을 계산한다. 상기한 예를 여전히 이용하면, 양자 컴퓨터는 3개의 내적들을 획득하기 위하여
Figure pct00050
,
Figure pct00051
, 및
Figure pct00052
을 계산함으로써, 내적 세트를 생성한다.
내적 세트가 생성된 후에, 양자 컴퓨터는 내적 세트를 고전적 컴퓨터로 송신한다. 구현예에서, 일단 양자 컴퓨터가 내적을 생성하면, 양자 컴퓨터는 내적을 고전적 컴퓨터로 송신한다.
단계(603)에서, 고전적 컴퓨터는 내적 세트에 따라 분류기의 최적화 문제를 생성한다.
예시적인 실시예에서, 고전적 컴퓨터에 의해 분류기의 최적화 문제를 생성하는 프로세스는: 고전적 컴퓨터에 의해, 내적 세트에 따라 행렬(matrix)을 생성하는 것; 양의 준정부호 행렬(positive semidefinite matrix)을 획득하기 위하여 행렬을 양의 준정부호 원뿔(positive semidefinite cone)로 맵핑하는 것; 및 양의 준정부호 행렬 및 트레이닝 데이터의 양 m에 따라 분류기의 최적화 문제를 생성하는 것을 포함한다.
실시예에서, 행렬에서의 행렬 요소는 인덱스 정보의 2개의 피스들의 양자 상태들의 내적에 따라 결정된다. 상기한 예는 설명을 위하여 여전히 이용된다. 고전적 컴퓨터는
Figure pct00053
에 따라 행렬에서의 제1 행(row) 및 제3 열(column)에서의 행렬 요소를 결정할 수 있다. 예시적으로, 고전적 컴퓨터는 각각의 내적에 대응하는 추정 값을 획득하기 위하여 내적 세트에서의 각각의 내적에 대한 추정 값 프로세싱을 수행하고; 각각의 내적에 대응하는 추정 값을 행렬의 행렬 요소로서 결정한다. 즉, 행렬 요소 Jcc ' = Est (
Figure pct00054
) 이고, 여기서, Jcc '는 c번째 행 및 (c')번째 열에서의 행렬 요소를 나타내고(c번째 행은 c의 10진수 값에 대응하는 행 숫자를 지칭하고, (c')번째 열은 c'의 10진수 값에 대응하는 열 숫자를 지칭함), Est ()는 추정 값을 나타낸다. 즉, 다수의 동작들이
Figure pct00055
에 대해 수행된 후에, 평균 값이 획득된다. 실시예에서, 고전적 컴퓨터는 양의 준정부호 행렬을 획득하기 위하여 행렬을 최근접(동일 차원) 양의 준정부호 원뿔로 투영한다.
실시예에서, 분류기의 최적화 문제는 다음의 공식을 이용하여 표현되고:
Figure pct00056
여기서, argmax ()는 최대 점수를 갖는 파라미터를 검색하는 것을 나타내고, 상기한 공식은
Figure pct00057
의 합이 C 이하이어서
Figure pct00058
이 최대화되는 범위 내에서 경계 벡터를 검색하는 것을 나타내고,
Figure pct00059
는 경계 벡터를 나타내고,
Figure pct00060
는 경계 벡터에서의 c번째 벡터 요소를 나타내고,
Figure pct00061
은 경계 벡터에서의 (c')번째 벡터 요소를 나타내고,
Figure pct00062
은 양의 준정부호 행렬에서의 c번째 행 및 (c')번째 열에서의 행렬 요소이고, c는 인덱스 정보를 나타내고, C는 벌칙 계수(penalty factor)를 나타내고,
Figure pct00063
은 다음의 공식을 이용하여 계산된 c의 모듈러스를 나타낸다:
Figure pct00064
.
단계(604)에서, 고전적 컴퓨터는 분류기의 경계 벡터를 획득하기 위하여 분류기의 최적화 문제에 따라 분류기를 트레이닝한다.
고전적 컴퓨터는 최적의 답변을 획득하기 위하여, 즉, 분류기의 경계 벡터를 획득하기 위하여, 분류기의 최적화 문제를 해결한다.
본 개시에서, 양자 컴퓨터는 대형 데이터 세트에 대한 효율적인 데이터 분류를 수행하기 위하여 시프트-불변 커널들에 대응하는 특징 맵들을 이용하도록 제한되지 않고, 요구된 트레이닝 시간은 데이터량에 비례한다(하나의 로그 다항식(logarithmic polynomial)의 계수만큼 오직 상이함). 양자 컴퓨터는 시프트-불변 커널들에 대응하는 특징 맵들을 이용하도록 제한되지 않으므로, 본 개시의 실시예에 따라 효율적이고 정확한 분류가 더 폭넓게 다양한 데이터 유형들에 대해 구현될 수 있다.
본 개시에서, 데이터는 인덱스 정보 및 데이터의 양자 상태에 기초하여 분류된다. 데이터의 양자 상태는 데이터에 대응하므로, 데이터의 양자 상태는 다양한 상이한 특징 맵들을 나타낸다. 본 개시의 실시예들은 시프트-불변 커널들에 대응하는 특징 맵들로 제한되지는 않고, 특징 공간은 제한되지 않는다. 그러므로, 더 양호한 특징 공간이 더 용이하게 발견될 수 있어서, 분류기의 최종적으로 획득된 결과가 더 최적화되고, 이에 따라, 분류 결과는 더 정확하다. 추가적으로, 컴퓨팅 양은 인덱스 정보를 분류함으로써 감소될 수 있고, 이에 의해, 트레이닝 효율을 보장할 수 있다.
요약하면, 본 개시의 실시예에서 제공된 기술적 해결책에서, 고전적 컴퓨터는 트레이닝 데이터 세트를 획득하고; 양자 컴퓨터는 내적 세트를 생성하기 위하여, 작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적을 계산하고; 고전적 컴퓨터는 내적 세트에 따라 분류기의 최적화 문제를 생성하고, 분류기의 경계 벡터를 획득하기 위하여 최적화 문제에 따라 분류기를 트레이닝한다. 인덱스 정보의 양자 상태는 트레이닝 동안에 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다. 본 개시에서의 분류기는 시프트-불변 커널들에 대응하는 특징 맵들을 이용하도록 제한되지 않고, 특징 공간은 제한되지 않으므로, 분류 대상 데이터를 분류하기 위하여 본 개시에서의 분류기에 따라 더 양호한 특징 공간이 발견될 수 있다. 즉, 본 개시에서 획득된 경계 벡터는 더 정확하고, 분류기의 분류 정밀도는 더 높아서, 최종적인 분류 결과가 더 정확하다.
추가적으로, 본 개시의 실시예에서, 양자 컴퓨터는 내적을 계산하고, 양자 컴퓨터는 상대적으로 높은 프로세싱 속력을 가짐으로써, 분류 효율을 보장한다. 본 개시에서의 분류기에 의해 요구된 트레이닝 시간은 트레이닝 데이터의 양 m에 비례한다(하나의 로그 다항식의 계수만큼 오직 상이함). 분류기는 예를 들어, SVM이다. 본 개시의 실시예에서의 SVM의 트레이닝 시간과 관련된 기술에서의 SVM의 트레이닝 시간 사이의 비교를 위하여, 통상의 기술자는 표 1을 참조할 수 있다.
본 개시의 실시예에서의 SVM 트레이닝 방법
Figure pct00065
은 m에 비례함(하나의 로그 다항식의 계수만큼 기껏해야 상이함).
관련된 기술에서의 고전적 SVM 트레이닝 방법
Figure pct00066
은 m의 세제곱(cube)에 적어도 비례함.
관련된 기술에서의 양자 SVM 트레이닝 알고리즘
Figure pct00067
은 m의 세제곱에 적어도 비례함.
관련된 기술에서의 고전적 SVM 트레이닝 방법에서, 오직 고전적 컴퓨터는 표준(비-단순화된) SVM에서의 시프트-불변 커널들에 대응할 필요가 없는 특징 맵들을 이용하여 분류를 수행한다. 관련된 기술에서의 양자 SVM 트레이닝 방법에서, 고전적 컴퓨터 및 양자 컴퓨터는 표준(비-단순화된) SVM에서의 시프트-불변 커널들에 대응할 필요가 없는 특징 맵들을 이용하여 분류를 수행한다. m은 트레이닝 동안에 이용된 트레이닝 데이터의 피스들의 수량을 나타낸다.
Figure pct00068
은 트레이닝 시간(작동 시간)이 m에 비례한다는 것(하나의 로그 다항식의 계수만큼 기껏해야 상이함)을 지시한다.
Figure pct00069
은 트레이닝 시간이 m의 세제곱에 비례하고, 즉, 시간 복잡도는 m의 세제곱에 비례한다는 것을 지시한다. 트레이닝 데이터의 양(축약하여 데이터량)이 상대적으로 클 경우에, 본 개시의 실시예에서 요구된 트레이닝 시간은 상대적으로 짧다는 것을 표 1로부터 알 수 있다.
분류기가 SVM이고, 분류 문제가 상기한 실시예들에서 설명된 일반화된 아이징 체인(N = 6,
Figure pct00070
,
Figure pct00071
,
Figure pct00072
이고, J, kJ,
Figure pct00073
, 및
Figure pct00074
은 모두 실수들임)인 예가 설명을 위하여 이용된다. 고전적 수치 시뮬레이션은 본 개시가 광범위한 데이터량에 대하여 관련된 기술에서의 SVM 트레이닝 방법보다 우수한다는 것을 보여준다. 표 2는 상이한 데이터량들에 대하여 본 개시과 관련된 기술 사이의 분류 정밀도에서의 차이를 도시한다. 본 개시에서의 분류 정밀도가 관련된 기술에서의 분류 정밀도보다 큰 한도까지 우수하다는 것을 알 수 있다.
m(데이터량) 102 103 104
분류 정밀도 %(본 개시) 분류 정밀도 %(본 개시) 99.3 99.0
분류 정밀도(관련된 기술) 86.7 96.0 99.0
예시적인 실시예에서, 도 7에서 도시된 바와 같이, 상기한 단계(602)는 다음의 단계들(602a 내지 602d)을 포함할 수 있다.
단계(602a)에서, 고전적 컴퓨터는 작업 세트로부터 제1 인덱스 정보 및 제2 인덱스 정보를 선택한다.
제1 인덱스 정보는 작업 세트에서의 임의의 인덱스 정보이고, 제2 인덱스 정보는 작업 세트에서의 임의의 인덱스 정보이고, 제1 인덱스 정보는 제2 인덱스 정보와는 상이하다. 상기한 예가 여전히 이용된다. 작업 세트가 다음의 인덱스 정보: 001, 011, 및 110을 포함하는 것으로 가정하면, 제1 인덱스 정보는 011일 수 있고, 제2 인덱스 정보는 110일 수 있다.
단계(602b)에서, 고전적 컴퓨터는 m개의 트레이닝 데이터를 QRAM으로 송신한다.
고전적 컴퓨터는 트레이닝 데이터 세트를 획득하고, 트레이닝 데이터 세트는 트레이닝 데이터의 m 개이 피스들을 포함한다. 고전적 컴퓨터는 m개의 트레이닝 데이터를 양자 컴퓨터로 송신한다.
구현예에서, 양자 컴퓨터가 QRAM을 포함할 경우에, 고전적 컴퓨터는 m개의 트레이닝 데이터를 양자 컴퓨터에서의 QRAM으로 송신한다.
고전적 컴퓨터는 먼저, 단계(602b)를 수행할 수 있고, 그 다음으로, 단계(602a)를 수행할 수 있거나, 먼저, 단계(602a)를 수행할 수 있고, 그 다음으로, 단계(602b)를 수행할 수 있거나; 단계(602a) 및 단계(602b)를 동시에 수행할 수 있다. 단계(602a) 및 단계(602b)의 실행 순서는 본 개시의 실시예에서 제한되지 않는다.
단계(602c)에서, 양자 컴퓨터는 제1 인덱스 정보에 따라, QRAM에서 저장된 m개의 트레이닝 데이터로부터 제1 트레이닝 데이터를 결정하고, 제2 인덱스 정보에 따라, QRAM에서 저장된 m개의 트레이닝 데이터로부터 제2 트레이닝 데이터를 결정한다.
본 개시의 실시예에서, 제1 인덱스 정보는 현재의 트레이닝에서 이용된 제1 트레이닝 데이터를 지시하기 위하여 이용되고, 제2 인덱스 정보는 현재의 트레이닝에서 이용된 제2 트레이닝 데이터를 지시하기 위하여 이용된다. 상기한 예가 여전히 이용된다. 제1 인덱스 정보가 011인 경우에, 제1 트레이닝 데이터는 트레이닝 데이터 2 및 트레이닝 데이터 3을 포함하고; 제2 인덱스 정보가 110인 경우에, 제2 트레이닝 데이터는 트레이닝 데이터 1 및 트레이닝 데이터 2를 포함한다.
단계(602d)에서, 양자 컴퓨터는 제1 트레이닝 데이터, 제2 트레이닝 데이터, 제1 인덱스 정보, 및 제2 인덱스 정보에 따라 제1 인덱스 정보의 양자 상태와 제2 인덱스 정보의 양자 상태 사이의 내적을 생성한다.
제1 인덱스 정보의 양자 상태는 제1 트레이닝 데이터의 특징 맵들의 중첩을 나타내고, 제2 인덱스 정보의 양자 상태는 제2 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다.
실시예에서, 단계(602d)는 다음의 하위단계들 1 내지 3을 포함한다.
하위단계 1에서, 양자 컴퓨터는 제1 트레이닝 데이터 및 제1 인덱스 정보에 따라 제1 인덱스 정보의 양자 상태를 생성한다.
실시예에서, 단계 1은 다음의 하위단계들 1.1 내지 1.4를 포함한다.
하위단계 1.1에서, 고전적 컴퓨터는 제1 인덱스 정보, 제1 트레이닝 데이터에 대응하는 표준 라벨, 트레이닝 데이터의 수량(m), 및 사전설정된 상수에 따라 타깃 파라미터를 계산한다.
구현예에서, 타깃 파라미터는
Figure pct00075
에 의해 표현되고, 여기서, ci는 제1 인덱스 정보에서의 i번째 요소를 나타내고, yi는 i번째 트레이닝 데이터에 대응하는 표준 라벨을 나타내고, Ai는 사전설정된 상수이다. 실시예에서, Ai는 사용자-정의된 음수가 아닌 값이고, Ai는 계산의 안정성을 보장하도록 설정된다. 상이한 i에 대응하는 (Ai)들은 동일하거나 상이할 수 있다.
하위단계 1.2에서, 고전적 컴퓨터는 타깃 파라미터를 QRAM으로 송신한다.
구현예에서, 고전적 컴퓨터는 트레이닝 데이터 세트에서의 m개의 트레이닝 데이터 및 작업 세트에서의 모든 인덱스 정보에 대응하는 타깃 파라미터들의 둘 모두를 QRAM으로 송신한다.
하위단계 1.3에서, 양자 컴퓨터는 제1 트레이닝 데이터의 양자 상태를 획득하기 위하여 양자 회로를 이용하여 제1 트레이닝 데이터에 대한 특징 맵핑을 수행한다.
구현예에서, 제1 트레이닝 데이터가 트레이닝 데이터의 다수의 피스들을 포함할 경우에, 양자 컴퓨터는 트레이닝 데이터의 다수의 피스들의 개개의 양자 상태들을 획득하기 위하여 양자 회로를 이용하여 트레이닝 데이터의 다수의 피스들에 대한 특징 맵핑을 수행한다. 확실히, 구현예에서, 양자 컴퓨터는 트레이닝 데이터의 다수의 피스들의 개개의 양자 상태들을 획득하기 위하여 양자 회로를 이용하여 트레이닝 데이터의 다수의 피스들에 대한 특징 맵핑을 병렬로 수행한다. 트레이닝 데이터의 양자 상태는 분류 대상 데이터의 양자 상태와 유사한 방식으로 생성된다. 트레이닝 데이터의 양자 상태를 생성하는 설명을 위하여, 통상의 기술자는 분류 대상 데이터의 양자 상태를 생성하는 상기한 설명을 참조할 수 있고, 세부사항들은 본 명세서에서 다시 설명되지 않는다.
단계 1.4에서, 제1 인덱스 정보의 양자 상태는 제1 트레이닝 데이터의 양자 상태 및 타깃 파라미터에 따라 결정된다.
실시예에서, 제1 인덱스 정보의 양자 상태는 다음의 공식을 이용하여 결정되고:
Figure pct00076
여기서,
Figure pct00077
은 i번째 트레이닝 데이터의 특징 맵을 나타내고,
Figure pct00078
은 i번째 트레이닝 데이터의 양자 상태를 나타낸다.
예시적으로, 트레이닝 데이터 세트가 2개의 트레이닝 데이터: 트레이닝 데이터 1 및 트레이닝 데이터 2를 포함하는 것으로 가정하면, m은 2이다. 제1 인덱스 정보가 11인 것으로 가정하면, 제1 트레이닝 데이터는 트레이닝 데이터 1 및 트레이닝 데이터 2를 포함하고, 타깃 파라미터는
Figure pct00079
Figure pct00080
을 포함하고,
Figure pct00081
Figure pct00082
을 통해 결정될 수 있다.
하위단계 2에서, 양자 컴퓨터는 제2 트레이닝 데이터 및 제2 인덱스 정보에 따라 제2 인덱스 정보의 양자 상태를 생성한다.
제2 인덱스 정보의 양자 상태는 제1 인덱스 정보의 양자 상태와 유사한 방식으로 생성된다. 제2 인덱스 정보의 양자 상태를 생성하는 설명을 위하여, 통상의 기술자는 제1 인덱스 정보의 양자 상태를 생성하는 상기한 설명을 참조할 수 있고, 세부사항들은 본 명세서에서 다시 설명되지 않는다.
하위단계 3에서, 양자 컴퓨터는 제1 인덱스 정보의 양자 상태와 제2 인덱스 정보의 양자 상태 사이의 내적을 생성한다.
작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적은 제1 인덱스 정보의 양자 상태와 제2 인덱스 정보의 양자 상태 사이의 내적과 동일한 방식으로 계산된다.
예시적인 실시예에서, 분류기는 각각의 트레이닝 동안에 작업 세트를 업데이팅하여, 상이한 트레이닝에서 이용된 트레이닝 데이터가 상이하다. 상기한 분류기의 트레이닝 방법은 다음의 단계들 1 내지 5를 더 포함한다.
단계 1에서, 분류기의 t번째 트레이닝에서는, 고전적 컴퓨터가 분류기의 초기 경계 벡터를 결정하고, t는 양의 정수이다.
본 개시의 실시예에서, 초기 경계 벡터는 분류기의 최적화 문제에 대한 초기 답변이고, 트레이닝을 완료하지 않은 분류기의 경계 벡터이다. 각각의 트레이닝 동안에, 고전적 컴퓨터는 트레이닝에 대응하는 초기 경계 벡터를 획득한다. 예를 들어, t번째 트레이닝에서, 고전적 컴퓨터는 t번째 트레이닝에 대응하는 초기 경계 벡터를 획득한다.
단계 2에서, 고전적 컴퓨터는 초기 경계 벡터를 양자 컴퓨터에 제공한다.
실시예에서, 고전적 컴퓨터는 초기 경계 벡터를 QRAM에서 저장한다. 양자 컴퓨터는 QRAM으로부터 초기 경계 벡터를 획득한다.
단계 3에서, 양자 컴퓨터는 t번째 트레이닝에서의 각 적어도 하나의 인덱스 정보의 사이클의 트레이닝 데이터의 양자 상태, 초기 경계 벡터, 및 t번째 트레이닝에서 이용된 작업 세트에서의 인덱스 정보의 양자 상태에 따라 i번째 트레이닝에서의 각 적어도 하나의 인덱스 정보의 사이클의 예측 추정 결과를 결정한다.
실시예에서, 단계는 다음의 하위단계들 1 및 2를 포함한다.
하위단계 1에서, 양자 컴퓨터는 초기 경계 벡터에서의 각각의 제2 벡터 요소 및 t번째 트레이닝에서 이용된 작업 세트에서의 제2 벡터 요소에 대응하는 인덱스 정보의 양자 상태의 곱셈들의 합을 제2 양자 상태로서 결정한다.
하위단계 2에서, 양자 컴퓨터는 t번째 트레이닝에서의 각 적어도 하나의 인덱스 정보의 사이클의 예측 추정 결과를 획득하기 위하여 제2 양자 상태와 t번째 트레이닝에서의 각 적어도 하나의 인덱스 정보의 사이클의 트레이닝 데이터의 양자 상태 사이의 내적을 결정한다.
t번째 트레이닝에서의 i번째 라운드의 사이클의 예측 추정 결과는 다음의 공식에서 결정될 수 있다:
Figure pct00083
제2 양자 상태는
Figure pct00084
에 의해 표현된다. 각각의 트레이닝은 m개 라운드의 사이클을 포함하고, i는 m 이하인 양의 정수이다. 각 라운드의 사이클의 트레이닝 데이터는 사이들의 수에 관련된다. 예를 들어, i번째 라운드의 사이클에 대하여, i번째 라운드의 사이클의 트레이닝 데이터는 i번째 트레이닝 데이터이다.
예시적으로, t번째 트레이닝에서의 제1 라운드의 사이클에서, t번째 트레이닝에서 이용된 작업 세트가 다음의 인덱스 정보: 01, 10, 및 11을 포함하고, 여기서, 01은 1을 나타내고, 10은 2를 나타내고, 11은 3을 나타낼 경우에, 제2 벡터 요소들은 초기 경계 벡터에서의 제1, 제2, 및 제3 벡터 요소들이고, 제1 라운드의 사이클의 예측 추정 결과는 다음의 공식을 이용하여 계산될 수 있다:
Figure pct00085
.
단계 4에서, 고전적 컴퓨터는 t번째 트레이닝에서의 각 라운드의 사이클의 예측 추정 결과에 따라 새롭게 추가된 인덱스 정보를 생성한다.
예에서, 고전적 컴퓨터는 t번째 트레이닝에서의 i번째 라운드의 사이클의 예측 추정 결과가 사전설정된 임계치 미만일 경우에, 새롭게 추가된 인덱스 정보에서의 i번째 요소가 1인 것으로 결정한다.
또 다른 예에서, 고전적 컴퓨터는 t번째 트레이닝에서의 i번째 라운드의 사이클의 예측 추정 결과가 사전설정된 임계치 이상일 경우에, 새롭게 추가된 인덱스 정보에서의 i번째 요소가 0인 것으로 결정하고, i는 양의 정수이다.
구현예에서, 사전설정된 임계치는 1이다. t번째 트레이닝에서의 i번째 라운드의 사이클의 예측 추정 결과가 1 미만일 경우에, 고전적 컴퓨터는 새롭게 추가된 인덱스 정보에서의 i번째 요소가 1인 것으로 결정한다. t번째 트레이닝에서의 i번째 라운드의 사이클의 예측 추정 결과가 1 이상일 경우에, 고전적 컴퓨터는 새롭게 추가된 인덱스 정보에서의 i번째 요소가 0인 것으로 결정한다.
상기한 예가 여전히 이용된다. 트레이닝 데이터 세트가 3개의 트레이닝 데이터를 포함하는 것으로 가정하면, 각각의 트레이닝은 3개 라운드의 사이클을 포함한다. 제1 라운드의 사이클의 예측 추정 결과가 1.1일 경우에, 새롭게 추가된 인덱스 정보에서의 제1 요소는 0이다. 제2 라운드의 사이클의 예측 추정 결과가 0.6일 경우에, 새롭게 추가된 인덱스 정보에서의 제2 요소는 1이다. 제3 라운드의 사이클의 예측 추정 결과가 0.8일 경우에, 새롭게 추가된 인덱스 정보에서의 제3 요소는 1이고, 즉, 새롭게 추가된 인덱스 정보는 011이다.
단계 5에서, 고전적 컴퓨터는 새롭게 추가된 인덱스 정보를 작업 세트에 추가한다.
본 개시의 실시예에서, 업데이팅된 작업 세트는 분류기의 다음 트레이닝을 위하여 이용된다. 실시예에서, 새롭게 추가된 인덱스 정보가 결정된 후에, 고전적 컴퓨터는 새롭게 추가된 인덱스 정보에 대응하는 타깃 파라미터를 QRAM으로 송신하여, 양자 컴퓨터는 QRAM으로부터, 새롭게 추가된 인덱스 정보에 대응하는 트레이닝 데이터 및 새롭게 추가된 인덱스 정보에 대응하는 타깃 파라미터를 획득한다.
상기한 예가 여전히 이용된다. 고전적 컴퓨터는 011을 작업 세트에 추가하고, 업데이팅된 작업 세트를 이용하여 분류기의 (t+1)번째 트레이닝을 수행한다. 구현예에서, 트레이닝의 횟수들이 사전설정된 수에 도달할 때, 고전적 컴퓨터는 트레이닝을 정지시키고, 최후의 트레이닝 동안에 획득된 경계 벡터를 이 분류기의 경계 벡터로서 결정한다.
구현예에서, 도 8은 본 개시의 또 다른 실시예에 따른 분류기 분류 방법의 개략도이다. 양자 컴퓨터는 QRAM을 포함한다.
고전적 컴퓨터는 트레이닝 데이터 세트를 획득한다. 트레이닝 데이터 세트는 m개의 트레이닝 데이터 및 트레이닝 데이터의 표준 라벨들을 포함한다. 고전적 컴퓨터는 작업 세트를 초기화하고, 작업 세트는 적어도 하나의 인덱스 정보를 포함한다. 즉, 고전적 컴퓨터는 작업 세트로부터 인덱스 정보를 무작위적으로 선택하고, 인덱스 정보에 대응하는 타깃 파라미터 및 m개의 트레이닝 데이터를 QRAM으로 송신한다.
양자 컴퓨터는 내적 세트를 생성하기 위하여, QRAM에서 저장된 데이터에 따라 작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적을 계산한다.
고전적 컴퓨터는 내적 세트에 따라 행렬을 생성하고, 양의 준정부호 행렬을 획득하기 위하여 행렬을 양의 준정부호 원뿔로 맵핑하고; 양의 준정부호 행렬 및 트레이닝 데이터의 양에 따라 분류기의 최적화 문제를 생성하고, 최적화 문제를 프로세싱하고, 획득된 초기 경계 벡터를 QRAM으로 송신한다.
양자 컴퓨터는 QRAM에서 저장된 데이터 및 초기 경계 벡터에 따라 예측 추정 결과를 결정한다.
고전적 컴퓨터는 예측 추정 결과에 따라 작업 세트를 업데이팅하고, 트레이닝 종료 조건이 충족되는지 여부를 검출한다. 종료 조건이 충족될 때, 고전적 컴퓨터는 최종적인 분류기(경계 벡터)를 QRAM으로 출력한다. 종료 조건이 충족되지 않을 때, 고전적 컴퓨터는 새롭게 추가된 인덱스 정보에 대응하는 트레이닝 데이터를 QRAM에서 저장하고, 트레이닝을 다시 수행한다.
본 개시의 다음의 시스템 실시예들에서, 개시되지 않은 세부사항들에 대하여, 통상의 기술자는 본 개시의 방법 실시예들을 참조할 수 있다.
도 9는 본 개시의 실시예에 따른 데이터 분류 시스템의 개략도이다. 시스템(900)은 고전적 컴퓨터(910) 및 양자 컴퓨터(920)를 포함한다.
고전적 컴퓨터(910)는 분류 대상 데이터를 획득하고, 분류 대상 데이터를 양자 컴퓨터에 제공하도록 구성된다.
양자 컴퓨터(920)는 분류 대상 데이터의 양자 상태를 획득하기 위하여 양자 회로를 이용하여 분류 대상 데이터에 대한 특징 맵핑을 수행하고; 분류기의 경계 벡터, 분류 대상 데이터의 양자 상태, 및 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하고; 추정 결과를 고전적 컴퓨터(910)로 송신하도록 구성된다. 경계 벡터에 대응하는 인덱스 정보의 양자 상태는 트레이닝 동안에 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다.
고전적 컴퓨터(910)는 추정 결과에 따라 분류 대상 데이터의 분류 결과를 결정하도록 추가로 구성된다.
예시적인 실시예에서, 양자 컴퓨터(920)는 경계 벡터에서의 각각의 제1 벡터 요소 및 제1 벡터 요소에 대응하는 인덱스 정보의 양자 상태의 곱셈들의 합을 제1 양자 상태로서 결정하도록 구성된다.
양자 컴퓨터(920)는 추정 결과를 획득하기 위하여 제1 양자 상태와 분류 대상 데이터의 양자 상태 사이의 내적을 결정하도록 구성된다.
예시적인 실시예에서, 양자 컴퓨터(920)는 양자 회로를 이용하여 분류 대상 데이터의 특징 맵에서의 각각의 특징 값 및 특징 값에 대응하는 양자 상태의 곱셈들의 합에 따라 분류 대상 데이터의 양자 상태를 결정하도록 구성된다.
예시적인 실시예에서, 고전적 컴퓨터(910)는 추정 결과가 양의 값일 경우에, 분류 대상 데이터가 제1 카테고리에 속하는 것으로 결정하도록 구성된다.
고전적 컴퓨터(910)는 추정 결과가 음의 값일 경우에, 분류 대상 데이터가 제2 카테고리에 속하는 것으로 결정하도록 구성된다.
예시적인 실시예에서, 분류 대상 데이터는 문자를 포함하고, 분류 결과는 문자의 문자 인식 결과를 포함한다.
대안적으로, 분류 대상 데이터는 의학적 진단 이미지를 포함하고, 분류 결과는 의학적 진단 이미지의 이미지 인식 결과를 포함한다.
대안적으로, 분류 대상 데이터는 소셜 애플리케이션에서의 텍스트 정보를 포함하고, 분류 결과는 텍스트 정보의 감정 인식 결과를 포함한다.
대안적으로, 분류 대상 데이터는 분자 정보를 포함하고, 분류 결과는 분자 정보의 특성 인식 결과를 포함한다.
대안적으로, 분류 대상 데이터는 재료 정보를 포함하고, 분류 결과는 재료 정보의 특성 인식 결과를 포함한다.
요약하면, 본 개시의 실시예에서 제공된 기술적 해결책에서, 양자 컴퓨터는 분류기의 경계 벡터, 분류 대상 데이터의 양자 상태, 및 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하여, 고전적 컴퓨터는 추정 결과에 따라 분류 대상 데이터의 분류 결과를 결정한다. 경계 벡터에 대응하는 인덱스 정보의 양자 상태는 트레이닝 동안에 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다. 본 개시에서의 분류기는 시프트-불변 커널들에 대응하는 특징 맵들을 이용하도록 제한되지 않고, 특징 공간은 제한되지 않으므로, 분류 대상 데이터를 분류하기 위하여 본 개시에서의 분류기에 따라 더 양호한 특징 공간이 발견될 수 있다. 즉, 본 개시에서 획득된 경계 벡터가 더 정확하고, 분류기의 분류 정밀도가 더 높음으로써, 더 정확한 최종적인 분류 결과를 획득한다.
도 10은 본 개시의 실시예에 따른 분류기 트레이닝 시스템의 개략도이다. 시스템(1000)은 고전적 컴퓨터(1010) 및 양자 컴퓨터(1020)를 포함한다.
고전적 컴퓨터(1010)는 트레이닝 데이터 세트를 획득하도록 구성된다. 트레이닝 데이터 세트는 m개의 트레이닝 데이터 및 트레이닝 데이터의 표준 라벨들을 포함하고, m은 양의 정수이다.
양자 컴퓨터(1020)는 내적 세트를 생성하기 위하여 작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적을 결정하도록 구성된다. 작업 세트는 적어도 2개의 인덱스 정보를 포함하고, 인덱스 정보는 현재의 트레이닝에서 이용된 트레이닝 데이터를 지시하고, 인덱스 정보의 양자 상태는 현재의 트레이닝에서 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다.
고전적 컴퓨터(1010)는 내적 세트에 따라 분류기의 최적화 문제를 생성하고, 분류기의 경계 벡터를 획득하기 위하여 분류기의 최적화 문제에 따라 분류기를 트레이닝하도록 추가로 구성된다.
예시적인 실시예에서, 고전적 컴퓨터(1010)는 작업 세트로부터 제1 인덱스 정보 및 제2 인덱스 정보를 선택하고, m개의 트레이닝 데이터를 양자 랜덤 액세스 메모리(QRAM)로 송신하도록 구성된다.
양자 컴퓨터(1020)는 제1 인덱스 정보에 따라, QRAM에서 저장된 m개의 트레이닝 데이터로부터 제1 트레이닝 데이터를 결정하고; 제2 인덱스 정보에 따라, QRAM에서 저장된 m개의 트레이닝 데이터로부터 제2 트레이닝 데이터를 결정하고; 제1 트레이닝 데이터, 제2 트레이닝 데이터, 제1 인덱스 정보, 및 제2 인덱스 정보에 따라 제1 인덱스 정보의 양자 상태와 제2 인덱스 정보의 양자 상태 사이의 내적을 생성하도록 구성된다. 제1 인덱스 정보는 현재의 트레이닝에서 이용된 제1 트레이닝 데이터를 지시하기 위하여 이용되고, 제2 인덱스 정보는 현재의 트레이닝에서 이용된 제2 트레이닝 데이터를 지시하기 위하여 이용된다.
예시적인 실시예에서, 양자 컴퓨터(1020)는 제1 트레이닝 데이터 및 제1 인덱스 정보에 따라 제1 인덱스 정보의 양자 상태를 생성하도록 구성된다.
양자 컴퓨터(1020)는 제2 트레이닝 데이터 및 제2 인덱스 정보에 따라 제2 인덱스 정보의 양자 상태를 생성하도록 구성된다.
양자 컴퓨터(1020)는 제1 인덱스 정보의 양자 상태와 제2 인덱스 정보의 양자 상태 사이의 내적을 생성하도록 구성된다.
예시적인 실시예에서, 고전적 컴퓨터(1010)는 제1 인덱스 정보, 제1 트레이닝 데이터의 표준 라벨, 트레이닝 데이터의 양 m, 및 사전설정된 상수에 따라 타깃 파라미터를 계산하고, 타깃 파리미터를 QRAM으로 송신하도록 구성된다.
양자 컴퓨터(1020)는 제1 트레이닝 데이터의 양자 상태를 획득하기 위하여 양자 회로를 이용하여 제1 트레이닝 데이터에 대한 특징 맵핑을 수행하고, 제1 트레이닝 데이터의 양자 상태 및 타깃 파라미터에 따라 제1 인덱스 정보의 양자 상태를 결정하도록 구성된다.
예시적인 실시예에서, 고전적 컴퓨터(1010)는 내적 세트에 따라 행렬을 생성하고, 양의 준정부호 행렬을 획득하기 위하여 행렬을 양의 준정부호 원뿔로 맵핑하도록 구성된다.
고전적 컴퓨터(1010)는 양의 준정부호 행렬 및 트레이닝 데이터의 양 m에 따라 분류기의 최적화 문제를 생성하도록 추가로 구성된다.
예시적인 실시예에서, 고전적 컴퓨터(1010)는 분류기의 t번째 트레이닝에서의 분류기의 초기 경계 벡터를 결정하고, 초기 경계 벡터를 양자 컴퓨터에 제공하도록 추가로 구성되고, t는 양의 정수이고, 초기 경계 벡터는 분류기의 최적화 문제에 대한 초기 답변이다.
양자 컴퓨터(1020)는 t번째 트레이닝에서의 각 라운드의 사이클의 트레이닝 데이터의 양자 상태, 초기 경계 벡터, 및 t번째 트레이닝에서 이용된 작업 세트에서의 인덱스 정보의 양자 상태에 따라 t번째 트레이닝에서의 각 라운드의 사이클의 예측 추정 결과를 결정하도록 추가로 구성된다.
고전적 컴퓨터(1010)는 t번째 트레이닝에서의 각 라운드의 사이클의 예측 추정 결과에 따라 새롭게 추가된 인덱스 정보를 생성하고; 새롭게 추가된 인덱스 정보를 작업 세트에 추가하도록 추가로 구성된다. 업데이팅된 작업 세트는 분류기의 다음 트레이닝을 위하여 이용된다.
예시적인 실시예에서, 양자 컴퓨터(1020)는 초기 경계 벡터에서의 각각의 제2 벡터 요소 및 t번째 트레이닝에서 이용된 작업 세트에서의 제2 벡터 요소에 대응하는 인덱스 정보의 양자 상태의 곱셈들의 합을 제2 양자 상태로서 결정하도록 구성된다.
양자 컴퓨터(1020)는 t번째 트레이닝에서의 각 라운드의 사이클의 예측 추정 결과를 획득하기 위하여 제2 양자 상태와 t번째 트레이닝에서의 각 라운드의 사이클의 트레이닝 데이터의 양자 상태 사이의 내적을 결정하도록 구성된다.
예시적인 실시예에서, 고전적 컴퓨터(1010)는 t번째 트레이닝에서의 i번째 라운드의 사이클의 예측 추정 결과가 사전설정된 임계치 미만일 경우에, 새롭게 추가된 인덱스 정보에서의 i번째 요소가 1인 것으로 결정하도록 구성된다. 고전적 컴퓨터(1010)는 t번째 트레이닝에서의 i번째 라운드의 사이클의 예측 추정 결과가 사전설정된 임계치 이상일 경우에, 새롭게 추가된 인덱스 정보에서의 i번째 요소가 0인 것으로 결정하도록 구성되고, i는 양의 정수이다.
요약하면, 본 개시의 실시예에서 제공된 기술적 해결책에서, 고전적 컴퓨터는 트레이닝 데이터 세트를 획득하고; 양자 컴퓨터는 내적 세트를 생성하기 위하여, 작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적을 계산하고; 고전적 컴퓨터는 내적 세트에 따라 분류기의 최적화 문제를 생성하고, 분류기의 경계 벡터를 획득하기 위하여 최적화 문제에 따라 분류기를 트레이닝한다. 인덱스 정보의 양자 상태는 트레이닝 동안에 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타낸다. 본 개시에서의 분류기는 시프트-불변 커널들에 대응하는 특징 맵들을 이용하도록 제한되지 않고, 특징 공간은 제한되지 않으므로, 분류 대상 데이터를 분류하기 위하여 본 개시에서의 분류기에 따라 더 양호한 특징 공간이 발견될 수 있다. 즉, 본 개시에서 획득된 경계 벡터가 더 정확하고, 분류기의 분류 정밀도가 더 높음으로써, 더 정확한 최종적인 분류 결과를 획득한다.
위에서 설명된 시스템 및 방법 실시예들은 동일한 개념을 공유한다. 특정 구현 프로세스에 대하여, 통상의 기술자는 방법 실시예들의 설명을 참조할 수 있고, 세부사항들은 본 명세서에서 다시 설명되지 않는다.
본 기술분야에서의 통상의 기술자는 상기한 실시예들의 단계들의 전부 또는 일부가 하드웨어에 의해 구현될 수 있거나, 관련된 하드웨어에 명령하는 프로그램에 의해 구현될 수 있다는 것을 이해할 수 있다. 프로그램은 컴퓨터-판독가능 저장 매체에서 저장될 수 있다. 저장 매체는 판독 전용 메모리, 자기 디스크, 또는 광학 디스크일 수 있다.
본 개시의 예시적인 실시예들은 위에서 설명되고, 본 개시를 제한하도록 의도되지는 않는다. 본 개시의 사상 및 원리 내에서 행해진 임의의 수정, 동등한 대체, 또는 개선 등은 본 개시의 보호 범위 내에서 귀속한다.

Claims (15)

  1. 데이터 분류 방법으로서,
    고전적 컴퓨터(classical computer)에 의해, 분류 대상 데이터를 획득하고, 상기 분류 대상 데이터를 양자 컴퓨터(quantum computer)에 제공하는 단계;
    상기 양자 컴퓨터에 의해, 상기 분류 대상 데이터의 양자 상태를 획득하기 위하여, 양자 회로를 이용하여 상기 분류 대상 데이터에 대한 특징 맵핑(feature mapping)을 수행하고, 분류기의 경계 벡터(boundary vector), 상기 분류 대상 데이터의 상기 양자 상태, 및 상기 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하고, 상기 추정 결과를 상기 고전적 컴퓨터로 송신하는 단계 - 상기 경계 벡터에 대응하는 상기 인덱스 정보의 상기 양자 상태는 트레이닝 동안에 상기 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타냄 -; 및
    상기 고전적 컴퓨터에 의해, 상기 추정 결과에 따라 상기 분류 대상 데이터의 분류 결과를 결정하는 단계
    를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 양자 컴퓨터에 의해, 분류기의 경계 벡터, 상기 분류 대상 데이터의 상기 양자 상태, 및 상기 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하는 것은:
    상기 양자 컴퓨터에 의해, 상기 경계 벡터에서의 각각의 제1 벡터 요소 및 상기 제1 벡터 요소에 대응하는 인덱스 정보의 양자 상태의 곱셈들의 합을 제1 양자 상태로서 계산하는 단계; 및
    상기 양자 컴퓨터에 의해, 상기 추정 결과를 획득하기 위하여 상기 제1 양자 상태와 상기 분류 대상 데이터의 상기 양자 상태 사이의 내적을 계산하는 단계
    를 포함하는, 방법.
  3. 제1항에 있어서,
    상기 양자 컴퓨터에 의해, 상기 분류 대상 데이터의 양자 상태를 획득하기 위하여 양자 회로를 이용하여 상기 분류 대상 데이터에 대한 특징 맵핑을 수행하는 것은:
    상기 양자 컴퓨터에 의해, 상기 양자 회로를 이용하여 상기 분류 대상 데이터의 특징 맵에서의 각각의 특징 값 및 상기 특징 값에 대응하는 양자 상태의 곱셈들의 합에 따라 상기 분류 대상 데이터의 상기 양자 상태를 결정하는 단계
    를 포함하는, 방법.
  4. 제1항에 있어서,
    상기 고전적 컴퓨터에 의해, 상기 추정 결과에 따라 상기 분류 대상 데이터의 분류 결과를 결정하는 단계는:
    상기 고전적 컴퓨터에 의해, 상기 추정 결과가 양의 값일 경우에, 상기 분류 대상 데이터가 제1 카테고리에 속하는 것으로 결정하는 단계; 및
    상기 고전적 컴퓨터에 의해, 상기 추정 결과가 음의 값일 경우에, 상기 분류 대상 데이터가 제2 카테고리에 속하는 것으로 결정하는 단계
    를 포함하는, 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 분류 대상 데이터는 문자를 포함하고, 상기 분류 결과는 상기 문자의 문자 인식 결과를 포함하거나; 또는
    상기 분류 대상 데이터는 의학적 진단 이미지를 포함하고, 상기 분류 결과는 상기 의학적 진단 이미지의 이미지 인식 결과를 포함하거나; 또는
    상기 분류 대상 데이터는 소셜 애플리케이션(social application)에서의 텍스트 정보를 포함하고, 상기 분류 결과는 상기 텍스트 정보의 감정 인식 결과를 포함하거나; 또는
    상기 분류 대상 데이터는 분자 정보를 포함하고, 상기 분류 결과는 상기 분자 정보의 특성 인식 결과를 포함하거나; 또는
    상기 분류 대상 데이터는 재료 정보를 포함하고, 상기 분류 결과는 상기 재료 정보의 특성 인식 결과를 포함하는, 방법.
  6. 분류기 트레이닝 방법으로서,
    고전적 컴퓨터에 의해, 트레이닝 데이터 세트를 획득하는 단계 - 상기 트레이닝 데이터 세트는 m개의 트레이닝 데이터 및 상기 트레이닝 데이터의 표준 라벨들을 포함하고, m은 양의 정수임 -;
    양자 컴퓨터에 의해, 내적 세트(inner product set)를 생성하기 위하여 작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적(inner product)을 계산하는 단계 - 상기 작업 세트는 적어도 2개의 인덱스 정보를 포함하고, 상기 인덱스 정보는 현재의 트레이닝에서 이용된 트레이닝 데이터를 지시하고, 상기 인덱스 정보의 양자 상태는 상기 현재의 트레이닝에서 이용된 상기 트레이닝 데이터의 특징 맵들의 중첩을 나타냄 -; 및
    상기 고전적 컴퓨터에 의해, 상기 내적 세트에 따라 분류기의 최적화 문제를 생성하고, 상기 분류기의 경계 벡터를 획득하기 위하여 상기 분류기의 상기 최적화 문제에 따라 상기 분류기를 트레이닝하는 단계
    를 포함하는, 방법.
  7. 제6항에 있어서,
    상기 양자 컴퓨터에 의해, 내적 세트를 생성하기 위하여 작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적을 결정하는 것은:
    상기 고전적 컴퓨터에 의해, 상기 작업 세트로부터 제1 인덱스 정보 및 제2 인덱스 정보를 선택하고, 상기 m개의 트레이닝 데이터를 양자 랜덤 액세스 메모리(quantum random access memory; QRAM)로 송신하는 단계; 및
    상기 양자 컴퓨터에 의해, 상기 제1 인덱스 정보에 따라, 상기 QRAM에서 저장된 상기 m개의 트레이닝 데이터로부터 제1 트레이닝 데이터를 결정하고, 상기 양자 컴퓨터에 의해, 상기 제2 인덱스 정보에 따라, 상기 QRAM에서 저장된 상기 m개의 트레이닝 데이터로부터 제2 트레이닝 데이터를 결정하고; 상기 제1 트레이닝 데이터, 상기 제2 트레이닝 데이터, 상기 제1 인덱스 정보, 및 상기 제2 인덱스 정보에 따라 상기 제1 인덱스 정보의 양자 상태와 상기 제2 인덱스 정보의 양자 상태 사이의 내적을 생성하는 단계 - 상기 제1 인덱스 정보는 상기 현재의 트레이닝에서 이용된 제1 트레이닝 데이터를 지시하고, 상기 제2 인덱스 정보는 상기 현재의 트레이닝에서 이용된 제2 트레이닝 데이터를 지시함 -
    를 포함하는, 방법.
  8. 제7항에 있어서,
    상기 양자 컴퓨터에 의해, 상기 제1 트레이닝 데이터, 상기 제2 트레이닝 데이터, 상기 제1 인덱스 정보, 및 상기 제2 인덱스 정보에 따라 상기 제1 인덱스 정보의 양자 상태와 상기 제2 인덱스 정보의 양자 상태 사이의 내적을 생성하는 것은:
    상기 양자 컴퓨터에 의해, 상기 제1 트레이닝 데이터 및 상기 제1 인덱스 정보에 따라 상기 제1 인덱스 정보의 양자 상태를 생성하는 단계;
    상기 양자 컴퓨터에 의해, 상기 제2 트레이닝 데이터 및 상기 제2 인덱스 정보에 따라 상기 제2 인덱스 정보의 양자 상태를 생성하는 단계; 및
    상기 양자 컴퓨터에 의해, 상기 제1 인덱스 정보의 양자 상태와 상기 제2 인덱스 정보의 양자 상태 사이의 상기 내적을 생성하는 단계를 포함하는, 방법.
  9. 제8항에 있어서,
    상기 양자 컴퓨터에 의해, 상기 제1 트레이닝 데이터 및 상기 제1 인덱스 정보에 따라 상기 제1 인덱스 정보의 양자 상태를 생성하는 단계는;
    상기 고전적 컴퓨터에 의해, 상기 제1 인덱스 정보, 상기 제1 트레이닝 데이터의 표준 라벨들, 상기 트레이닝 데이터의 수량(m), 및 사전설정된 상수에 따라 타깃 파라미터를 계산하고, 상기 타깃 파라미터를 상기 QRAM로 송신하는 단계; 및
    상기 양자 컴퓨터에 의해, 상기 제1 트레이닝 데이터의 양자 상태를 획득하기 위하여, 양자 회로를 이용하여 상기 제1 트레이닝 데이터에 대한 특징 맵핑을 수행하고, 상기 제1 트레이닝 데이터의 상기 양자 상태 및 상기 타깃 파라미터에 따라 상기 제1 인덱스 정보의 양자 상태를 결정하는 단계
    를 포함하는, 방법.
  10. 제6항에 있어서,
    상기 고전적 컴퓨터에 의해, 상기 내적 세트에 따라 분류기의 최적화 문제를 생성하는 단계는:
    상기 고전적 컴퓨터에 의해, 상기 내적 세트에 따라 행렬을 생성하고, 양의 준정부호 행렬(positive semidefinite matrix)을 획득하기 위하여 상기 행렬을 양의 준정부호 원뿔로 맵핑하는 단계; 및
    상기 고전적 컴퓨터에 의해, 상기 양의 준정부호 행렬 및 상기 트레이닝 데이터의 수량(m)에 따라 상기 분류기의 상기 최적화 문제를 생성하는 단계
    를 포함하는, 방법.
  11. 제6항 내지 제10항 중 어느 한 항에 있어서,
    상기 고전적 컴퓨터에 의해, 상기 분류기의 t번째 트레이닝에서의 상기 분류기의 초기 경계 벡터를 결정하고, 상기 초기 경계 벡터를 상기 양자 컴퓨터에 제공하는 단계 - t는 양의 정수이고, 상기 초기 경계 벡터는 상기 분류기의 상기 최적화 문제에 대한 초기 답변임 -;
    상기 양자 컴퓨터에 의해, 상기 t번째 트레이닝에서의 각 라운드의 사이클의 트레이닝 데이터의 양자 상태, 상기 초기 경계 벡터, 및 상기 t번째 트레이닝에서 이용된 작업 세트에서의 인덱스 정보의 양자 상태에 따라 상기 t번째 트레이닝에서의 각 라운드의 사이클의 예측 추정 결과를 결정하는 단계; 및
    상기 고전적 컴퓨터에 의해, 상기 t번째 트레이닝에서의 각 라운드의 사이클의 상기 예측 추정 결과에 따라 새롭게 추가된 인덱스 정보를 생성하고, 상기 새롭게 추가된 인덱스 정보를 상기 작업 세트에 추가하는 단계 - 업데이팅된 작업 세트는 상기 분류기의 다음 트레이닝을 위하여 이용됨 -
    를 더 포함하는 방법.
  12. 제11항에 있어서,
    상기 양자 컴퓨터에 의해, 상기 t번째 트레이닝에서의 각 라운드의 사이클의 트레이닝 데이터의 양자 상태, 상기 초기 경계 벡터, 및 상기 t번째 트레이닝에서 이용된 작업 세트에서의 인덱스 정보의 양자 상태에 따라 상기 t번째 트레이닝에서의 각 라운드의 사이클의 예측 추정 결과를 결정하는 단계는;
    상기 양자 컴퓨터에 의해, 상기 초기 경계 벡터에서의 각각의 제2 벡터 요소 및 상기 t번째 트레이닝에서 이용된 상기 작업 세트에서의 상기 제2 벡터 요소에 대응하는 인덱스 정보의 양자 상태의 곱셈들의 합을 제2 양자 상태로서 계산하는 단계; 및
    상기 양자 컴퓨터에 의해, 상기 t번째 트레이닝에서의 각 라운드의 사이클의 상기 예측 추정 결과를 획득하기 위하여 상기 제2 양자 상태와 상기 t번째 트레이닝에서의 각 라운드의 사이클의 상기 트레이닝 데이터의 상기 양자 상태 사이의 내적을 계산하는 단계
    를 포함하는, 방법.
  13. 제11항에 있어서,
    상기 고전적 컴퓨터에 의해, 상기 t번째 트레이닝에서의 각 라운드의 사이클의 상기 예측 추정 결과에 따라 새롭게 추가된 인덱스 정보를 생성하는 것은:
    상기 고전적 컴퓨터에 의해, 상기 t번째 트레이닝에서의 i번째 라운드의 사이클의 예측 추정 결과가 사전설정된 임계치 미만일 경우에, 상기 새롭게 추가된 인덱스 정보에서의 i번째 요소가 1인 것으로 결정하는 단계; 및
    상기 고전적 컴퓨터에 의해, 상기 t번째 트레이닝에서의 사이클의 상기 i번째 라운드의 상기 예측 추정 결과가 상기 사전설정된 임계치 이상일 경우에, 상기 새롭게 추가된 인덱스 정보에서의 상기 i번째 요소가 0인 것으로 결정하는 단계
    를 포함하고, i는 양의 정수인, 방법.
  14. 고전적 컴퓨터 및 양자 컴퓨터를 포함하는 데이터 분류 시스템으로서,
    상기 고전적 컴퓨터는 분류 대상 데이터를 획득하고, 상기 분류 대상 데이터를 상기 양자 컴퓨터에 제공하도록 구성되고;
    상기 양자 컴퓨터는 상기 분류 대상 데이터의 양자 상태를 획득하기 위하여 양자 회로를 이용하여 상기 분류 대상 데이터에 대한 특징 맵핑을 수행하고, 분류기의 경계 벡터, 상기 분류 대상 데이터의 상기 양자 상태, 및 상기 경계 벡터에 대응하는 인덱스 정보의 양자 상태에 따라 추정 결과를 결정하고, 상기 추정 결과를 상기 고전적 컴퓨터로 송신하도록 구성되고, 상기 경계 벡터에 대응하는 상기 인덱스 정보의 상기 양자 상태는 트레이닝 동안에 상기 분류기에 의해 이용된 트레이닝 데이터의 특징 맵들의 중첩을 나타내며;
    상기 고전적 컴퓨터는 상기 추정 결과에 따라 상기 분류 대상 데이터의 분류 결과를 결정하도록 추가로 구성되는,
    데이터 분류 시스템.
  15. 고전적 컴퓨터 및 양자 컴퓨터를 포함하는 분류기 트레이닝 시스템으로서,
    상기 고전적 컴퓨터는 트레이닝 데이터 세트를 획득하도록 구성되고, 상기 트레이닝 데이터 세트는 m개의 트레이닝 데이터 및 상기 트레이닝 데이터의 표준 라벨들을 포함하고, m은 양의 정수이고;
    상기 양자 컴퓨터는 내적 세트를 생성하기 위하여 작업 세트에서의 매 2개의 인덱스 정보의 양자 상태들의 내적을 계산하도록 구성되고, 상기 작업 세트는 적어도 2개의 인덱스 정보를 포함하고, 상기 인덱스 정보는 현재의 트레이닝에서 이용된 트레이닝 데이터를 지시하고, 상기 인덱스 정보의 상기 양자 상태는 상기 현재의 트레이닝에서 이용된 상기 트레이닝 데이터의 특징 맵들의 중첩을 표현하며;
    상기 고전적 컴퓨터는 상기 내적 세트에 따라 분류기의 최적화 문제를 생성하고, 상기 분류기의 경계 벡터를 획득하기 위하여 상기 분류기의 최적화 문제에 따라 상기 분류기를 트레이닝하도록 추가로 구성되는,
    분류기 트레이닝 시스템.
KR1020217028002A 2020-05-25 2021-01-25 데이터 분류 방법 및 시스템, 그리고 분류기 트레이닝 방법 및 시스템 KR102618916B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010446946.6 2020-05-25
CN202010446946.6A CN112651418B (zh) 2020-05-25 2020-05-25 数据分类方法、分类器训练方法及系统
PCT/CN2021/073645 WO2021238279A1 (zh) 2020-05-25 2021-01-25 数据分类方法、分类器训练方法及系统

Publications (2)

Publication Number Publication Date
KR20210148095A true KR20210148095A (ko) 2021-12-07
KR102618916B1 KR102618916B1 (ko) 2023-12-27

Family

ID=75346257

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217028002A KR102618916B1 (ko) 2020-05-25 2021-01-25 데이터 분류 방법 및 시스템, 그리고 분류기 트레이닝 방법 및 시스템

Country Status (6)

Country Link
US (1) US20220058435A1 (ko)
EP (1) EP3944149A4 (ko)
JP (1) JP7293387B2 (ko)
KR (1) KR102618916B1 (ko)
CN (1) CN112651418B (ko)
WO (1) WO2021238279A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023125857A1 (zh) * 2021-12-30 2023-07-06 本源量子计算科技(合肥)股份有限公司 基于机器学习框架系统的模型训练方法及相关设备
CN114372539B (zh) * 2022-03-22 2022-07-15 合肥本源量子计算科技有限责任公司 基于机器学习框架的分类方法及相关设备
CN114419380A (zh) * 2022-03-31 2022-04-29 苏州浪潮智能科技有限公司 一种图像识别方法、装置及电子设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109242223A (zh) * 2018-11-26 2019-01-18 武汉理工光科股份有限公司 城市公共建筑火灾风险的量子支持向量机评估与预测方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7448724B2 (en) * 2005-12-05 2008-11-11 Silverbrook Research Pty Ltd Method of maintaining a printhead using a maintenance belt
US7895142B2 (en) * 2007-09-27 2011-02-22 Siemens Aktiengesellschaft Method and apparatus for quantum adiabatic pattern recognition
EP3227837A1 (en) * 2014-12-05 2017-10-11 Microsoft Technology Licensing, LLC Quantum deep learning
CN104504601B (zh) * 2015-01-15 2015-10-28 曹东 基于ctp金融数据的量子信息特征提取方法
CN106650808A (zh) * 2016-12-20 2017-05-10 北京工业大学 一种基于量子近邻算法的图像分类方法
CN107092931B (zh) * 2017-04-24 2020-07-03 河北工业大学 一种奶牛个体识别的方法
GB201801627D0 (en) * 2018-02-01 2018-03-21 Siemens Healthcare Ltd Image autoencoding for quantum machine learning
CN108921049B (zh) * 2018-06-14 2021-08-03 华东交通大学 基于量子门线路神经网络的肿瘤细胞图像识别装置及设备
US11748665B2 (en) * 2019-04-03 2023-09-05 International Business Machines Corporation Quantum feature kernel alignment
US11906309B2 (en) * 2019-09-27 2024-02-20 Here Global B.V. Method and apparatus for providing a map matcher tolerant to wrong map features
CN110909796B (zh) * 2019-11-22 2022-05-17 浪潮电子信息产业股份有限公司 一种图像分类方法及相关装置
CN111079704A (zh) * 2019-12-31 2020-04-28 厦门理工学院 一种基于量子计算的人脸识别方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109242223A (zh) * 2018-11-26 2019-01-18 武汉理工光科股份有限公司 城市公共建筑火灾风险的量子支持向量机评估与预测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Daniel K. Park, The theory of the quantum kernel-based binary classier, Quantum Research Group, School of Chemistry and Physics, University of KwaZulu-Natal, Durban, KwaZulu-Natal, 4001, 2020.04.07* *

Also Published As

Publication number Publication date
EP3944149A4 (en) 2022-06-01
EP3944149A1 (en) 2022-01-26
CN112651418B (zh) 2022-03-08
US20220058435A1 (en) 2022-02-24
KR102618916B1 (ko) 2023-12-27
JP2022537618A (ja) 2022-08-29
JP7293387B2 (ja) 2023-06-19
CN112651418A (zh) 2021-04-13
WO2021238279A1 (zh) 2021-12-02

Similar Documents

Publication Publication Date Title
US11922308B2 (en) Generating neighborhood convolutions within a large network
US11544550B2 (en) Analyzing spatially-sparse data based on submanifold sparse convolutional neural networks
US11593458B2 (en) System for time-efficient assignment of data to ontological classes
KR102618916B1 (ko) 데이터 분류 방법 및 시스템, 그리고 분류기 트레이닝 방법 및 시스템
US20210256403A1 (en) Recommendation method and apparatus
US10824674B2 (en) Label propagation in graphs
CN108197652B (zh) 用于生成信息的方法和装置
CN108197532A (zh) 人脸识别的方法、装置及计算机装置
CN109564575A (zh) 使用机器学习模型来对图像进行分类
US20190065957A1 (en) Distance Metric Learning Using Proxies
CN110995459B (zh) 异常对象识别方法、装置、介质及电子设备
US20190065899A1 (en) Distance Metric Learning Using Proxies
CN115812219A (zh) 印刷电路板组件缺陷检测
US20160034554A1 (en) Large-scale data clustering with dynamic social context
CN109948680A (zh) 病历数据的分类方法及系统
US20220114644A1 (en) Recommendation system with sparse feature encoding
CN113609337A (zh) 图神经网络的预训练方法、训练方法、装置、设备及介质
CN114547307A (zh) 文本向量模型训练方法、文本匹配方法、装置及设备
JP7427011B2 (ja) センサ入力信号からのコグニティブ・クエリへの応答
CN114898184A (zh) 模型训练方法、数据处理方法、装置及电子设备
CN111897910A (zh) 信息推送方法和装置
US20230317284A1 (en) Using fourier approximations to create decision boundaries in machine learning
US20230281518A1 (en) Data subset selection for federated learning
US20240104915A1 (en) Long duration structured video action segmentation
US20230326186A1 (en) Automated data labeling using a geometric approach

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant