KR20240027608A - 유기체 서열을 사용하여 훈련된 자체-학습 염기 호출자 - Google Patents

유기체 서열을 사용하여 훈련된 자체-학습 염기 호출자 Download PDF

Info

Publication number
KR20240027608A
KR20240027608A KR1020237044214A KR20237044214A KR20240027608A KR 20240027608 A KR20240027608 A KR 20240027608A KR 1020237044214 A KR1020237044214 A KR 1020237044214A KR 20237044214 A KR20237044214 A KR 20237044214A KR 20240027608 A KR20240027608 A KR 20240027608A
Authority
KR
South Korea
Prior art keywords
base
sequence
organism
training
oligo
Prior art date
Application number
KR1020237044214A
Other languages
English (en)
Inventor
아미랄리 키아
아닌디타 두타
Original Assignee
일루미나, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/830,316 external-priority patent/US20230026084A1/en
Priority claimed from US17/830,287 external-priority patent/US20220415445A1/en
Application filed by 일루미나, 인코포레이티드 filed Critical 일루미나, 인코포레이티드
Publication of KR20240027608A publication Critical patent/KR20240027608A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B40/00ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
    • G16B40/20Supervised data analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B30/00ICT specially adapted for sequence analysis involving nucleotides or amino acids
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B50/00ICT programming tools or database systems specially adapted for bioinformatics
    • G16B50/30Data warehousing; Computing architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biotechnology (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Bioethics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Epidemiology (AREA)
  • Proteomics, Peptides & Aminoacids (AREA)
  • Public Health (AREA)
  • Analytical Chemistry (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

염기 호출자를 점진적으로 훈련시키는 방법이 개시된다. 방법은 초기에 염기 호출자를 훈련시키고, 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계; 및 (i) 유기체 염기 서열을 포함하는 분석물로 염기 호출자를 추가로 훈련시키고, 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계를 포함한다. 방법은 N 반복 동안 단계 (i)을 반복함으로써 염기 호출자를 반복적으로 추가 훈련시키는 단계를 포함하며, 이는 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계, 및 제2 유기체 염기 서열을 포함하는 분석물로 N 반복의 N2 반복 동안 염기 호출자를 추가로 훈련시키는 단계를 포함한다. 염기 호출자에 로딩된 신경망 구성의 복잡도는 N 반복에 따라 단조롭게 증가하며, 반복 동안에 생성된 표지된 훈련 데이터는 직후 반복 동안에 염기 호출자를 훈련시키는 데 사용된다.

Description

유기체 서열을 사용하여 훈련된 자체-학습 염기 호출자
우선권 출원
본 출원은 2022년 6월 1일에 제출된 "Self-Learned Base Caller, Trained Using Organism Sequences"라는 명칭의 미국 정규 특허출원 제17/830,316호(대리인 문서 번호 ILLM 1038-5/IP-2094-)의 우선권을 주장하며, 이는 차례로 2021년 6월 29일에 출원된 "Self-Learned Base Caller, Trained Using Organism Sequences"라는 명칭의 미국 임시 특허출원 제63/216,404호(대리인 문서 번호 ILLM 1038-2/IP-2094-PRV), 및 2021년 6월 29일에 출원된 "Self-Learned Base Caller, Trained Using Oligo Sequences"라는 명칭의 미국 임시 특허출원 제63/216,419호(대리인 문서 번호 ILLM 1038-1/IP-2050-PRV)의 이익을 주장한다. 우선권 출원은 모든 목적을 위해 참고로 본원에 포함된다.
본 출원은 2022년 6월 1일에 출원된 "Self-Learned Base Caller, Trained Using Oligo Sequences"라는 명칭의 미국 정규 특허출원 제17/830,287호(대리인 문서 번호 ILLM 1038-3/IP-2050-US)의 우선권을 주장하며, 이는 차례로 2021년 6월 29일에 출원된 "Self-Learned Base Caller, Trained Using Oligo Sequences"라는 명칭의 미국 임시 특허출원 제63/216,419호(대리인 문서 번호 ILLM 1038-1/IP-2050-PRV), 및 2021년 6월 29일에 출원된 "Self-Learned Base Caller, Trained Using Organism Sequences"라는 명칭의 미국 임시 특허출원 제63/216,404호(대리인 문서 번호 ILLM 1038-2/IP-2094-PRV)의 이익을 주장한다. 우선권 출원은 모든 목적을 위해 참고로 본원에 포함된다.
기술분야
개시된 기술은 인공 지능 유형 컴퓨터 및 디지털 데이터 처리 시스템 및 대응하는 데이터 처리 방법 및 지능 에뮬레이션 제품(즉, 지식 기반 시스템, 추론 시스템 및 지식 획득 시스템)에 관한 것이며; 불확실성이 있는 추론을 위한 시스템(예를 들어, 퍼지 로직 시스템), 적응 시스템, 기계 학습 시스템 및 인공 신경망을 포함한다. 특히, 개시된 기술은 데이터를 분석하기 위한 심층 컨볼루션(deep convolutional) 신경망과 같은 심층 신경망을 사용하는 것에 관한 것이다.
참조 문헌
하기는 본원에 완전히 기재된 것처럼 참고로 포함된다:
발명의 명칭이 "SELF-LEARNED BASE CALLER, TRAINED USING OLIGO SEQUENCES"이고 동시 출원된 PCT 특허 출원(대리인 문서 번호 ILLM 1038-4/IP-2050-PCT);
발명의 명칭이 "ARTIFICIAL INTELLIGENCE-BASED BASE CALLING OF INDEX SEQUENCES"이고 2020년 2월 20일자로 출원된 미국 임시 특허 출원 제62/979,384호(대리인 문서 번호 ILLM 1015-1/IP-1857-PRV);
발명의 명칭이 "ARTIFICIAL INTELLIGENCE-BASED MANY-TO-MANY BASE CALLING"이고 2020년 2월 20일자로 출원된 미국 임시 특허출원 제62/979,414호(대리인 문서 번호 ILLM 1016-1/IP-1858-PRV);
발명의 명칭이 "TRAINING DATA GENERATION FOR ARTIFICIAL INTELLIGENCE-BASED SEQUENCING"이고 2020년 3월 20일자로 출원된 미국 정규 특허 출원 제16/825,987호(대리인 문서 번호 ILLM 1008-16/IP-1693-US);
발명의 명칭이 "ARTIFICIAL INTELLIGENCE-BASED GENERATION OF SEQUENCING METADATA"이고 2020년 3월 20일자로 출원된 미국 정규 특허 출원 제16/825,991호(대리인 문서 번호 ILLM 1008-17/IP-1741-US);
발명의 명칭이 "ARTIFICIAL INTELLIGENCE-BASED BASE CALLING"이고 2020년 3월 20일자로 출원된 미국 정규 특허 출원 제16/826,126호(대리인 문서 번호 ILLM 1008-18/IP-1744-US);
발명의 명칭이 "ARTIFICIAL INTELLIGENCE-BASED QUALITY SCORING"이고 2020년 3월 20일자로 출원된 미국 정규 특허 출원 제16/826,134호(대리인 문서 번호 ILLM 1008-19/IP-1747-US);
발명의 명칭이 "ARTIFICIAL INTELLIGENCE-BASED SEQUENCING"이고 2020년 3월 21일자로 출원된 미국 정규 특허 출원 제16/826,168호(대리인 문서 번호 ILLM 1008-20/IP-1752-PRV-US).
이 섹션에서 논의되는 주제는 단지 이 섹션 내에서의 그의 언급의 결과로서 종래 기술이라고 가정되어서는 안 된다. 유사하게, 이 섹션에서 언급되거나 배경기술로서 제공되는 주제와 연관된 문제는 종래 기술에서 이전에 인식되었다고 가정되어서는 안 된다. 이 섹션에서의 주제는 단지 상이한 접근법을 표현할 뿐이며, 그 접근법 자체는 청구되는 기술의 구현예에 또한 대응할 수 있다.
계산 능력에서의 신속한 개선은 유의하게 개선된 정확도를 갖는 많은 컴퓨터 비전 태스크에 대해 최근 수년간 심층 컨볼루션 신경망(CNN: convolution neural network)을 큰 성공으로 만들었다. 추론 페이즈(phase) 동안, 많은 애플리케이션은 그래픽 처리 유닛(GPU: graphics processing unit) 및 다른 범용 플랫폼의 효율을 감소시키는 가혹한 전력 소비 요건을 갖는 하나의 이미지의 낮은 레이턴시 처리를 요구하여, 심층 학습 알고리즘 추론에 대해 특정적인 디지털 회로를 커스텀화함으로써 특정 가속화 하드웨어, 예컨대 필드 프로그래밍가능 게이트 어레이(FPGA: field programmable gate array)에 기회를 가져온다. 그러나, 휴대용 및 임베디드 시스템에 CNN을 배치하는 것은 큰 데이터 볼륨, 집중적인 연산, 다양한 알고리즘 구조, 및 빈번한 메모리 액세스로 인해 여전히 도전적이다.
컨볼루션이 CNN에서 대부분의 연산에 기여함에 따라, 컨볼루션 가속화 스킴은 하드웨어 CNN 가속기의 효율 및 성능에 유의하게 영향을 미친다. 컨볼루션은 커널 및 특징 맵(feature map)을 따라 슬라이딩하는 4개의 레벨의 루프와의 승산 및 누산(MAC: multiply and accumulate) 연산을 수반한다. 제1 루프 레벨은 커널 윈도우 내의 픽셀의 MAC를 연산한다. 제2 루프 레벨은 상이한 입력 특징 맵에 걸쳐 MAC의 곱셈의 합을 누산한다. 제1 및 제2 루프 레벨을 완료한 후, 바이어스를 추가함으로써 출력 특징 맵에서의 최종 출력 요소가 얻어진다. 제3 루프 레벨은 입력 특징 맵 내에서 커널 윈도우를 슬라이딩한다. 제4 루프 레벨은 상이한 출력 특징 맵을 생성한다.
FPGA는 그들의 (1) 고도의 재구성가능성, (2) CNN의 빠른 진화를 따라잡기 위한, 주문형 집적 회로(ASIC: Application Apecific Integrated Circuit)에 비해 더 빠른 개발 시간, (3) 양호한 성능, 및 (4) GPU에 비해 우수한 에너지 효율로 인해, 특히 추론 태스크를 가속화하기 위해 증가하는 관심 및 인기를 얻어왔다. FPGA의 높은 성능 및 효율은 특정 연산을 위해 커스텀화되는 회로를 합성하여 커스텀화된 메모리 시스템으로 수십억 회의 연산을 직접 처리함으로써 실현될 수 있다. 예를 들어, 최신 FPGA 상의 수백 내지 수천 개의 디지털 신호 처리(DSP: digital signal processing) 블록은 높은 병렬성과 함께 코어 컨볼루션 연산, 예컨대, 곱셈 및 덧셈을 지원한다. 외부 온-칩 메모리와 온-칩 처리 엔진(PE: processing engine)들 사이의 전용 데이터 버퍼는, FPGA 칩 상에 수십 Mbyte 온-칩 블록 랜덤 액세스 메모리(BRAM: block random access memory)를 구성함으로써 바람직한 데이터 흐름을 실현하도록 설계될 수 있다.
높은 성능을 달성하기 위해 리소스 활용을 최대화하면서 데이터 통신을 최소화하기 위해, CNN 가속화의 효율적인 데이터 흐름 및 하드웨어 아키텍처가 요구된다. 높은 성능, 효율 및 유연성을 갖는 가속화 하드웨어 상에서 다양한 CNN 알고리즘의 추론 프로세스를 가속화하기 위한 방법론 및 프레임워크를 설계할 기회가 발생한다.
도면에서, 유사한 도면 부호는, 대체로, 상이한 도면 전체에 걸쳐서 유사한 부분을 지칭한다. 또한, 도면은 반드시 축척대로인 것은 아니며, 그 대신, 대체적으로, 개시된 기술의 원리를 예시할 시에 강조된다. 하기의 설명에서, 개시된 기술의 다양한 구현예가 하기의 도면을 참조하여 기술된다.
도 1은 다양한 실시형태에서 사용될 수 있는 바이오센서의 단면을 도시한다.
도 2는 타일 내에 클러스터를 포함하는 플로우 셀의 일 구현예를 도시한다.
도 3은 8개의 레인이 있는 예시적인 플로우 셀을 보여주고, 또한 하나의 타일과 그의 클러스터 및 이들 주변 배경을 확대한 것을 보여준다.
도 4는 염기 호출 센서 출력과 같은 서열분석 시스템으로부터의 센서 데이터의 분석을 위한 시스템의 단순화된 블록도이다.
도 5는 호스트 프로세서에 의해 실행되는 런타임 프로그램의 기능을 포함한 염기 호출 동작의 양태를 보여주는 단순화된 도면이다.
도 6은 도 4의 것과 같은 구성가능한 프로세서의 구성의 단순화된 도면이다.
도 7은 본원에 설명된 바와 같이 구성된 구성 가능 또는 재구성 가능한 어레이를 사용하여 실행될 수 있는 신경망 아키텍처의 도면이다.
도 8a는 도 7의 것과 같은 신경망 아키텍처에 의해 사용되는 센서 데이터의 타일 구성의 단순화된 예시이다.
도 8b는 도 7의 것과 같은 신경망 아키텍처에 의해 사용되는 센서 데이터의 타일 패치의 단순화된 예시이다.
도 9는 필드 프로그래밍가능 게이트 어레이(FPGA)와 같은 구성 가능 또는 재구성 가능한 어레이 상의 도 7의 것과 같은 신경망에 대한 구성의 일부를 도시한다.
도 10은 본원에 설명된 바와 같이 구성된 구성 가능 또는 재구성 가능한 어레이를 사용하여 실행될 수 있는 디른 대안적 신경망 아키텍처의 도면이다.
도 11은 상이한 서열분석 사이클에 대한 데이터의 처리를 분리하는 데 사용되는 신경망 기반 염기 호출자의 특화된 아키텍처의 일 구현예를 도시한다.
도 12는 분리형 층의 일 구현예를 도시하며, 이들 각각은 컨볼루션을 포함할 수 있다.
도 13a는 조합 층의 일 구현예를 도시하며, 이들 각각은 컨볼루션을 포함할 수 있다.
도 13b는 조합 층의 다른 구현예를 도시하며, 이들 각각은 컨볼루션을 포함할 수 있다.
도 14a는 알려진 합성 올리고 서열을 사용하여 신경망 구성을 포함하는 염기 호출자를 훈련시키기 위해 단일 올리고 훈련 스테이지에서 작동하는 염기 호출 시스템을 예시하고, 도 14a1은 예측된 염기 서열과 대응 실측(ground truth) 염기 서열 간의 비교 동작을 예시한다.
도 14b는 알려진 합성 올리고 서열을 사용하여 신경망 구성을 포함하는 염기 호출자를 훈련시키기 위해 단일 올리고 훈련 스테이지에서 동작하는 도 14a의 염기 호출 시스템의 추가 세부사항을 예시한다.
도 15a는 2개의 알려진 합성 서열을 사용하여 표지된 훈련 데이터를 생성하기 위해 2-올리고 훈련 스테이지의 훈련 데이터 생성 페이즈에서 동작하는 도 14a의 염기 호출 시스템을 예시한다.
도 15b 및 15c는 도 15a와 관련하여 논의된 2-올리고 서열의 2개의 대응하는 예시적 선택을 예시한다.
도 15d는 (i) 예측된 염기 호출 서열을 제1 올리고 또는 제2 올리고 중 하나에 매핑하거나, (ii) 예측된 염기 호출 서열을 이 2개의 올리고 중 하나에 매핑하는 데 있어서 비결정적임(inconclusiveness)을 선언하기 위한 매핑 작업 예를 예시한다.
도 15e는 도 15d의 매핑으로부터 생성되는 표지된 훈련 데이터를 예시하며, 여기서 훈련 데이터는 도 16a에 예시된 다른 신경망 구성에 의해 사용된다.
도 16a는 2개의 알려진 합성 올리고 서열을 사용하여 다른 신경망 구성(이는 도 14a의 신경망 구성과 상이하고 그보다 더 복잡함)을 포함하는 염기 호출자를 훈련시키기 위해 2-올리고 훈련 스테이지의 훈련 데이터 소비 및 훈련 페이즈에서 동작하는 도 14a의 염기 호출 시스템을 예시한다.
도 16b는 2-올리고 훈련 스테이지의 훈련 데이터 생성 페이즈의 제2 반복에서 동작하는 도 14a의 염기 호출 시스템을 예시한다.
도 16c는 도 16b에 예시된 매핑으로부터 생성되는 표지된 훈련 데이터를 예시하며, 여기서 훈련 데이터는 추가 훈련을 위해 사용될 것이다.
도 16d는 2개의 알려진 합성 올리고 서열을 사용하여 도 16a의 신경망 구성을 포함하는 염기 호출자를 훈련시키기 위해 2-올리고 훈련 스테이지의 훈련 데이터 소비 및 훈련 페이즈의 제2 반복에서 동작하는 도 14a의 염기 호출 시스템을 예시한다.
도 17a는 단일-올리고 및 2-올리고 서열을 사용하여 염기 호출을 위한 신경망 구성을 반복적으로 훈련하기 위한 예시적 방법을 나타내는 흐름도를 예시한다.
도 17b는 도 17a의 방법(1700)의 끝에서 P번째 구성에 의해 생성되는 표지된 훈련 데이터 예를 예시한다.
도 18a는 3-올리고 신경망 구성을 포함하는 염기 호출자를 훈련시키기 위해 "3-올리고 훈련 스테이지"의 "훈련 데이터 소비 및 훈련 페이즈"의 제1 반복에서 동작하는 도 14a의 염기 호출 시스템을 예시한다.
도 18b는 도 18a의 3-올리고 신경망 구성을 포함하는 염기 호출자를 훈련시키기 위해 "3-올리고 훈련 스테이지"의 "훈련 데이터 생성 페이즈"에서 동작하는 도 14a의 염기 호출 시스템을 예시한다.
도 18c는 (i) 예측된 염기 호출 서열을 도 18b의 3개의 올리고 중 임의의 것에 매핑하거나, (ii) 예측된 염기 호출 서열의 매핑이 결정적이지 않다고 선언하는 매핑 동작을 예시한다.
도 18d는 도 18c의 매핑으로부터 생성되는 표지된 훈련 데이터를 예시하며, 여기서 훈련 데이터는 다른 신경망 구성을 훈련하는 데 사용된다.
도 18e는 3-올리고 실측 서열을 사용하여 염기 호출을 위한 신경망 구성을 반복적으로 훈련하기 위한 예시적 방법을 나타내는 흐름도를 예시한다.
도 19는 다중-올리고 실측 서열을 사용하여 염기 호출을 위한 신경망 구성을 반복적으로 훈련하기 위한 예시적 방법을 나타내는 흐름도를 예시한다.
도 20a는 도 14a의 염기 호출자를 훈련시키는 데 사용되는 유기체 서열을 예시한다.
도 20b는 도 20a의 제1 유기체 서열의 다양한 하위서열을 사용하여 제1 유기체 수준 신경망 구성을 포함하는 염기 호출자를 훈련하기 위해 제1 유기체 훈련 스테이지의 훈련 데이터 생성 페이즈에서 동작하는 도 14a의 염기 호출 시스템을 예시한다.
도 20c는 신호 강도가 염기 호출 동작의 서열분석 런(run)에서 사이클 수의 함수로서 감소되는 페이딩의 예를 예시한다.
도 20d는 서열분석 사이클이 진행됨에 따라 감소하는 신호 대 잡음비를 개념적으로 예시한다.
도 20e는 하위서열의 L1 개수의 염기 중 제1 L2 개수의 염기의 염기 호출을 예시하며, 여기서 하위서열의 제1 L2 개수의 염기는 하위서열을 도 20a의 유기체 서열에 매핑하는 데 사용된다.
도 20f는 도 20e의 매핑으로부터 생성되는 표지된 훈련 데이터를 예시하며, 여기서 표지된 훈련 데이터는 실측으로서 도 20a의 유기체 서열의 섹션을 포함한다.
도 20g는 제1 유기체 수준 신경망 구성을 포함하는 염기 호출자를 훈련시키기 위해 "유기체 수준 훈련 스테이지"의 "훈련 데이터 소비 및 훈련 페이즈"에서 동작하는 도 14a의 염기 호출 시스템을 예시한다.
도 21은 도 20a의 단순 유기체 서열을 사용하여 염기 호출을 위한 신경망 구성을 반복적으로 훈련하기 위한 예시적 방법을 나타내는 흐름도를 예시한다.
도 22는 도 14a의 염기 호출자를 위한 대응하는 NN 구성의 훈련을 위한 복잡한 유기체 서열의 사용을 예시한다.
도 23a는 염기 호출을 위한 신경망 구성을 반복적으로 훈련하기 위한 예시적 방법을 나타내는 흐름도를 예시하고, 도 23b 내지 도 23e는 본 개시내용에서 논의된 염기 호출자 훈련 프로세스의 효율성을 예시하는 다양한 차트를 예시한다.
도 24는 일 구현예에 따른 염기 호출 시스템의 블록도이다.
도 25는 도 24의 시스템에서 사용될 수 있는 시스템 제어기의 블록도이다.
도 26은 개시된 기술을 구현하는 데 사용될 수 있는 컴퓨터 시스템의 단순화된 블록도이다.
본원에서 사용되는 용어 "폴리뉴클레오티드" 또는 "핵산"은 데옥시리보핵산(DNA)을 지칭하지만, 적절한 경우 숙련된 기술자는 본원의 시스템 및 장치가 리보핵산(RNA)에 활용될 수도 있음을 인식할 것이다. 이들 용어는 뉴클레오티드 유사체로부터 만들어진 DNA 또는 RNA의 유사체를 등가물로서 포함하는 것으로 이해되어야 한다. 본원에서 사용되는 용어는 또한 예를 들어 역전사효소의 작용에 의해 RNA 주형으로부터 생성되는 상보적 또는 복제 DNA인 cDNA를 포함한다.
본원의 시스템 및 장치에 의해 서열분석된 단일 가닥 폴리뉴클레오티드 분자는 DNA 또는 RNA로서 단일 가닥 형태로 유래되었거나 이중 가닥 DNA(dsDNA) 형태(예: 게놈 DNA 단편, PCR 및 증폭 생성물 등)로 유래되었을 수 있다. 따라서, 단일 가닥 폴리뉴클레오티드는 폴리뉴클레오티드 이중체(duplex)의 센스(sense) 또는 안티센스 가닥일 수 있다. 표준 기술을 사용하여 본 개시내용의 방법에 사용하기에 적합한 단일 가닥 폴리뉴클레오티드 분자를 제조하는 방법은 당업계에 잘 알려져 있다. 1차 폴리뉴클레오티드 분자의 정확한 서열은 일반적으로 본 개시내용에 중요하지 않으며 알려지거나 알려지지 않을 수 있다. 단일 가닥 폴리뉴클레오티드 분자는 인트론 및 엑손 서열(코딩 서열)뿐만 아니라 비코딩 조절 서열, 예컨대 프로모터 및 인핸서 서열을 포함하는 게놈 DNA 분자(예를 들어, 인간 게놈 DNA)를 나타낼 수 있다.
특정 실시형태에서, 본 개시내용의 사용을 통해 서열분석될 핵산은 기재(예를 들어, 플로우 셀 내의 기재 또는 플로우 셀과 같은 기재 상의 하나 이상의 비드 등) 상에 고정된다. 본원에서 사용되는 용어 "고정된"은 명시적으로 또는 문맥에 의해 달리 나타내지 않는 한, 직접적 또는 간접적, 공유 또는 비공유 부착을 포함하도록 의도된다. 특정 실시형태에서, 공유 부착이 바람직할 수 있지만, 일반적으로 요구되는 모든 것은 분자(예: 핵산)가 예를 들어 핵산 서열분석이 필요한 적응에서 지지체를 사용하도록 의도되는 조건 하에서 지지체에 고정되거나 부착된 상태로 유지되는 것이다.
본원에서 사용되는 용어 "고체 지지체"(또는 특정 용도에서는 "기재")는 핵산이 부착될 수 있는 임의의 불활성 기재 또는 매트릭스, 예를 들어 유리 표면, 플라스틱 표면, 라텍스, 덱스트란, 폴리스티렌 표면, 폴리프로필렌 표면, 폴리아크릴아미드 겔, 금 표면, 및 규소 웨이퍼를 지칭한다. 많은 실시형태에서, 고체 지지체는 유리 표면(예를 들어, 플로우셀 채널의 평면 표면)이다. 특정 실시형태에서 고체 지지체는 예를 들어 폴리뉴클레오티드와 같은 분자에 대한 공유 부착을 허용하는 반응기를 포함하는 중간 물질의 층 또는 코팅을 적용함으로써 "작용화된" 불활성 기재 또는 매트릭스를 포함할 수 있다. 비제한적인 예로서, 이러한 지지체는 유리와 같은 불활성 기재 상에 지지된 폴리아크릴아미드 하이드로겔을 포함할 수 있다. 이러한 실시형태에서, 분자(폴리뉴클레오티드)는 중간 물질(예를 들어, 하이드로겔)에 직접 공유 부착될 수 있지만, 중간 물질 자체는 기재 또는 매트릭스(예를 들어, 유리 기재)에 비공유 부착될 수 있다. 따라서 고체 지지체에 대한 공유 부착은 이러한 유형의 배열을 포함하는 것으로 해석될 것이다.
위에서 나타낸 바와 같이, 본 개시내용은 핵산 서열분석을 위한 신규한 시스템 및 장치를 포함한다. 당업자에게 명백한 바와 같이, 특정 핵산 서열에 대한 본원에서의 언급은 문맥에 따라 이러한 핵산 서열을 포함하는 핵산 분자를 또한 지칭할 수 있다. 표적 단편의 서열분석은 염기의 시계열적 판독이 확립되었음을 의미한다. 판독되는 염기는 바람직하기는 하지만 연속적일 필요는 없으며, 또한 전체 단편 상의 모든 염기가 서열분석 중에 서열분석되어야 하는 것도 아니다. 서열분석은 임의의 적합한 서열분석 기술을 사용하여 수행될 수 있으며, 여기서 뉴클레오티드 또는 올리고뉴클레오티드가 유리 3' 하이드록실기에 연속적으로 첨가되어 5'에서 3' 방향으로 폴리뉴클레오티드 사슬이 합성된다. 첨가된 뉴클레오티드의 성질은 바람직하게는 각각의 뉴클레오티드 첨가 후에 결정된다. 모든 연속적인 염기가 서열분석되지는 않는 결찰에 의한 서열분석을 사용하는 서열분석 기술, 및 표면 상의 가닥에 염기가 첨가되기보다는 제거되는 대량 병렬 시그니처 서열분석(MPSS: massively parallel signature sequencing)과 같은 기술이 또한 본 개시내용의 시스템 및 장치와 함께 사용될 수 있다.
특정 실시형태에서, 본 개시내용은 합성에 의한 서열분석(SBS: sequencing-by-synthesis)을 개시한다. SBS에서는 4개의 형광 표지된 변형 뉴클레오티드가 사용되어 기재(예: 플로우셀) 표면에 존재하는 증폭된 DNA의 조밀한 클러스터(아마도 수백만 개의 클러스터)를 서열분석한다. 본원의 시스템 및 장치와 함께 활용될 수 있는 SBS 절차 및 방법에 관한 다양한 추가 양태가 예를 들어 국제공개 WO04018497호, 국제공개 WO04018493호 및 미국 특허 제7,057,026호(뉴클레오티드), 국제공개 WO05024010호 및 국제공개 WO06120433호(중합효소), 국제공개 WO05065814호(표면 부착 기술), 및 국제공개 WO9844151호, 국제공개 WO06064199호 및 국제공개 WO07010251호에 개시되어 있으며, 이들 각각의 내용은 그 전체가 본원에 참고로 포함된다.
본원의 시스템/장치의 특정 용도에서는 서열분석을 위한 핵산 샘플이 포함된 플로우 셀이 적절한 플로우 셀 홀더 내에 배치된다. 서열분석을 위한 샘플은 단일 분자, 클러스터 형태의 증폭된 단일 분자, 또는 핵산 분자를 포함하는 비드의 형태를 취할 수 있다. 핵산은 미지 표적 서열에 인접한 올리고뉴클레오티드 프라이머를 포함하도록 제조된다. 첫 번째 SBS 서열분석 사이클을 시작하기 위해, 하나 이상의 상이하게 표지된 뉴클레오티드 및 DNA 중합효소 등은 유체 흐름 하위 시스템(이의 다양한 실시형태가 본원에 설명되어 있음)에 의해 플로우 셀로/플로우 셀을 통해 유동된다. 단일 뉴클레오티드가 한 번에 첨가될 수 있거나, 또는 서열분석 절차에 사용되는 뉴클레오티드가 가역적 종결 특성을 갖도록 특별히 설계될 수 있어, 서열분석 반응의 각 사이클이 표지된 4개의 모든 뉴클레오티드(A, C, T, G) 존재 하에서 동시에 발생하도록 할 수 있다. 4개의 뉴클레오티드가 함께 혼합되는 경우, 중합효소는 혼입할 올바른 염기를 선택할 수 있으며 각 서열은 단일 염기에 의해 확장된다. 시스템을 사용하는 이러한 방법에서, 네 가지 모든 대안들 사이의 자연적인 경쟁은 단지 하나의 뉴클레오티드가 반응 혼합물에 존재하는 경우(따라서 대부분의 서열이 올바른 뉴클레오티드에 노출되지 않는 경우)보다 더 높은 정확도로 이어진다. 특정 염기가 차례로 반복되는 서열(예: 단독중합체)은 임의의 다른 서열과 마찬가지로 높은 정확도로 처리된다.
유체 흐름 하위 시스템은 또한 각각의 혼입된 염기에서 차단된 3' 말단(적절한 경우) 및 형광단을 제거하기 위해 적절한 시약을 유동시킨다. 기재는 4개의 차단된 뉴클레오티드 중 제2 라운드에 노출되거나 선택적으로 상이한 개별 뉴클레오티드를 갖는 제2 라운드에 노출될 수 있다. 그런 다음 이러한 사이클이 반복되고 각 클러스터의 서열이 여러 화학 사이클에 걸쳐 판독된다. 본 개시내용의 컴퓨터 양태는 선택적으로 각각의 단일 분자, 클러스터 또는 비드로부터 수집된 서열 데이터를 정렬하여 더 긴 중합체의 서열 등을 결정할 수 있다. 대안적으로, 별도의 컴퓨터에서 이미지 처리 및 정렬이 수행될 수 있다.
시스템의 가열/냉각 구성요소는 플로우 셀 채널 및 시약 저장 영역/컨테이너(및 선택적으로 카메라, 광학 장치 및/또는 기타 구성요소) 내의 반응 조건을 조절하는 한편, 유체 흐름 구성요소는 기재 표면이 혼입을 위한 적합한 시약(예: 혼입될 적절한 형광 표지된 뉴클레오티드)에 노출되도록 하면서 혼입되지 않은 시약은 씻어낸다. 플로우 셀이 배치되는 선택적인 이동가능한 스테이지는 플로우 셀이 기재의 레이저(또는 기타 광) 여기를 위해 적절한 배향으로 되고 선택적으로 렌즈 대물렌즈와 관련하여 이동되도록 하여 기재의 상이한 영역을 판독할 수 있게 한다. 또한 시스템의 다른 구성요소도 선택적으로 이동/조정 가능하다(예: 카메라, 렌즈 대물렌즈, 가열기/냉각기 등). 레이저 여기 동안, 기재 상의 핵산으로부터 방출된 형광의 이미지/위치가 카메라 구성요소에 의해 캡처되어 각각의 단일 분자, 클러스터 또는 비드에 대한 제1 염기의 동일성(identity)을 컴퓨터 구성요소에 기록한다.
본원에 기술된 실시형태는 학문적 또는 상업적 분석을 위한 다양한 생물학적 또는 화학적 프로세스 및 시스템에서 사용될 수 있다. 보다 구체적으로, 본원에 기술된 실시형태는, 원하는 반응을 나타내는 이벤트, 속성, 품질, 또는 특성을 검출하는 것이 요구되는 다양한 프로세스 및 시스템에서 사용될 수 있다. 예를 들어, 본원에 기술된 실시형태는 카트리지, 바이오센서, 및 그 구성요소뿐만 아니라 카트리지 및 바이오센서와 함께 작동하는 바이오어세이 시스템을 포함한다. 특정 실시형태에서, 카트리지 및 바이오센서는 실질적으로 단일 구조로 함께 결합되는 플로우 셀 및 하나 이상의 센서, 픽셀, 광 검출기, 또는 광다이오드를 포함한다.
특정 실시형태에 대한 다음의 상세한 설명은 첨부된 도면과 함께 읽을 때 더 잘 이해될 것이다. 도면이 다양한 실시형태의 기능 블록의 다이어그램을 예시하는 한, 기능 블록은 반드시 하드웨어 회로 사이의 분할을 나타내는 것은 아니다. 따라서, 예를 들어, 기능 블록들 중 하나 이상(예를 들어, 프로세서 또는 메모리)은 단일 부분의 하드웨어(예를 들어, 범용 신호 프로세서 또는 랜덤 액세스 메모리, 하드 디스크 등)에서 구현될 수 있다. 유사하게, 프로그램은 독립형 프로그램일 수 있고, 운영 체제의 서브루틴으로서 통합될 수 있으며, 설치된 소프트웨어 패키지에서의 기능일 수 있는 등이다. 다양한 실시형태가 도면에 도시된 배열 및 수단으로 제한되지 않는다는 것을 이해해야 한다.
본원에서 사용되는, 단수 형태로 언급되고 단어 "a" 또는 "an"에 뒤따르는 요소 또는 단계는 복수의 상-기 요소 또는 단계를 배제하지 않는 것으로(그러한 배제가 명시적으로 언급되지 않는 한) 이해되어야 한다. 또한, "일 실시형태"에 대한 언급은 언급된 특징을 또한 포함하는 추가 실시형태의 존재를 배제하는 것으로 해석되도록 의도되지 않는다. 더욱이, 명시적으로 반대로 언급되지 않는 한, 특정 성질을 갖는 하나의 요소 또는 복수의 요소를 "포함하는" 또는 "갖는" 실시형태는 그러한 성질을 갖든 그렇지 않든 간에 추가 요소를 포함할 수 있다.
본원에서 사용되는, "원하는 반응"은 관심 분석물의 화학적, 전기, 물리적, 또는 광학 속성(또는 품질) 중 적어도 하나의 변화를 포함한다. 특정 실시형태에서, 원하는 반응은 양성 결합 이벤트(예를 들어, 관심 분석물과 형광 표지된 생체분자의 통합)이다. 더욱 일반적으로, 원하는 반응은 화학적 변환, 화학적 변화, 또는 화학적 상호작용일 수 있다. 원하는 반응은 또한 전기 속성의 변화일 수 있다. 예를 들어, 원하는 반응은 용액 내의 이온 농도의 변화일 수 있다. 예시적인 반응은 화학 반응, 예컨대, 환원, 산화, 첨가, 제거, 재배열, 에스테르화, 아미드화, 에테르화, 고리화, 또는 대체; 제1 화학물질이 제2 화학물질에 결합하는 결합 상호작용; 둘 이상의 화학물질이 서로로부터 분리되는 해리 반응; 형광; 발광; 생물발광; 화학발광; 및 생물학적 반응, 예컨대, 핵산 복제, 핵산 증폭, 핵산 혼성화, 핵산 결찰, 인산화, 효소 촉매작용, 수용체 결합, 또는 리간드 결합을 포함하지만, 이에 한정되지 않는다. 원하는 반응은 또한, 예를 들어, 주변 용액 또는 환경의 pH의 변화와 같이 검출가능한 양성자의 첨가 또는 제거일 수 있다. 추가의 원하는 반응은 멤브레인(예를 들어, 천연 또는 합성 이중층 멤브레인)을 가로지르는 이온의 유동을 검출하는 것일 수 있으며, 예를 들어 이온이 멤브레인을 통해 흐를 때 전류가 중단되고 중단이 검출될 수 있다.
특정 실시형태에서, 원하는 반응은 분석물에 대한 형광 표지된 분자의 혼입을 포함한다. 분석물은 올리고뉴클레오티드일 수 있고, 형광 표지된 분자는 뉴클레오티드일 수 있다. 표지된 뉴클레오티드를 갖는 올리고뉴클레오티드를 향해 여기 광이 지향될 때 원하는 반응이 검출될 수 있고, 형광단은 검출가능한 형광 신호를 방출한다. 대안적인 실시형태에서, 검출된 형광은 화학발광 또는 생물발광의 결과이다. 원하는 반응은, 또한, 예를 들어 공여체 형광단을 수용체 형광단 부근으로 가져옴으로써 형광 공명 에너지 전송(FRET: fluorescence (또는 ) resonance energy transfer)을 증가시킬 수 있거나, 공여체 형광단과 수용체 형광단을 분리시킴으로써 FRET를 감소시킬 수 있거나, 형광단으로부터 소광제(quencher)를 분리시킴으로써 형광을 증가시킬 수 있거나, 또는 소광제와 형광단을 병치시킴으로써 형광을 감소시킬 수 있다.
본원에서 사용되는, "반응 성분" 또는 "반응물"은 원하는 반응을 획득하기 위해 사용될 수 있는 임의의 물질을 포함한다. 예를 들어, 반응 성분은 시약, 효소, 샘플, 다른 생체분자, 및 완충 용액을 포함한다. 반응 성분은 전형적으로 용액의 반응 부위에 전달되고/되거나 반응 부위에 고정화된다. 반응 성분은 관심 분석물과 같은 다른 물질과 직접 또는 간접적으로 상호 작용할 수 있다.
본원에서 사용되는, "반응 부위"라는 용어는 원하는 반응이 일어날 수 있는 국부적 영역이다. 반응 부위는 물질이 그 위에 고정화될 수 있는 기재의 지지 표면을 포함할 수 있다. 예를 들어, 반응 부위는 핵산 콜로니가 있는 플로우 셀의 채널에 실질적으로 평평한 표면을 포함할 수 있다. 항상 그런 것은 아니지만 전형적으로, 콜로니에서의 핵산은 예를 들어 단일 가닥 또는 이중 가닥 템플릿의 클론 복제물인 동일한 서열을 갖는다. 그러나, 일부 실시형태에서, 반응 부위는, 예를 들어 단일 가닥 또는 이중 가닥 형태의 단일 핵산 분자만을 함유할 수 있다. 또한, 복수의 반응 부위는 지지 표면을 따라 불균일하게 분포되거나 미리 결정된 방식으로(예를 들어, 마이크로어레이에서와 같이 매트릭스에서 나란히) 배열될 수 있다. 반응 부위는, 또한, 원하는 반응을 구획화하도록 구성된 공간 영역 또는 체적을 적어도 부분적으로 한정하는 반응 챔버(또는 웰(well))를 포함할 수 있다.
본 출원은 "반응 챔버" 및 "웰"이라는 용어를 상호 교환적으로 사용한다. 본원에서 사용되는, "반응 챔버" 또는 "웰"이라는 용어는 유동 채널과 유체 연통되는 공간 영역을 포함한다. 반응 챔버는 주변 환경 또는 다른 공간 영역으로부터 적어도 부분적으로 분리될 수 있다. 예를 들어, 복수의 반응 챔버는 공유 벽에 의해 서로 분리될 수 있다. 보다 구체적인 예로서, 반응 챔버는 웰의 내부 표면에 의해 정의된 공동을 포함할 수 있으며 공동이 유동 채널과 유체 연통할 수 있도록 개구 또는 구멍을 가질 수 있다. 이러한 반응 챔버를 포함하는 바이오센서는 2011년 10월 20일에 출원된 국제 출원 PCT/US2011/057111호에 더욱 상세히 기재되어 있으며, 이는 그 전체가 참고로 본원에 포함된다.
일부 실시형태에서, 반응 챔버는 고체(반고체 포함)에 대해 크기 및 형상이 결정되어 고체가 내부에 완전히 또는 부분적으로 삽입될 수 있다. 예를 들어, 반응 챔버는 하나의 캡처 비드만을 수용하도록 크기 및 형상이 정해질 수 있다. 캡처 비드는 그 위에 클론 증폭된 DNA 또는 다른 물질을 가질 수 있다. 대안적으로, 반응 챔버는 대략적인 개수의 비드 또는 고체 기재를 수용하도록 크기 및 형상이 정해질 수 있다. 다른 예로서, 반응 챔버는 또한 반응 챔버 내로 유동할 수 있는 확산 또는 필터 유체 또는 용액을 제어하도록 구성된 다공성 겔 또는 물질로 충전될 수 있다.
일부 실시형태에서, 센서(예를 들어, 광 검출기, 광다이오드)는 바이오센서의 샘플 표면의 대응하는 픽셀 영역과 연관된다. 이와 같이 픽셀 영역은 하나의 센서(또는 픽셀)에 대한 바이오센서 샘플 표면의 영역을 나타내는 기하학적 구조이다. 픽셀 영역과 연관된 센서는 원하는 반응이 연관된 픽셀 영역 위에 놓이는 반응 챔버 또는 반응 부위에서 발생할 때 연관된 픽셀 영역으로부터 수집된 광 방출을 검출한다. 평평한 표면 실시형태에서, 픽셀 영역은 중첩될 수 있다. 일부 경우에, 복수의 센서가 단일 반응 부위 또는 단일 반응 챔버와 연관될 수 있다. 다른 경우에, 단일 센서는 반응 부위 그룹 또는 반응 챔버 그룹과 연관될 수 있다.
본원에서 사용되는, "바이오센서"는 복수의 반응 부위 및/또는 반응 챔버(또는 웰)를 갖는 구조를 포함한다. 바이오센서는 솔리드-스테이트 이미지화 디바이스(예컨대, CCD 또는 CMOS 이미저) 및 선택적으로 이에 탑재되는 플로우 셀을 포함할 수 있다. 플로우 셀은 반응 부위 및/또는 반응 챔버와 유체 연통하는 적어도 하나의 플로우 채널을 포함할 수 있다. 하나의 특정 예로서, 바이오센서는 생물검정 시스템에 유체적으로 그리고 전기적으로 커플링하도록 구성된다. 생물검정 시스템은 미리 결정된 프로토콜(예를 들어, 합성에 의한 서열분석)에 따라 반응물을 반응 부위 및/또는 반응 챔버로 전달하고 복수의 이미지화 이벤트를 수행할 수 있다. 예를 들어, 생물검정 시스템은 용액이 반응 부위 및/또는 반응 챔버를 따라 흐르도록 할 수 있다. 용액 중 적어도 하나는 동일하거나 상이한 형광 표지를 갖는 4개의 유형의 뉴클레오티드를 포함할 수 있다. 뉴클레오티드는 반응 부위 및/또는 반응 챔버에 위치한 상응하는 올리고뉴클레오티드에 결합할 수 있다. 그 다음, 생물검정 시스템은 여기 광원(예컨대, 발광 다이오드 또는 LED와 같은 솔리드-스테이트 광원)을 사용하여 반응 부위 및/또는 반응 챔버를 조명할 수 있다. 여기 광은 일정 범위의 파장을 포함한 미리 결정된 파장 또는 파장을 가질 수 있다. 여기된 형광 표지는 센서에 의해 캡처될 수 있는 방출 신호를 제공한다.
대안적인 실시형태에서, 바이오센서는 다른 식별가능한 특성을 검출하도록 구성된 전극 또는 다른 유형의 센서를 포함할 수 있다. 예를 들어, 센서는 이온 농도의 변화를 검출하도록 구성될 수 있다. 다른 예에서, 센서는 멤브레인을 가로지르는 이온 전류 흐름을 검출하도록 구성될 수 있다.
본원에서 사용되는 "클러스터"는 유사하거나 동일한 분자 또는 뉴클레오티드 서열 또는 DNA 가닥의 콜로니이다. 예를 들어, 클러스터는 증폭된 올리고뉴클레오티드, 또는 동일하거나 유사한 서열을 갖는 폴리뉴클레오티드 또는 폴리펩티드의 임의의 다른 그룹일 수 있다. 다른 실시형태에서 클러스터는 샘플 표면의 물리적 영역을 차지하는 임의의 요소 또는 요소 그룹일 수 있다. 실시형태에서, 클러스터는 염기 호출 사이클 동안 반응 부위 및/또는 반응 챔버에 고정화된다.
본원에서 사용되는 용어 "고정화된"은 생체분자 또는 생물학적 또는 화학적 물질과 관련하여 사용될 때 생체분자 또는 생물학적 또는 화학적 물질을 분자 수준에서 표면에 실질적으로 부착하는 것을 포함한다. 예를 들어, 생체분자 또는 생물학적 또는 화학적 물질은 비공유적 상호작용(예컨대, 정전기력, 반 데르 발스, 및 소수성 계면의 탈수), 및 작용기 및 링커가 생체분자를 표면에 부착하는 것을 용이하게 하는 공유 결합 기법을 포함하는 흡착 기법을 사용하여 기재 물질의 표면에 고정화될 수 있다. 생체분자 또는 생물학적 또는 화학적 물질을 기재 물질의 표면에 고정화시키는 것은 기재 표면의 속성, 생체분자 또는 생물학적 또는 화학적 물질을 운반하는 액체 매질, 및 생체분자 또는 생물학적 또는 화학적 물질 자체의 속성에 기초할 수 있다. 일부 경우에 있어서, 기재 표면은 생체분자(또는 생물학적 또는 화학적 물질)를 기재 표면에 고정화시키는 것을 용이하게 하도록 기능화될 수 있다(예컨대, 화학적으로 또는 물리적으로 개질될 수 있다). 기재 표면은 우선 표면에 결합되는 작용기를 갖도록 개질될 수 있다. 그 다음, 작용기는 생체 분자 또는 생물학적 또는 화학적 물질에 결합하여 이들을 그 위에 고정화시킬 수 있다. 물질은 예를 들어 미국 특허출원공개 US 2011/0059865 A1호에 기재된 바와 같이 겔을 통해 표면에 고정화될 수 있으며, 이는 참고로 본원에 포함된다.
일부 실시형태에서, 핵산은 표면에 부착되고 브릿지 증폭을 사용하여 증폭될 수 있다. 유용한 브리지 증폭 방법은 예를 들어 미국 특허 제5,641,658호; 국제공개 WO 2007/010251호; 미국 특허 제6,090,592호; 미국 특허출원공개 2002/0055100 A1호; 미국 특허 제7,115,400호; 미국 특허 공개 제2004/0096853 A1호; 미국 특허출원공개 2004/0002090 A1호; 미국 특허출원공개 2007/0128624 A1호; 및 미국 특허출원공개 2008/0009420 A1호에 기재되어 있으며, 이들 각각은 그 전체가 본원에 포함된다. 표면 상에서 핵산을 증폭시키기 위한 다른 유용한 방법은, 예를 들어, 아래에 더욱 상세히 기술되는 방법을 이용하는 롤링 서클 증폭(RCA: Rolling Circle Amplification)이다. 일부 실시형태에서, 핵산은 표면에 부착되고 하나 이상의 프라이머 쌍을 이용하여 증폭될 수 있다. 예를 들어, 프라이머 중 하나는 용액 내에 있을 수 있고 다른 프라이머는 표면 상에 고정화될 수 있다(예컨대, 5'-부착됨). 예로서, 핵산 분자가 표면 상의 프라이머 중 하나에 혼성화된 뒤, 고정화된 프라이머를 연장시켜 핵산의 제1 복제물을 생성할 수 있다. 이어서 용액 내의 프라이머는 핵산의 제1 복제물에 혼성화되며, 이는 핵산의 제1 복제물을 템플릿으로 이용하여 연장될 수 있다. 선택적으로, 핵산의 제1 복제물이 생성된 후에, 원래의 핵산 분자는 표면 상의 제2 고정화된 프라이머에 혼성화될 수 있고 동시에 또는 용액 내의 프라이머가 연장된 후에 연장될 수 있다. 임의의 실시형태에서, 고정화된 프라이머 및 용액 내의 프라이머를 이용한 연장(예컨대, 증폭)의 반복된 라운드는 핵산의 다수의 복제물을 제공한다.
특정 실시형태에서, 본원에 기재된 시스템 및 방법에 의해 실행되는 검정 프로토콜은 천연 뉴클레오티드 및 또한 천연 뉴클레오티드와 상호작용하도록 구성된 효소의 사용을 포함한다. 천연 뉴클레오티드에는 예를 들어 리보뉴클레오티드(RNA) 또는 데옥시리보뉴클레오티드(DNA)가 포함된다. 천연 뉴클레오티드는 모노-, 다이-, 또는 트라이-포스페이트 형태일 수 있으며, 아데닌(A), 티민(T), 우라실(U), 구아닌(G), 또는 시토신(C)으로부터 선택된 염기를 가질 수 있다. 그러나, 전술된 뉴클레오티드의 비-천연 뉴클레오티드, 변형된 뉴클레오티드 또는 유사체가 사용될 수 있음이 이해될 것이다. 유용한 비-천연 뉴클레오티드의 일부 예는 합성 방법에 의한 가역적 종결자 기반 서열분석과 관련하여 아래에 설명된다.
반응 챔버를 포함하는 실시형태에서, 품목 또는 고체 물질(반고체 물질 포함)은 반응 챔버 내에 배치될 수 있다. 배치될 때, 품목 또는 고체는 억지 끼워맞춤(interference fit), 접착, 또는 포획을 통해 반응 챔버 내에서 물리적으로 유지되거나 고정화될 수 있다. 반응 챔버 내에 배치될 수 있는 예시적인 품목 또는 고체는 중합체 비드, 펠릿, 아가로스 겔, 분말, 양자점, 또는 반응 챔버 내에 압축되고/되거나 보유될 수 있는 다른 고체를 포함한다. 특정 실시형태에서, 핵산 상부구조(superstructure), 예컨대 DNA 볼(ball)은, 예를 들어 반응 챔버의 내부 표면에의 부착에 의해 또는 반응 챔버 내의 액체 중에의 체류에 의해, 반응 챔버 내에 또는 반응 챔버에 배치될 수 있다. DNA 볼 또는 다른 핵산 상부구조가 미리 형성된 다음 반응 챔버 내에 또는 반응 챔버에 배치될 수 있다. 대안적으로, DNA 볼은 반응 챔버에서 인시츄(in situ) 합성될 수 있다. DNA 볼은 특정 핵산 서열의 콘카테머(concatemer)를 생성하기 위해 롤링 서클 증폭에 의해 합성될 수 있으며 콘카테머는 상대적으로 컴팩트한 볼을 형성하는 조건으로 처리될 수 있다. DNA 볼 및 이들의 합성 방법은 예를 들어 미국 특허출원공개 2008/0242560 A1호 또는 2008/0234136 A1호에 기재되어 있으며, 이들 각각은 그 전체가 본원에 포함된다. 반응 챔버에 유지되거나 배치되는 물질은 고체, 액체 또는 기체 상태일 수 있다.
본원에서 사용되는 "염기 호출"은 핵산 서열에서 뉴클레오티드 염기를 식별한다. 염기 호출은 특정 사이클에서 모든 클러스터에 대한 염기 호출(A, C, G, T)을 결정하는 과정을 지칭한다. 예를 들어, 미국 특허출원공개 2013/0079232호의 통합 자료에 설명된 4채널, 2채널 또는 1채널 방법 및 시스템을 사용하여 염기 호출이 수행될 수 있다. 특정 실시형태에서, 염기 호출 사이클은 "샘플링 이벤트"로서 지칭된다. 하나의 염료 및 2채널 서열분석 프로토콜에서, 샘플링 이벤트는 각 스테이지에서 픽셀 신호가 생성되도록 시간 순서로 2개의 조명 스테이지를 포함한다. 제1 조명 스테이지는 AT 픽셀 신호에서 뉴클레오티드 염기 A 및 T를 나타내는 소정의 클러스터로부터 조명을 유도하고, 제2 조명 단계는 CT 픽셀 신호에서 뉴클레오티드 염기 C 및 T를 나타내는 소정의 클러스터로부터 조명을 유도한다.
개시된 기술, 예를 들어 개시된 염기 호출자는 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 필드 프로그래밍가능한 게이트 어레이(FPGA), 코어스-그레인드 재구성가능한 아키텍처(CGRA), 주문형 집적회로(ASIC), 애플리케이션 특정 명령-세트 프로세서(ASIP), 및 디지털 신호 프로세서(DSP)와 같은 프로세서 상에서 구현될 수 있다.
바이오센서
도 1은 다양한 실시형태에서 사용될 수 있는 바이오센서(100)의 단면을 도시한다. 바이오센서(100)는 염기 호출 사이클 동안 하나 초과의 클러스터(예를 들어, 픽셀 영역당 2개의 클러스터)를 각각 보유할 수 있는 픽셀 영역(106', 108', 110', 112', 114')을 갖는다. 도시된 바와 같이, 바이오센서(100)는 샘플링 장치(104) 상에 장착되는 플로우 셀(102)을 포함할 수 있다. 예시된 실시형태에서, 플로우 셀(102)은 샘플링 장치(104)에 직접 부착된다. 그러나, 대안적인 실시형태에서, 플로우 셀(102)은 샘플링 장치(104)에 제거 가능하게 결합될 수 있다. 샘플링 장치(104)는 작용화될 수 있는(예를 들어, 원하는 반응을 수행하기 위해 적절한 방식으로 화학적으로 또는 물리적으로 개질될 수 있는) 샘플 표면(134)을 갖는다. 예를 들어, 샘플 표면(134)은 작용화될 수 있고 염기 호출 사이클 동안 하나 초과의 클러스터를 각각 보유할 수 있는 복수의 픽셀 영역(106', 108', 110', 112', 114')을 포함할 수 있다(예를 들어, 각각은 그에 고정화된 상응하는 클러스터 쌍(106A, 106B; 108A, 108B; 110A, 110B; 112A, 112B; 및 114A, 114B)을 가짐). 각 픽셀 영역은 대응하는 센서(또는 픽셀 또는 광다이오드)(106, 108, 110, 112, 114)와 연관되어 픽셀 영역에 의해 수신된 빛이 대응하는 센서에 의해 캡처된다. 픽셀 영역(106')은 또한 클러스터 쌍을 유지하는 샘플 표면(134) 상의 대응하는 반응 부위(106")와 연관될 수 있어, 반응 부위(106")로부터 방출된 광이 픽셀 영역(106')에 의해 수신되고 대응하는 센서(106)에 의해 캡처된다. 이러한 감지 구조의 결과로, 2개 이상의 클러스터가 염기 호출 사이클 동안 특정 센서의 픽셀 영역에 존재하는 경우(예를 들어, 각각 대응하는 클러스터 쌍을 가짐), 그 염기 호출 사이클의 픽셀 신호는 둘 이상의 클러스터 모두에 기초하는 정보를 전달한다. 결과적으로, 본원에 설명된 바와 같은 신호 처리는 각 클러스터를 구별하는 데 사용되며, 여기서 특정 염기 호출 사이클의 소정의 샘플링 이벤트에서 픽셀 신호보다 더 많은 클러스터가 있다.
예시된 실시형태에서, 플로우 셀(102)은 측벽(138, 125), 및 측벽(138, 125)에 의해 지지되는 플로우 커버(136)를 포함한다. 측벽(138, 125)은 샘플 표면(134)에 결합되고 플로우 커버(136)와 측벽(138, 125) 사이에서 연장된다. 일부 실시형태에서, 측벽(138, 125)은 유동 커버(136)를 샘플링 장치(104)에 접합하는 경화성 접착제 층으로부터 형성된다.
측벽(138, 125)은 유동 커버(136)와 샘플링 장치(104) 사이에 유동 채널(144)이 존재하도록 크기 및 형상을 갖는다. 유동 커버(136)는 바이오센서(100)의 외부로부터 유동 채널(144)로 전파하는 여기 광(101)에 투명한 재료를 포함할 수 있다. 예에서, 여기 광(101)은 비-직교 각도로 플로우 커버(136)에 접근한다.
또한 도시된 바와 같이, 유동 커버(136)는 다른 포트(도시되지 않음)와 유체적으로 맞물리도록 구성된 입구 및 출구 포트(142, 146)를 포함할 수 있다. 예를 들어, 다른 포트는 카트리지 또는 워크스테이션으로부터 나올 수 있다. 유동 채널(144)은 샘플 표면(134)을 따라 유체를 안내하도록 크기 및 형상을 갖는다. 높이(H1) 및 유동 채널(144)의 다른 치수는 샘플 표면(134)을 따라 유체의 실질적으로 균일한 유동을 유지하도록 구성될 수 있다. 유동 채널(144)의 치수는 또한 기포 형성을 제어하도록 구성될 수 있다.
예로서, 플로우 커버(136)(또는 플로우 셀(102))는 유리 또는 플라스틱과 같은 투명 재료를 포함할 수 있다. 유동 커버(136)는 평면 외부 표면 및 유동 채널(144)을 정의하는 평면 내부 표면을 갖는 실질적으로 직사각형 블록을 구성할 수 있다. 블록은 측벽(138, 125) 상에 장착될 수 있다. 대안적으로, 플로우 셀(102)은 플로우 커버(136) 및 측벽(138, 125)을 정의하도록 에칭될 수 있다. 예를 들어, 리세스가 투명 재료로 에칭될 수 있다. 에칭된 재료가 샘플링 장치(104)에 장착될 때, 리세스는 유동 채널(144)이 될 수 있다.
샘플링 장치(104)는 예를 들어, 복수의 적층된 기재 층(120-126)을 포함하는 집적 회로와 유사할 수 있다. 기재 층(120-126)은 베이스 기재(120), 솔리드-스테이트 이미저(122)(예를 들어, CMOS 이미지 센서), 필터 또는 광-관리 층(124), 및 패시베이션 층(126)을 포함할 수 있다. 위의 내용은 단지 예시일 뿐이며 다른 실시형태는 더 적거나 추가의 층을 포함할 수 있다는 점에 유의해야 한다. 더욱이, 기재 층(120-126) 각각은 복수의 서브-층을 포함할 수 있다. 샘플링 장치(104)는 CMOS 이미지 센서 및 CCD와 같은 집적 회로 제조에 사용된 것과 유사한 공정을 사용하여 제조될 수 있다. 예를 들어, 기재 층(120-126) 또는 그의 부분은 샘플링 장치(104)를 형성하기 위해 성장, 증착, 에칭 등이 될 수 있다.
패시베이션 층(126)은 유동 채널(144)의 유체 환경으로부터 필터 층(124)을 차폐하도록 구성된다. 일부 경우에, 패시베이션 층(126)은 또한 생체분자 또는 다른 관심 분석물이 그 위에 고정화될 수 있도록 하는 고체 표면(즉, 샘플 표면(134))을 제공하도록 구성된다. 예를 들어, 각 반응 부위는 샘플 표면(134)에 고정화된 생체 분자 클러스터를 포함할 수 있다. 따라서, 패시베이션층(126)은 반응 부위가 고정화될 수 있도록 하는 물질로 형성될 수 있다. 패시베이션 층(126)은 또한 원하는 형광 광에 대해 적어도 투명한 재료를 포함할 수 있다. 예로서, 패시베이션층(126)은 규소 질화물(Si2N4) 및/또는 실리카(SiO2)를 포함할 수 있다. 그러나, 다른 적절한 재료(들)가 사용될 수 있다. 예시된 실시형태에서, 패시베이션 층(126)은 실질적으로 평면일 수 있다. 그러나, 대안적인 실시형태에서, 패시베이션 층(126)은 피트, 웰, 홈 등과 같은 리세스를 포함할 수 있다. 예시된 실시형태에서, 패시베이션 층(126)은 약 150 내지 200 nm, 보다 구체적으로 약 170 nm의 두께를 갖는다.
필터 층(124)은 광의 투과에 영향을 미치는 다양한 특징을 포함할 수 있다. 일부 실시형태에서, 필터 층(124)은 다중 기능을 수행할 수 있다. 예를 들어, 필터 층(124)은 (a) 여기 광원으로부터의 광 신호와 같은 원치 않는 광 신호를 필터링하거나; (b) 반응 부위로부터의 방출 신호를 검출하도록 구성된 대응하는 센서(106, 108, 110, 112, 및 114)를 향해 반응 부위로부터의 방출 신호를 유도하거나; 또는 (c) 인접한 반응 부위로부터 원치 않는 방출 신호의 검출을 차단하거나 방지하도록 구성될 수 있다. 이와 같이, 필터 층(124)은 또한 광-관리층으로서 지칭될 수 있다. 도시된 실시형태에서, 필터 층(124)은 약 1 내지 5 μm, 보다 구체적으로 약 2 내지 4 μm의 두께를 갖는다. 대안적인 실시형태에서, 필터 층(124)은 마이크로렌즈 또는 다른 광학 구성요소의 어레이를 포함할 수 있다. 각각의 마이크로렌즈는 연관된 반응 부위로부터 센서로 방출 신호를 유도시키도록 구성될 수 있다.
일부 실시형태에서, 솔리드-스테이트 이미저(122) 및 베이스 기재(120)는 미리 구성된 솔리드-스테이트 이미지화 디바이스(예를 들어, CMOS 칩)로서 함께 제공될 수 있다. 예를 들어, 베이스 기재(120)는 규소 웨이퍼일 수 있고, 그 위에 솔리드-스테이트 이미저(122)가 장착될 수 있다. 솔리드-스테이트 이미저(122)는 반도체 재료(예를 들어, 규소) 층과 센서(106, 108, 110, 112, 114)를 포함한다. 예시된 실시형태에서, 센서는 광을 검출하도록 구성된 광다이오드이다. 다른 실시형태에서, 센서는 광 검출기를 포함한다. 솔리드-스테이트 이미저(122)는 CMOS 기반의 제조 공정을 통해 단일 칩으로서 제조될 수 있다.
솔리드-스테이트 이미저(122)는 유동 채널(144) 내부에서 또는 유동 채널을 따라 원하는 반응을 나타내는 활동을 검출하도록 구성된 센서(106, 108, 110, 112, 114)의 조밀한 어레이를 포함할 수 있다. 일부 실시형태에서, 각각의 센서는 약 1 내지 2 제곱 마이크로미터(μm²)의 픽셀 영역(또는 검출 영역)을 갖는다. 어레이는 500,000개의 센서, 500만개의 센서, 1,000만개의 센서 또는 심지어 1억 2,000만개의 센서를 포함할 수 있다. 센서(106, 108, 110, 112, 114)는 원하는 반응을 나타내는 미리 결정된 광 파장을 검출하도록 구성될 수 있다.
일부 실시형태에서, 샘플링 장치(104)는 미국 특허 제7,595,882호에 기술된 마이크로회로 배열과 같은 마이크로회로 배열을 포함하며, 이는 전체가 참조로 본원에 포함된다. 보다 구체적으로, 샘플링 장치(104)는 센서(106, 108, 110, 112, 114)의 평면 어레이를 갖는 집적 회로를 포함할 수 있다. 샘플링 장치(104) 내에 형성된 회로는 신호 증폭, 디지털화, 저장 및 처리 중 적어도 하나를 위해 구성될 수 있다. 회로는 검출된 형광 광을 수집 및 분석하고 검출 데이터를 신호 프로세서에 전달하기 위한 픽셀 신호(또는 검출 신호)를 생성할 수 있다. 회로는 또한 샘플링 장치(104)에서 추가적인 아날로그 및/또는 디지털 신호 처리를 수행할 수 있다. 샘플링 장치(104)는 신호 라우팅(routing)을 수행하는(예를 들어, 픽셀 신호를 신호 프로세서에 송신하는) 전도성 비아(130)를 포함할 수 있다. 픽셀 신호는 또한 샘플링 장치(104)의 전기 접촉부(132)를 통해 송신될 수 있다.
샘플링 장치(104)는 2020년 5월 14일자로 "Systems and Devices for Characterization and Performance Analysis of Pixel-Based Sequencing"라는 명칭으로 출원된 미국 정규 특허 출원 제16/874,599호(대리인 문서 번호 ILLM 1011-4/IP-1750-US)와 관련하여 더 상세하게 논의되며, 이는 마치 본원에 완전히 기재된 것처럼 참조로 포함된다. 샘플링 장치(104)는 전술된 바와 같은 위의 구성 또는 용도로 제한되지 않는다. 대안적인 실시형태에서, 샘플링 장치(104)는 다른 형태를 취할 수 있다. 예를 들어, 샘플링 장치(104)는 플로우 셀에 결합되거나 내부에 반응 부위를 갖는 플로우 셀과 인터페이싱하도록 이동되는 CCD 카메라와 같은 CCD 디바이스를 포함할 수 있다.
도 2는 타일 내에 클러스터를 포함하는 플로우 셀(200)의 일 구현예를 도시한다. 플로우 셀(200)은 예를 들어 플로우 커버(136)가 없는 도 1의 플로우 셀(102)에 대응한다. 또한, 플로우 셀(200)의 묘사는 본질적으로 상징적이며, 플로우 셀(200)은 내부의 다양한 다른 구성요소를 예시하지 않고 내부의 다양한 레인 및 타일을 상징적으로 묘사한다. 도 2는 플로우 셀(200)의 평면도를 도시한다.
일 실시형태에서, 플로우 셀(200)은 레인(202a, 202b, …, 202P), 즉 P개의 레인과 같은 복수의 레인으로 분할 또는 구획화된다. 도 2의 예에서, 플로우 셀(200)은 8개의 레인, 즉 이 예에서 P = 8을 포함하는 것으로 예시되어 있지만, 플로우 셀 내의 레인의 수는 구현예에 따라 다르다.
일 실시형태에서, 개별 레인(202)은 "타일"(212)이라고 하는 비-중첩 영역으로 더 구획화된다. 예를 들어, 도 2는 예시적인 레인의 섹션(208)의 확대도를 도시한다. 섹션(208)은 복수의 타일(212)을 포함하는 것으로 예시되어 있다.
예에서, 각각의 레인(202)은 하나 이상의 열의 타일을 포함한다. 예를 들어, 도 2에서, 각 레인(202)은 확대된 섹션(208) 내에 예시된 바와 같이 2개의 대응하는 열의 타일(212)을 포함한다. 각 레인 내 타일의 각 열 내의 타일 수는 구현예에 따라 다르며, 일 예에서 각 레인 내 타일의 각 열에 50개의 타일, 60개의 타일, 100개의 타일 또는 다른 적절한 수의 타일이 있을 수 있다.
각 타일은 대응하는 복수의 클러스터를 포함한다. 서열분석 절차 동안, 클러스터 및 타일 상의 그들의 주변 배경이 이미지화된다. 예를 들어, 도 2는 예시적인 타일 내의 예시적인 클러스터(216)를 도시한다.
도 3은 8개의 레인이 있는 예시적인 Illumina GA-IIx™ 플로우 셀을 보여주고, 또한 하나의 타일과 그의 클러스터 및 이들 주변 배경을 확대한 것을 보여준다. 예를 들어, Illumina Genome Analyzer II에는 레인당 100개의 타일이 그리고 Illumina HiSeq2000에는 레인당 68개의 타일이 있다. 타일(212)은 수십만 내지 수백만 개의 클러스터를 보유한다. 도 3에서, 밝은 스폿으로 도시된 클러스터를 갖는 타일로부터 생성된 이미지가 308에 도시되어 있고(예를 들어, 308은 타일의 확대된 이미지 도면임), 예시적인 클러스터(304)가 표지되어 있다. 클러스터(304)는 템블릿 분자의 대략 1000개의 동일한 복제물을 포함하지만, 클러스터는 크기 및 형상이 다르다. 클러스터는, 서열분석 런 전에, 입력 라이브러리의 브리지 증폭에 의해 템플릿 분자로부터 성장된다. 증폭 및 클러스터 성장의 목적은 방출된 신호의 강도를 증가시키는 것인데, 이는 이미지화 디바이스가 단일 형광단을 신뢰성 있게 감지할 수 없기 때문이다. 그러나, 클러스터(304) 내의 DNA 단편들의 물리적 거리는 작고, 따라서 이미지화 디바이스는 단편들의 클러스터를 단일 스폿(304)으로서 인지한다.
클러스터 및 타일은 2020년 3월 20일에 "TRAINING DATA GENERATION FOR ARTIFICIAL INTELLIGENCE-BASED SEQUENCING"이라는 명칭으로 출원된 미국 정규 특허 출원 제16/825,987호(대리인 문서 번호 ILLM 1008-16/IP-1693-US)와 관련하여 더 자세히 논의된다.
도 4는 염기 호출 센서 출력(예를 들어, 도 1 참조)과 같은 서열분석 시스템으로부터의 센서 데이터의 분석을 위한 시스템의 단순화된 블록도이다. 도 4의 예에서, 시스템은 서열분석기(400) 및 구성 가능한 프로세서(450)를 포함한다. 구성 가능한 프로세서(450)는 중앙 처리 장치(CPU)(402)와 같은 호스트 프로세서에 의해 실행되는 런타임 프로그램과 협력하여 신경망 기반 염기 호출자를 실행할 수 있다. 서열분석기(400)는 염기 호출 센서 및 플로우 셀(401)(예를 들어, 도 1 내지 3과 관련하여 논의됨)을 포함한다. 플로우 셀은, 도 1 내지 3과 관련하여 논의된 바와 같이, 유전 물질의 클러스터가 유전 물질에서의 염기를 식별하기 위해 클러스터에서의 반응을 유발하는 데 사용되는 일련의 분석물 유동에 노출되는 하나 이상의 타일을 포함할 수 있다. 센서는 플로우 셀의 각 타일에서의 서열의 각 사이클에 대한 반응을 감지하여 타일 데이터를 제공한다. 이 기술의 예는 아래에서 더 자세히 설명된다. 유전자 서열분석은 데이터 집약적 동작이며, 이는 염기 호출 센서 데이터를, 염기 호출 동작 동안에 감지된 유전 물질의 각각의 클러스터에 대한 염기 호출의 서열로 변환한다.
이러한 예에서의 시스템은 런타임 프로그램을 실행시켜서 염기 호출 동작을 조정하는 CPU(402), 타일 데이터의 어레이의 서열을 저장하기 위한 메모리(403), 염기 호출 동작에 의해 생성되는 염기 호출 리드, 및 염기 호출 동작에서 사용되는 다른 정보를 포함한다. 또한, 이러한 예시에서, 시스템은 구성 파일(또는 파일들), 예컨대 FPGA 비트 파일, 및 구성가능한 프로세서(450)를 구성 및 재구성하기 위해 그리고 신경망을 실행하기 위해 사용되는 신경망에 대한 모델 파라미터를 저장할 메모리(404)를 포함한다. 서열분석기(400)는 구성가능한 프로세서를 구성하기 위한 프로그램, 및 일부 실시형태에서, 신경망을 실행하기 위한 재구성가능한 프로세서를 포함할 수 있다.
서열분석기(400)는 버스(405)에 의해 구성가능한 프로세서(450)에 커플링된다. 버스(405)는, 하나의 예에서 PCI-SIG(PCI Special Interest Group)에 의해 현재 유지되고 개발되는 PCIe(Peripheral Component Interconnect Express) 표준과 호환가능한 버스 기술과 같은 고처리량 기술을 사용하여 구현될 수 있다. 또한, 이러한 예에서, 메모리(460)는 버스(461)에 의해 구성가능한 프로세서(450)에 커플링된다. 메모리(460)는 구성가능한 프로세서(450)를 갖는 회로 보드 상에 배치된 온-보드 메모리일 수 있다. 메모리(460)는 염기 호출 동작에서 사용되는 데이터를 작동시키는 구성가능한 프로세서(450)에 의한 고속 액세스를 위해 사용된다. 버스(461)는, 또한, PCIe 표준과 호환가능한 버스 기술과 같은 고처리량 기술을 사용하여 구현될 수 있다.
필드 프로그래밍가능 게이트 어레이(FPGA), 코어스-그레인드 재구성가능한 어레이(CGRA), 및 다른 구성가능한 그리고 재구성가능한 디바이스를 포함한 구성가능한 프로세서는, 컴퓨터 프로그램을 실행하는 범용 프로세서를 사용하여 달성될 수 있었던 것보다 더 효율적이거나 더 빠르게 다양한 기능을 구현하도록 구성될 수 있다. 구성가능한 프로세서의 구성은, 때때로 비트스트림 또는 비트 파일로 지칭되는 구성 파일을 생성하기 위한 기능 설명을 컴파일하는 것, 및 구성 파일을 프로세서 상의 구성가능한 요소에 분배하는 것을 수반한다.
구성 파일은, 데이터 흐름 패턴, 분산형 메모리 및 다른 온-칩 메모리 리소스의 사용, 룩업 테이블 콘텐츠, 승산-및-누산 유닛과 같은 구성가능한 실행 유닛 및 구성가능한 논리 블록의 동작, 구성가능한 상호접속부, 및 구성가능한 어레이의 다른 요소를 설정하도록 회로를 구성함으로써, 구성가능한 프로세서에 의해 실행될 논리 기능을 정의한다. 구성가능한 프로세서는, 구성 파일이 필드 내에서 변경될 수 있는 경우, 로딩된 구성 파일을 변경함으로써 재구성가능하다. 예를 들어, 구성 파일은, 구성가능한 또는 재구성가능한 프로세서 상의 구성가능한 요소의 어레이 사이에 분포되는, 휘발성 SRAM 요소에, 비휘발성 판독-기록 메모리 요소에, 그리고 이들의 조합에 저장될 수 있다. 다양한 상업적으로 입수가능한 구성가능한 프로세서가 본원에 기술된 바와 같은 염기 호출 동작에 사용하는 데 적합하다. 예로는 Xilinx Alveo™ U200, Xilinx Alveo™ U250, Xilinx Alveo™ U280, Intel/Altera Stratix™ GX2800, Intel/Altera Stratix™ GX2800, 및 Intel Stratix™ GX10M과 같은 상업적으로 입수 가능한 제품을 포함한다. 일부 예에서, 호스트 CPU는 구성가능한 프로세서와 동일한 집적 회로 상에서 구현될 수 있다.
본원에 설명된 실시형태는 구성 가능한 프로세서(450)를 사용하여 다중 사이클 신경망을 구현한다. 구성 가능한 프로세서를 위한 구성 파일은 고수준 설명 언어(HDL: high-level description language) 또는 레지스터 전송 수준(RTL: register transfer level) 언어 규격을 사용하여 실행될 로직 함수를 특정함으로써 구현될 수 있다. 규격은 구성 파일을 생성하기 위해, 선택된 구성가능한 프로세서에 대해 설계된 리소스를 사용하여 컴파일될 수 있다. 구성가능한 프로세서가 아닐 수 있는 ASIC에 대한 설계를 생성할 목적으로 동일한 또는 유사한 규격이 컴파일될 수 있다.
따라서 본원에 설명된 모든 실시형태에서 구성 가능한 프로세서에 대한 대안은, 본원에 기술된 바와 같은 신경망 기반 염기 호출 동작을 실행시키도록 구성된, 주문형 ASIC 또는 특수 목적 집적 회로 또는 집적 회로들의 세트를 포함하는 구성된 프로세서, 또는 SOC(system-on-a-chip) 디바이스를 포함한다.
일반적으로, 신경망의 런을 실행하도록 구성된 바와 같은, 본원에 기술된 구성가능한 프로세서 및 구성된 프로세서는 본원에서 신경망 프로세서로 지칭된다.
구성 가능한 프로세서(450)는 이 예에서 CPU(402)에 의해 실행된 프로그램을 사용하여 로딩된 구성 파일에 의해 구성되거나, 염기 호출 함수를 실행하기 위해 구성 가능한 프로세서(454) 상의 구성 가능한 요소의 어레이를 구성하는 다른 소스에 의해 구성된다. 이러한 예에서, 구성은, 버스(405, 461)에 커플링되고 염기 호출 동작에 사용되는 요소들 사이에서 데이터 및 제어 파라미터를 분배하기 위한 기능을 실행하는 데이터 흐름 로직(451)을 포함한다.
또한, 구성 가능한 프로세서(450)는 다중 사이클 신경망을 실행하기 위한 염기 호출 실행 로직(452)으로 구성된다. 로직(452)은 복수의 다중 사이클 실행 클러스터(예를 들어, 453)를 포함하며, 이는 이 예에서 다중 사이클 클러스터 1 내지 다중 사이클 클러스터 X를 포함한다. 다중 사이클 클러스터의 수는 원하는 작업 처리량과 구성 가능한 프로세서의 이용 가능한 리소스를 포함하는 트레이드-오프에 따라 선택될 수 있다.
다중-사이클 클러스터는 구성가능한 프로세서 상의 구성가능한 상호접속부 및 메모리 리소스를 사용하여 구현되는 데이터 흐름 경로(454)에 의해 데이터 흐름 로직(451)에 커플링된다. 또한, 다중-사이클 클러스터는, 예를 들어 구성가능한 프로세서 상의 구성가능한 상호접속부 및 메모리 리소스를 사용하여 구현된 제어 경로(455)에 의해 데이터 흐름 로직(451)에 커플링되며, 이들은 이용가능한 클러스터를 나타내는 제어 신호, 신경망의 런의 실행을 위한 입력 유닛을 이용가능한 실행 클러스터에 제공하기 위한 준비(readiness), 신경망에 대한 훈련된 파라미터를 제공하기 위한 준비, 염기 호출 분류 데이터의 출력 패치를 제공하기 위한 준비, 및 신경망의 실행을 위해 사용되는 다른 제어 데이터를 제공한다.
구성 가능한 프로세서는 훈련된 파라미터를 사용하여 다중 사이클 신경망의 런을 실행하여 염기 유동 동작의 감지 사이클에 대한 분류 데이터를 생성하도록 구성된다. 신경망의 런이 실행되어, 염기 호출 동작의 대상 감지 사이클에 대한 분류 데이터를 생성한다. 신경망의 런은 N개의 감지 사이클의 각자의 감지 사이클로부터 타일 데이터의 N개의 어레이를 포함하는 서열로 동작하며, 여기서 N개의 감지 사이클은 본원에 기술된 예에서 시간 서열 내의 동작마다 하나의 염기 포지션에 대한 상이한 염기 호출 동작을 위한 센서 데이터를 제공한다. 선택적으로, N개의 감지 사이클 중 일부는 실행되는 특정 신경망 모델에 따라 필요한 경우 서열 이외일 수 있다. 수 N은 1 초과의 임의의 수일 수 있다. 본원에 기술된 일부 예에서, N개의 감지 사이클의 감지 사이클은 시간 서열에서 대상 감지 사이클에 선행하는 적어도 하나의 감지 사이클 및 대상 사이클에 뒤이은 적어도 하나의 감지 사이클에 대한 감지 사이클의 세트를 표현한다. 수 N이 5 이상의 정수인 예가 본원에 기술된다.
데이터 흐름 로직(451)은 N개의 어레이의 공간적으로 정렬된 패치에 대해 타일 데이터를 포함하는 소정의 런에 대한 입력 유닛을 사용하여, 신경망의 런을 위한 타일 데이터 및 모델 파라미터의 적어도 일부의 훈련된 파라미터를 메모리(460)로부터 구성가능한 프로세서로 이동시키도록 구성된다. 입력 유닛은 하나의 DMA 동작에서 직접 메모리 액세스 동작에 의해 이동될 수 있거나, 또는 더 작은 유닛에서, 전개된 신경망의 실행과 협력하여 이용가능한 시간 슬롯 동안 이동될 수 있다.
본원에 기술된 바와 같은 감지 사이클에 대한 타일 데이터는 하나 이상의 특징을 갖는 센서 데이터의 어레이를 포함할 수 있다. 예를 들어, 센서 데이터는 DNA, RNA, 또는 다른 유전 물질의 유전자 서열 내의 염기 포지션에서 4개의 염기 중 하나를 식별하기 위해 분석되는 2개의 이미지를 포함할 수 있다. 타일 데이터는, 또한, 이미지 및 센서에 관한 메타데이터를 포함할 수 있다. 예를 들어, 염기 호출 동작의 실시형태에서, 타일 데이터는 타일 상의 유전 물질의 클러스터의 중심으로부터 센서 데이터의 어레이 내의 각각의 픽셀의 거리를 나타내는 중심 정보로부터의 거리와 같은, 클러스터와 이미지의 정렬에 관한 정보를 포함할 수 있다.
아래에 설명된 바와 같이 다중 사이클 신경망을 실행하는 동안, 타일 데이터는 또한 중간 데이터로서 지칭되는, 다중 사이클 신경망을 실행하는 동안 생성된 데이터를 포함할 수 있으며, 이는 다중 사이클 신경망의 런 동안 재계산되기보다는 재사용될 수 있다. 예를 들어, 다중 사이클 신경망의 실행 동안, 데이터 흐름 로직은 타일 데이터 어레이의 소정의 패치에 대한 센서 데이터 대신에 메모리(460)에 중간 데이터를 기록할 수 있다. 이와 같은 실시형태는 아래에서 더 자세히 설명된다.
도시된 바와 같이, 염기 호출 동작의 감지 사이클로부터 타일에 대한 센서 데이터를 포함하는 타일 데이터를 저장하는 런타임 프로그램에 의해 액세스가능한 메모리(예컨대, 460)를 포함하는, 염기 호출 센서 출력의 분석을 위한 시스템이 기술된다. 또한, 시스템은 메모리에 액세스하는 구성가능한 프로세서(450)와 같은 신경망 프로세서를 포함한다. 신경망 프로세서는 감지 사이클에 대한 분류 데이터를 생성하기 위해 훈련된 파라미터를 사용하여 신경망의 런을 실행하도록 구성된다. 본원에 기술된 바와 같이, 대상 사이클에 대한 분류 데이터를 생성하기 위해, 대상 사이클을 포함하는 N개의 감지 사이클의 각자의 감지 사이클로부터의 타일 데이터의 N개의 어레이의 서열 상에서 신경망의 런이 동작하고 있다. 데이터 흐름 로직(451)은 N개의 감지 사이클의 각자의 감지 사이클로부터 N개의 어레이의 공간적으로 정렬된 패치에 대한 데이터를 포함하는 입력 유닛을 사용하여 신경망의 런을 위해 타일 데이터 및 훈련된 파라미터를 메모리로부터 신경망 프로세서로 이동시키도록 제공된다.
또한, 신경망 프로세서가 메모리에 액세스하고 복수의 실행 클러스터를 포함하는 시스템이 기술되는데, 복수의 실행 클러스터 중의 실행 로직 클러스터는 신경망을 실행시키도록 구성된다. 데이터 흐름 로직은 메모리 및 복수의 실행 클러스터 중의 실행 클러스터에 액세스하여, 타일 데이터의 입력 유닛을 복수의 실행 클러스터 중 이용가능한 실행 클러스터에 제공하고 - 입력 유닛은 대상 감지 사이클을 포함하는 각자의 감지 사이클로부터 타일 데이터의 어레이의 N개의 공간적으로 정렬된 패치를 포함함 -, 실행 클러스터가 N개의 공간적으로 정렬된 패치를 신경망에 적용하여 대상 감지 사이클의 공간적으로 정렬된 패치에 대한 분류 데이터의 출력 패치를 생성하게 하며, 여기서 N은 1 초과이다.
도 5는 호스트 프로세서에 의해 실행되는 런타임 프로그램의 기능을 포함한 염기 호출 동작의 양태를 보여주는 단순화된 도면이다. 이러한 도면에서, 플로우 셀로부터의 이미지 센서의 출력(도 1-2에 예시된 것과 같은 것)은 라인(500) 상에서 이미지 처리 스레드(501)에 제공되는데, 이는 개별 타일에 대한 센서 데이터 배열에서 재샘플링, 정렬 및 배열과 같은 이미지에 대한 프로세스를 수행할 수 있고, 플로우 셀 내의 각각의 타일에 대한 타일 클러스터 마스크를 계산하는 프로세스에 의해 사용될 수 있으며, 이는 플로우 셀의 대응하는 타일 상의 유전 물질의 클러스터에 대응하는 센서 데이터의 어레이 내의 픽셀을 식별한다. 클러스터 마스크를 계산하기 위해, 하나의 예시적 알고리즘은 소프트맥스(softmax) 출력에서 유도된 메트릭을 사용하여 초기 서열분석 사이클에서 신뢰할 수 없는 클러스터를 감지하는 프로세스를 기반으로 하며, 그 다음 그들 웰/클러스터로부터의 데이터는 폐기되고 출력 데이터는 그들 클러스터에 대해 생성되지 않는다. 예를 들어, 프로세스는 처음 N1(예를 들어, 25)개의 염기 호출 동안 높은 신뢰성을 갖는 클러스터를 식별하고 나머지는 거부할 수 있다. 거부된 클러스터는 다클론성이거나 강도가 매우 약하거나 기점(fiducial)에 의해 가려질 수 있다. 이 절차는 호스트 CPU에서 수행될 수 있다. 대안적인 구현예에서, 이 정보는 CPU로 다시 전달되는 필요한 관심 클러스터를 식별하는 데 잠재적으로 사용되어 중간 데이터에 필요한 스토리지를 제한한다.
이미지 처리 스레드(501)의 출력은 라인(502) 상에서 CPU 내의 디스패치 로직(510)에 제공되는데, 이는 염기 호출 동작의 상태에 따라, 도 4의 구성가능한 프로세서와 같은, 신경망 프로세서 하드웨어(520)로의 고속 버스(503) 상에서 또는 고속 버스(505) 상에서 데이터 캐쉬(504)로 타일 데이터의 어레이를 라우팅한다. 하드웨어(520)는 신경망에 의해 출력된 분류 데이터를 디스패치 로직(510)에 반환하는데, 이는 데이터 캐시(504)로, 또는 라인(511) 상에서, 분류 데이터를 사용하여 염기 호출 및 품질 점수 계산을 수행하는 스레드(502)로 정보를 전달하고, 염기 호출 리드에 대한 표준 포맷으로 데이터를 배열할 수 있다. 염기 호출 및 품질 점수 계산을 수행하는 스레드(502)의 출력은, 라인(512) 상에서, 염기 호출 리드를 집계하고, 데이터 압축과 같은 다른 동작을 수행하고, 고객에 의한 활용을 위해, 생성된 염기 호출 출력을 특정된 목적지에 기록하는 스레드(503)로 제공된다.
일부 실시형태에서, 호스트는 신경망의 지원 시에 하드웨어(520)의 출력의 최종 처리를 수행하는 스레드(도시되지 않음)를 포함할 수 있다. 예를 들어, 하드웨어(520)는 다중 클러스터 신경망의 최종 층으로부터의 분류 데이터의 출력을 제공할 수 있다. 호스트 프로세서는 염기 호출 및 품질 점수 스레드(502)에 의해 사용하기 위한 데이터를 구성하기 위해 분류 데이터에 걸쳐, 소프트맥스 함수와 같은 출력 활성화 함수를 실행할 수 있다. 또한, 호스트 프로세서는 하드웨어(520)에 대한 입력에 앞서 타일 데이터의 재샘플링, 배치 정규화 또는 기타 조정과 같은 입력 동작(미도시)을 실행할 수 있다.
도 6은 도 4의 것과 같은 구성가능한 프로세서의 구성의 단순화된 도면이다. 도 6에서, 구성가능한 프로세서는 복수의 고속 PCIe 인터페이스를 갖는 FPGA를 포함한다. FPGA는 도 1을 참조하여 기술된 데이터 흐름 로직을 포함하는 래퍼(wrapper)(600)를 갖도록 구성된다. 래퍼(600)는 CPU 통신 링크(609)를 통해 CPU에서의 런타임 프로그램과의 협력 및 인터페이스를 관리하고, DRAM 통신 링크(610)를 통해 온-보드 DRAM(602)(예컨대, 메모리(460))과의 통신을 관리한다. 래퍼(600) 내의 데이터 흐름 로직은, N개의 사이클 동안 온-보드 DRAM(602) 상에서 타일 데이터의 어레이를 클러스터(601)로 순회시킴으로써 검색된 패치 데이터를 제공하고, 온-보드 DRAM(602)으로 다시 전달하기 위해 클러스터(601)로부터 프로세스 데이터(615)를 검색한다. 래퍼(600)는, 또한 타일 데이터의 입력 어레이 및 분류 데이터의 출력 패치 둘 모두에 대해, 온-보드 DRAM(602)과 호스트 메모리 사이에서의 데이터의 전송을 관리한다. 래퍼는 라인(613) 상의 패치 데이터를 할당된 클러스터(601)로 전송한다. 래퍼는 라인(612) 상의 가중치 및 바이어스와 같은 훈련된 파라미터를 온-보드 DRAM(602)으로부터 검색된 클러스터(601)에 제공한다. 래퍼는 라인(611) 상의 구성 및 제어 데이터를, CPU 통신 링크(609)를 통해 호스트 상의 런타임 프로그램으로부터 제공되거나 그에 응답하여 생성되는 클러스터(601)에 제공한다. 클러스터는, 또한, 라인(616) 상의 상태 신호를 래퍼(600)에 제공할 수 있는데, 이들은 타일 데이터의 어레이의 순회를 관리하여 공간적으로 정렬된 패치 데이터를 제공하기 위해 그리고 클러스터(601)의 리소스를 사용하여 패치 데이터에 걸쳐서 다중-사이클 신경망을 실행하기 위해 호스트로부터의 제어 신호와 협력하여 사용된다.
위에서 언급된 바와 같이, 타일 데이터의 다수의 패치 중 대응하는 패치 상에서 실행하기 위해 구성된, 래퍼(600)에 의해 관리되는 단일의 구성가능한 프로세서 상에 다수의 클러스터가 있을 수 있다. 각각의 클러스터는 본원에 기술된 다수의 감지 사이클의 타일 데이터를 사용하여 대상 감지 사이클에서 염기 호출에 대한 분류 데이터를 제공하도록 구성될 수 있다.
시스템의 예에서, 필터 가중치 및 바이어스와 같은 커널 데이터를 포함하는 모델 데이터가 호스트 CPU로부터 구성가능한 프로세서로 전송되어, 모델이 사이클 수의 함수로서 업데이트될 수 있게 할 수 있다. 염기 호출 동작은, 대표적인 예의 경우에, 대략 수백개의 감지 사이클을 포함할 수 있다. 염기 호출 동작은, 일부 실시형태에서, 페어드 엔드 리드(paired end read)를 포함할 수 있다. 예를 들어, 모델 훈련된 파라미터는 20개의 사이클(또는 다른 수의 사이클)마다 1회, 또는 특정 시스템 및 신경망 모델에 대해 구현되는 업데이트 패턴에 따라 업데이트될 수 있다. 타일 상의 유전 클러스터 내의 소정의 스트링에 대한 서열이 제1 말단부로부터 스트링 아래로(또는 위로) 연장되는 제1 부분, 및 제2 말단부로부터 스트링 위로(또는 아래로) 연장되는 제2 부분을 포함하는 페어드 엔드 리드를 포함하는 일부 실시형태에서, 훈련된 파라미터는 제1 부분으로부터 제2 부분으로의 전이 시에 업데이트될 수 있다.
일부 예에서, 타일에 대한 감지 데이터의 다수의 사이클 동안의 이미지 데이터는 CPU로부터 래퍼(600)로 전송될 수 있다. 래퍼(600)는, 선택적으로, 감지 데이터의 일부 사전처리 및 변환을 행할 수 있고, 정보를 온-보드 DRAM(602)에 기록할 수 있다. 각각의 감지 사이클에 대한 입력 타일 데이터는, 타일당 감지 사이클당 4000 x 3000개 정도 또는 그 이상의 픽셀들 - 2개의 특징이 타일의 2개의 이미지의 컬러를 표현함 -, 및 픽셀당 특징당 1 또는 2 바이트를 포함하는 센서 데이터의 어레이를 포함할 수 있다. 수 N이 다중-사이클 신경망의 각각의 런에 사용될 3개의 감지 사이클인 실시형태의 경우, 다중-사이클 신경망의 각각의 런에 대한 타일 데이터의 어레이는 타일당 수백 메가바이트 정도를 소비할 수 있다. 시스템의 일부 실시형태에서, 타일 데이터는, 또한, 타일당 1회 저장된 DFC 데이터의 어레이, 또는 센서 데이터 및 타일에 관한 다른 유형의 메타데이터를 포함한다.
동작 시에, 다중-사이클 클러스터가 이용가능할 때, 래퍼는 클러스터에 패치를 할당한다. 래퍼는 타일의 순회에서 타일 데이터의 차기 패치를 페치(fetch)하고, 적절한 제어 및 구성 정보와 함께 그것을 할당된 클러스터로 전송한다. 클러스터는, 적소에 작동 중인, 일부 시스템에서 다수의 사이클로부터의 패치를 포함하는 데이터의 패치, 및 처리의 현재 패치가 다양한 실시형태에서 핑퐁 버퍼 기법 또는 래스터 스캐닝 기법을 사용하여 마무리될 때 작동되어야 하는 데이터의 패치를 보유하기에 충분한 메모리를 구성가능한 프로세서 상에 갖도록 구성될 수 있다.
할당된 클러스터가 현재 패치에 대한 신경망의 그의 런을 완료하고 출력 패치를 생성할 때, 그것은 래퍼를 시그널링할 것이다. 래퍼는 할당된 클러스터로부터의 출력 패치를 판독할 것이거나, 또는 대안으로, 할당된 클러스터는 데이터를 래퍼로 푸시아웃할 것이다. 이어서, 래퍼는 DRAM(602) 내의 처리된 타일에 대한 출력 패치를 어셈블할 것이다. 전체 타일의 처리가 완료되었고, 데이터의 출력 패치가 DRAM으로 전송되었을 때, 래퍼는 타일에 대한 처리된 출력 어레이를 지정된 포맷으로 호스트/CPU로 다시 전송한다. 일부 실시형태에서, 온-보드 DRAM(602)은 래퍼(600) 내의 메모리 관리 로직에 의해 관리된다. 런타임 프로그램은, 실시간 분석을 제공하기 위해 연속적인 흐름 중 런에서의 모든 사이클에 대한 타일 데이터의 모든 어레이의 분석을 완료하도록 서열분석 동작을 제어할 수 있다.
도 7은 본원에 설명된 시스템을 사용하여 실행될 수 있는 다중 사이클 신경망 모델의 도면이다. 도 7에 도시된 예는 5사이클 입력, 1사이클 출력 신경망으로 지칭될 수 있다. 다중 사이클 신경망 모델에 대한 입력은 소정의 타일의 5개 감지 사이클의 타일 데이터 어레이로부터 5개의 공간적으로 정렬된 패치(예를 들어, 700)를 포함한다. 공간적으로 정렬된 패치는 세트의 다른 패치와 동일한 정렬된 행 및 열 차원(x,y)을 가져, 정보는 서열 사이클에서 타일의 동일한 유전 물질 클러스터와 관련된다. 이 예에서 대상 패치는 사이클 K에 대한 타일 데이터 배열로부터의 패치이다. 5개의 공간적으로 정렬된 패치 세트는 대상 패치보다 2사이클 선행하는 사이클 K-2로부터의 패치, 대상 패치보다 1사이클 선행하는 사이클 K-1로부터의 패치, 대상 사이클의 패치보다 1사이클 다음의 사이클 K+1로부터의 패치, 대상 사이클의 패치보다 2사이클 다음의 사이클 K+2로부터의 패치를 포함한다.
모델은 각각의 입력 패치에 대한 신경망 층의 분리된 스택(701)을 포함한다. 따라서, 스택(701)은 사이클 K+2로부터 패치에 대한 타일 데이터를 입력으로서 수신하고, 스택(702, 703, 704 및 705)으로부터 분리되어 입력 데이터 또는 중간 데이터를 공유하지 않는다. 일부 실시형태에서, 모든 스택(710-705)은 동일한 모델 및 동일한 훈련된 파라미터를 가질 수 있다. 다른 실시형태에서, 모델 및 훈련된 파라미터는 상이한 스택에서 상이할 수 있다. 스택(702)은 사이클 K+1로부터 패치에 대한 타일 데이터를 입력으로서 수신한다. 스택(703)은 사이클 K로부터 패치에 대한 타일 데이터를 입력으로서 수신한다. 스택(704)은 사이클 K-1로부터 패치에 대한 타일 데이터를 입력으로서 수신한다. 스택(705)은 사이클 K-2로부터 패치에 대한 타일 데이터를 입력으로서 수신한다. 분리된 스택의 층은 각각 층에 대한 입력 데이터에 대해 복수의 필터를 포함하는 커널의 컨볼루션 연산을 실행한다. 위의 예에서와 같이, 패치(700)는 3개의 특징을 포함할 수 있다. 층(710)의 출력은 10 내지 20개의 특징과 같은 더 많은 특징을 포함할 수 있다. 마찬가지로, 층(711 내지 716) 각각의 출력은 특정 구현예에 적합한 임의의 수의 특징을 포함할 수 있다. 필터의 파라미터는 가중치 및 바이어스와 같은 신경망에 대한 훈련된 파라미터이다. 스택(701-705) 각각으로부터의 출력 특징 세트(중간 데이터)는 다중 사이클로부터의 중간 데이터가 조합되는 시간 조합 층의 역 계층(720)에 대한 입력으로서 제공된다. 예시된 예에서, 역 계층(720)은 3개의 조합 층(721, 722, 723) - 각각은 분리된 스택 중 3개로부터 중간 데이터를 수신함 -을 포함하는 제1 층, 및 3개의 시간 스택(721, 722, 723)으로부터 중간 데이터를 수신하는 하나의 조합 층(730)을 포함하는 최종 층을 포함한다.
최종 조합 층(730)의 출력은 사이클 K로부터 타일의 대응하는 패치에 위치한 클러스터에 대한 분류 데이터의 출력 패치이다. 출력 패치는 사이클 K에 대한 타일에 대한 출력 어레이 분류 데이터로 조립될 수 있다. 일부 실시형태에서, 출력 패치는 입력 패치와 상이한 크기 및 치수를 가질 수 있다. 일부 실시형태에서, 출력 패치는 클러스터 데이터를 선택하기 위해 호스트에 의해 필터링될 수 있는 픽셀별 데이터를 포함할 수 있다.
그 다음, 출력 분류 데이터는 특정 구현예에 따라 호스트에 의해 또는 구성 가능한 프로세서에서 선택적으로 실행되는 소프트맥스 함수(740)(또는 다른 출력 활성화 함수)에 적용될 수 있다. 소프트맥스와 상이한 출력 함수가 사용될 수 있다(예를 들어, 가장 큰 출력에 따라 염기 호출 출력 파라미터를 만든 다음, 컨텍스트/네트워크 출력을 사용하여 학습된 비선형 매핑을 사용하여 염기 품질을 제공함).
마지막으로, 소프트맥스 함수(740)의 출력은 사이클 K(750)에 대한 염기 호출 확률로서 제공될 수 있고 후속 처리에서 사용되도록 호스트 메모리에 저장될 수 있다. 다른 시스템은 출력 확률 계산을 위해 다른 함수, 예를 들어 다른 비선형 모델을 사용할 수 있다.
신경망은 하나의 감지 사이클의 시간 간격의 지속 시간 내에 또는 시간 간격의 지속 시간에 근접하여 하나의 타일 사이클의 평가를 완료하기 위해 복수의 실행 클러스터가 있는 구성 가능한 프로세서를 사용하여 구현되어, 실시간으로 출력 데이터를 효과적으로 제공할 수 있다. 데이터 흐름 로직은 타일 데이터의 입력 유닛 및 훈련된 파라미터를 실행 클러스터에 배포하고 메모리에서 집계를 위한 출력 패치를 배포하도록 구성할 수 있다.
도 7의 것과 같은 5-사이클 입력, 1-사이클 출력 신경망에 대한 데이터의 입력 유닛이 2-채널 센서 데이터를 이용한 염기 호출 동작을 위한 도 8a 및 도 8b를 참조하여 설명된다. 예를 들어, 유전자 서열에서의 소정의 염기에 대해, 염기 호출 작업은 2개의 분석물 유동 및 이미지와 같은 2개의 신호 채널을 생성하는 2개의 반응을 실행할 수 있으며, 이것은 처리되어 4개의 염기 중 어느 하나가 유전 물질의 각 클러스터에 대한 유전 서열에서의 현재 위치에 있는지를 식별할 수 있다. 다른 시스템에서, 감지 데이터의 상이한 수의 채널이 활용될 수 있다. 예를 들어, 1-채널 방식 및 시스템을 사용하여 염기 호출이 수행될 수 있다. 미국 특허출원공개 2013/0079232호의 통합 자료는 1-채널, 2-채널 또는 4-채널과 같은 다양한 수의 채널을 사용하는 염기 호출에 대해 논의한다.
도 8a는 5-사이클 입력, 1-사이클 출력 신경망을 실행하기 위해 사용되는 소정의 타일, 타일 M에 대한 5 사이클에 대한 타일 데이터 어레이를 보여준다. 이 예에서 5-사이클 입력 타일 데이터는 온보드 DRAM 또는 데이터 흐름 로직에 의해 액세스될 수 있는 시스템의 다른 메모리에 기록될 수 있으며, 사이클 K-2의 경우 채널 1을 위한 어레이 801과 채널 2를 위한 어레이 811, 사이클 K-1의 경우 채널 1을 위한 어레이 802와 채널 2를 위한 어레이 812, 사이클 K의 경우 채널 1을 위한 어레이 803과 채널 2를 위한 어레이 813, 사이클 K+1의 경우 채널 1을 위한 어레이 804와 채널 2를 위한 어레이 814, 사이클 K+2의 경우 채널 1을 위한 어레이 805와 채널 2를 위한 어레이 815를 포함한다. 또한 타일에 대한 메타데이터의 어레이(820)는 각 사이클과 함께 신경망에 대한 입력으로 사용하기 위해 포함된 메모리, 이 경우 DFC 파일에 한 번 기록될 수 있다.
비록 도 8a는 2-채널 염기 호출 동작을 논의하지만, 두 채널을 사용하는 것은 단지 예일 뿐이며, 염기 호출은 임의의 다른 적절한 수의 채널을 사용하여 수행될 수 있다. 예를 들어, 미국 특허출원공개 2013/0079232호의 통합 자료는 1-채널, 2-채널 또는 4-채널 또는 다른 적절한 수의 채널과 같은 다양한 수의 채널을 사용하는 염기 호출에 대해 논의한다.
데이터 흐름 로직은 입력 패치를 통해 신경망의 런을 실행하도록 구성된 각 실행 클러스터에 대한 타일 데이터 어레이의 공간적으로 정렬된 패치를 포함하는 타일 데이터의, 도 8b를 참조하여 이해될 수 있는 입력 유닛을 구성한다. 할당된 실행 클러스터에 대한 입력 단위는 5개의 입력 사이클에 대한 타일 데이터의 각 어레이(801-805, 811, 815, 820)로부터 공간적으로 정렬된 패치(예를 들어, 851, 852, 861, 862, 870)를 읽고, 이들을 할당된 실행 클러스터에 의해 사용되도록 구성된 구성 가능한 프로세서 상의 메모리에 데이터 경로(도식적으로 850)를 통해 전달함으로써 데이터 흐름 로직에 의해 구성된다. 할당된 실행 클러스터는 5-사이클 입력/1-사이클 출력 신경망의 런을 실행하고, 대상 사이클 K에서의 동일한 타일 패치에 대한 분류 데이터의 대상 사이클 K에 대한 출력 패치를 전달한다.
도 9는 도 7의 것과 같은 시스템(예를 들어, 701 및 720)에서 사용 가능한 신경망 스택의 단순화된 표현이다. 이 예에서, 신경망의 일부 함수(예를 들어, 900, 902)는 호스트에서 실행되고, 신경망의 다른 부분(예를 들어, 901)은 구성 가능한 프로세서에서 실행된다.
예에서, 제1 함수는 CPU 상에 형성된 배치 정규화(층 910)일 수 있다. 그러나, 다른 예에서, 함수로서의 배치 정규화는 하나 이상의 층으로 융합될 수 있고, 별도의 배치 정규화 층이 존재하지 않을 수 있다.
구성 가능한 프로세서에 대해 위에서 논의한 바와 같이, 다수의 분리된 공간 컨볼루션 층이 신경망의 컨볼루션 층의 제1 세트로서 실행된다. 이 예에서 컨볼루션 층의 제1 세트는 2D 컨볼루션을 공간적으로 적용한다.
도 9에 도시된 바와 같이, 각각의 스택에서 공간적으로 분리된 신경망 층의 수 L/2에 대해 제1 공간 컨볼루션(921)이 실행되고, 이어서 제2 공간 컨볼루션(922), 제3 공간 컨볼루션(923) 등이 뒤따르는 방식으로 실행된다(L은 도 7을 참조하여 설명된다). 923A에 표시된 바와 같이, 공간 층의 수는 임의의 실제 수일 수 있으며, 이는 문맥상 상이한 실시형태에서 몇 개 내지 20개 초과의 범위일 수 있다.
SP_CONV_ 0의 경우, 이 층에 대한 3개의 입력 채널이 있기 때문에 커널 가중치는 예를 들어 (1,6,6,3,L) 구조에 저장된다. 이 예에서, 이 구조에서의 "6"은 변환된 Winograd 도메인에 계수를 저장하기 때문이다(커널 크기는 공간 도메인에서 3x3이지만 변환 도메인에서 확장됨).
다른 SP_CONV 층의 경우, 이들 각 층에 대해 K(=L) 입력 및 출력이 있기 때문에 커널 가중치가 이 예에 대해 (1,6,6 L) 구조에 저장된다.
공간 층 스택의 출력은 FPGA에서 실행되는 컨볼루션 층(924, 925)을 포함하는 시간 층에 제공된다. 층(924, 925)은 사이클에 걸쳐 1D 컨볼루션을 적용하는 컨볼루션 층일 수 있다. 924A에 표시된 바와 같이, 시간 층의 수는 임의의 실제 수일 수 있으며, 이는 문맥상 상이한 실시형태에서 몇 개 내지 20개 초과의 범위일 수 있다.
제1 시간 층인 TEMP_CONV_0 층(824)은 도 7에 도시된 바와 같이 사이클 채널의 수를 5에서 3으로 줄인다. 제2 시간 층인 층(925)은 도 7에 도시된 바와 같이 사이클 채널의 수를 3에서 1로 줄이고 특징 맵의 수를 각 픽셀에 대해 4개의 출력으로 줄여, 각 염기 호출에서 신뢰도를 나타낸다.
시간 층의 출력은 출력 패치에 누적되고 호스트 CPU에 전달되어 예를 들어 소프트맥스 함수(930), 또는 염기 호출 확률을 정규화하는 다른 함수를 적용한다.
도 10은 염기 호출 동작을 위해 실행될 수 있는 10-입력, 6-출력 신경망을 보여주는 대안적인 구현을 예시한다. 이 예에서 사이클 0에서 9까지의 공간적으로 정렬된 입력 패치에 대한 타일 데이터는 사이클 9에 대한 스택(1001)과 같이 공간 층의 분리된 스택에 적용된다. 분리된 스택의 출력은 대상 사이클 2 내지 7에 대한 염기 호출 분류 데이터를 제공하는 출력(1035(2) 내지 1035(7))을 갖는 시간 스택(1020)의 역 계층 배열에 적용된다.
도 11은 상이한 서열분석 사이클에 대한 데이터의 처리를 분리하는 데 사용되는 신경망 기반 염기 호출자(예를 들어, 도 7)의 특화된 아키텍처의 일 구현예를 도시한다. 특화된 아키텍처를 사용하기 위한 동기가 먼저 기술된다.
신경망 기반 염기 호출자는 현재 서열분석 사이클, 하나 이상의 선행 서열분석 사이클, 및 하나 이상의 연속적 서열분석 사이클에 대한 데이터를 처리한다. 추가적인 서열분석 사이클에 대한 데이터는 서열-특이적 콘텍스트를 제공한다. 신경망 기반 염기 호출자는 훈련 동안 서열-특이적 콘텍스트를 학습하고, 그들을 염기 호출한다. 더욱이, 사전 및 사후 서열분석 사이클에 대한 데이터는 현재 서열분석 사이클에 대한 사전-페이징 및 페이징 신호의 2차 기여를 제공한다.
상이한 서열분석 사이클에서 그리고 상이한 이미지 채널에서 캡처된 이미지는 오정렬되고, 서로에 대해 잔차 등록 오류(residual registration error)를 갖는다. 이러한 오정렬을 처리하기 위해, 특화된 아키텍처는 서열분석 사이클들 사이의 정보를 혼합하지 않고 단지 한 서열분석 사이클 내에서의 정보만을 혼합하는 공간 컨볼루션 층을 포함한다.
공간 컨볼루션 층은, 컨볼루션의 "전용 비공유" 서열을 통해 복수의 서열분석 사이클 각각에 대해 데이터를 독립적으로 처리함으로써 분리를 조작하는 소위 "분리형 컨볼루션"을 사용한다. 분리형 컨볼루션은, 임의의 다른 서열분석 사이클의 데이터 및 생성된 특징 맵에 걸쳐서 컨볼루션하지 않고서, 단지 소정의 서열분석 사이클, 즉, 사이클내(intra-cycle) 전용의 데이터 및 생성된 특징 맵에 걸쳐서 컨볼루션한다.
예를 들어, 입력 데이터는 (i) 염기 호출될 현재(시간 t) 서열분석 사이클에 대한 현재 데이터, (ii) 이전(시간 t-1) 서열분석 사이클에 대한 이전 데이터, 및 (iii) 차기(시간 t+1) 서열분석 사이클에 대한 차기 데이터를 포함하는 것을 고려한다. 이어서, 특화된 아키텍처는 3개의 별개의 데이터 처리 파이프라인(또는 컨볼루션 파이프라인), 즉, 현재 데이터 처리 파이프라인, 이전 데이터 처리 파이프라인, 및 차기 데이터 처리 파이프라인을 개시한다. 현재 데이터 처리 파이프라인은 현재(시간 t) 서열분석 사이클에 대한 현재 데이터를 입력으로서 수신하고, 이를 복수의 공간 컨볼루션 층을 통해 독립적으로 처리하여 최종 공간 컨볼루션 층의 출력으로서 소위 "현재 공간적으로 컨볼루션된 표현"을 생성한다. 이전 데이터 처리 파이프라인은 이전(시간 t-1) 서열분석 사이클에 대한 이전 데이터를 입력으로서 수신하고, 이를 복수의 공간 컨볼루션 층을 통해 독립적으로 처리하여 최종 공간 컨볼루션 층의 출력으로서 소위 "이전에 공간적으로 컨볼루션된 표현"을 생성한다. 차기 데이터 처리 파이프라인은 차기(시간 t+1) 서열분석 사이클에 대한 차기 데이터를 입력으로서 수신하고, 이를 복수의 공간 컨볼루션 층을 통해 독립적으로 처리하여 최종 공간 컨볼루션 층의 출력으로서 소위 "차기의 공간적으로 컨볼루션된 표현"을 생성한다.
일부 구현예에서, 현재 파이프라인, 하나 이상의 이전 파이프라인(들), 및 하나 이상의 차기 처리 파이프라인(들)은 병렬로 실행된다.
일부 구현예에서, 공간 컨볼루션 층은 특화된 아키텍처 내의 공간 컨볼루션 네트워크(또는 서브네트워크)의 일부이다.
신경망 기반 염기 호출자는 서열분석 사이클들 사이의, 즉, 인터-사이클 정보를 혼합하는 시간 컨볼루션 층을 추가로 포함한다. 시간 컨볼루션 층은 공간 컨볼루션 네트워크로부터 그들의 입력을 수신하고, 각자의 데이터 처리 파이프라인에 대해 최종 공간 컨볼루션 층에 의해 생성되는 공간적으로 컨볼루션된 표현 상에서 동작한다.
시간 컨볼루션 층의 인터-사이클 동작가능성 자유는, 공간 컨볼루션 네트워크에 대한 입력으로서 공급되는 이미지 데이터 내에 존재하는 오정렬 속성이 공간 컨볼루션 층의 서열에 의해 수행되는 분리형 컨볼루션의 스택 또는 캐스케이드에 의해, 공간적으로 컨볼루션된 표현으로부터 제거된다(purged out)는 사실로부터 나온다.
시간 컨볼루션 층은 슬라이딩 윈도우 단위로 연속적 입력에서 입력 채널에 걸쳐서 그룹별로 컨볼루션하는 소위 "조합 컨볼루션"을 사용한다. 일 구현예에서, 연속적 입력은 이전 공간 컨볼루션 층 또는 이전 시간 컨볼루션 층에 의해 생성되는 연속적 출력이다.
일부 구현예에서, 시간 컨볼루션 층은 특화된 아키텍처 내의 시간 컨볼루션 네트워크(또는 서브네트워크)의 일부이다. 시간 컨볼루션 네트워크는 그의 입력을 공간 컨볼루션 네트워크로부터 수신한다. 일 구현예에서, 시간 컨볼루션 네트워크의 제1 시간 컨볼루션 층은 서열분석 사이클들 사이의 공간적으로 컨볼루션된 표현을 그룹별로 조합한다. 다른 구현예에서, 시간 컨볼루션 네트워크의 후속 시간 컨볼루션 층은 이전 시간 컨볼루션 층의 연속적 출력을 조합한다.
최종 시간 컨볼루션 층의 출력은 출력을 생성하는 출력 층에 공급된다. 출력은 하나 이상의 서열분석 사이클에서 하나 이상의 클러스터를 염기 호출하는 데 사용된다.
순방향 전파 동안, 특화된 아키텍처는 2개의 스테이지에서 복수의 입력으로부터의 정보를 처리한다. 제1 스테이지에서, 입력들 사이의 정보의 혼합을 방지하기 위해 분리된 컨볼루션이 사용된다. 제2 스테이지에서, 입력들 사이의 정보를 혼합하기 위해 조합 컨볼루션이 사용된다. 제2 스테이지로부터의 결과는 복수의 입력에 대한 단일 추론을 행하는 데 사용된다.
이는, 컨볼루션 층이 배치(batch) 내의 다수의 입력을 동시에 처리하고 배치 내의 각각의 입력에 대한 대응하는 추론을 행하는 배치 모드 기법과는 상이하다. 대조적으로, 특화된 아키텍처는 복수의 입력을 단일 추론에 매핑한다. 단일 추론은 4개의 염기(A, C, T, G) 각각에 대한 분류 점수와 같은 하나 초과의 예측을 포함할 수 있다.
일 구현예에서, 입력은, 각각의 입력이 상이한 시간 단계(time step)에서 생성되고 복수의 입력 채널을 갖도록 시간 순서화를 갖는다. 예를 들어, 복수의 입력은 하기 3개의 입력을 포함할 수 있다: 시간 단계(t)에서 현재 서열분석 사이클에 의해 생성되는 현재 입력, 시간 단계(t-1)에서 이전 서열분석 사이클에 의해 생성된 이전 입력, 및 시간 단계(t+1)에서 차기 서열분석 사이클에 의해 생성되는 차기 입력. 다른 구현예에서, 각각의 입력은 하나 이상의 이전 컨볼루션 층에 의해 현재, 이전, 및 차기 입력으로부터 각각 도출되고, k개의 특징 맵을 포함한다.
일 구현예에서, 각각의 입력은 다음의 5개의 입력 채널을 포함할 수 있다: 적색 이미지 채널(적색), 적색 거리 채널(황색), 녹색 이미지 채널(녹색), 녹색 거리 채널(보라색), 및 스케일링 채널(청색). 다른 구현예에서, 각각의 입력은 이전 컨볼루션 층에 의해 생성된 k개의 특징 맵을 포함할 수 있고, 각각의 특징 맵은 입력 채널로서 취급된다. 또 다른 예에서, 각각의 입력은 단지 하나의 채널, 2개의 채널, 또는 다른 상이한 수의 채널을 가질 수 있다. 미국 특허출원공개 2013/0079232호의 통합 자료는 1-채널, 2-채널 또는 4-채널과 같은 다양한 수의 채널을 사용하는 염기 호출에 대해 논의한다.
도 12는 분리형 층의 일 구현예를 도시하며, 이들 각각은 컨볼루션을 포함할 수 있다. 분리형 컨볼루션은 컨볼루션 필터를 각각의 입력에 병렬로 인가함으로써 복수의 입력을 한꺼번에 처리한다. 분리형 컨볼루션을 사용하면, 컨볼루션 필터는 동일한 입력에서 입력 채널을 조합하고, 상이한 입력에서 입력 채널을 조합하지 않는다. 일 구현예에서, 동일한 컨볼루션 필터가 병렬로 각각의 입력에 적용된다. 다른 구현예에서, 상이한 컨볼루션 필터가 병렬로 각각의 입력에 적용된다. 일부 구현예에서, 각각의 공간 컨볼루션 층은 병렬로 각각의 입력에 각각 적용되는 k개의 컨볼루션 필터의 뱅크를 포함한다.
도 13a는 조합 층의 일 구현예를 도시하며, 이들 각각은 컨볼루션을 포함할 수 있다. 도 13b는 조합 층의 다른 구현예를 도시하며, 이들 각각은 컨볼루션을 포함할 수 있다. 조합 컨볼루션은, 상이한 입력의 대응하는 입력 채널을 그룹화하고 각각의 그룹에 컨볼루션 필터를 적용함으로써, 상이한 입력들 사이의 정보를 혼합한다. 대응하는 입력 채널의 그룹화 및 컨볼루션 필터의 적용은 슬라이딩 윈도우 단위로 발생한다. 이러한 상황에서, 윈도우는, 예를 들어 2개의 연속적 서열분석 사이클에 대한 출력을 표현하는 2개 이상의 연속적 입력 채널에 걸쳐 있다. 윈도우가 슬라이딩 윈도우이기 때문에, 대부분의 입력 채널이 2개 이상의 윈도우에서 사용된다.
일부 구현예에서, 상이한 입력은 선행 공간 또는 시간 컨볼루션 층에 의해 생성된 출력 서열로부터 유래한다. 출력 서열에서, 상이한 입력은 연속적 출력으로서 배열되고, 따라서, 차기 시간 컨볼루션 층에 의해 연속적 입력으로서 보여 진다. 이어서, 차기 시간 컨볼루션 층에서, 조합 컨볼루션은 연속적 입력에서 대응하는 입력 채널의 그룹에 컨볼루션 필터를 적용한다.
일 구현예에서, 연속적 입력은, 시간 단계(t)에서 현재 서열분석 사이클에 의해 현재 입력이 생성되고, 시간 단계(t-1)에서 이전 서열분석 사이클에 의해 이전 입력이 생성되고, 시간 단계(t+1)에서 차기 서열분석 사이클에 의해 차기 입력이 생성되도록 시간 순서화를 갖는다. 다른 구현예에서, 각각의 연속적 입력은 하나 이상의 이전 컨볼루션 층에 의해 현재, 이전, 및 차기 입력으로부터 각각 도출되고, k개의 특징 맵을 포함한다.
일 구현예에서, 각각의 입력은 다음의 5개의 입력 채널을 포함할 수 있다: 적색 이미지 채널(적색), 적색 거리 채널(황색), 녹색 이미지 채널(녹색), 녹색 거리 채널(보라색), 및 스케일링 채널(청색). 다른 구현예에서, 각각의 입력은 이전 컨볼루션 층에 의해 생성된 k개의 특징 맵을 포함할 수 있고, 각각의 특징 맵은 입력 채널로서 취급된다.
컨볼루션 필터의 깊이 B는, 대응하는 입력 채널이 슬라이딩 윈도우 단위로 컨볼루션 필터에 의해 그룹별로 컨볼루션되는 연속적 입력의 수에 의존적이다. 다시 말하면, 깊이B는 각각의 슬라이딩 윈도우에서의 연속적 입력의 수 및 그룹 크기와 동일하다.
도 13a에서, 2개의 연속적 입력으로부터의 대응하는 입력 채널이 각각의 슬라이딩 윈도우에서 조합되고, 따라서 B = 2이다. 도 13b에서, 3개의 연속적 입력으로부터의 대응하는 입력 채널이 각각의 슬라이딩 윈도우에서 조합되고, 따라서 B = 3이다.
일 구현예에서, 슬라이딩 윈도우는 동일한 컨볼루션 필터를 공유한다. 다른 구현예에서, 상이한 컨볼루션 필터가 각각의 슬라이딩 윈도우에 사용된다. 일부 구현예에서, 각각의 시간 컨볼루션 층은 슬라이딩 윈도우 단위로 연속적 입력에 각각 적용되는 k개의 컨볼루션 필터의 뱅크를 포함한다.
도 4 내지 10 및 그 변형에 대한 추가적인 세부사항은 2021년 2월 15일에 "HARDWARE EXECUTION AND ACCELERATION OF ARTIFICIAL INTELLIGENCE-BASED BASE CALLER"라는 명칭으로 출원된 동시 계류 중인 미국 정규 특허 출원 제17/176,147호(대리인 문서 번호 ILLM 1020-2/IP-1866-US)에서 찾을 수 있으며, 이는 마치 본원에 완전히 기재된 것처럼 참조로 포함된다.
처음부터의 염기 호출자의 훈련
염기 호출 시스템은 염기 서열을 포함하는 미지 분석물의 염기 호출을 예측하도록 훈련된다. 예를 들어, 염기 호출 시스템은 미지 분석물의 염기에 대한 염기 호출을 예측하는 신경망을 포함하는 염기 호출자를 갖는다.
염기 호출 시스템의 신경망을 훈련하는 것은 어렵다. 이는 염기 호출 시스템을 훈련하는 데 사용될 표지된 훈련 데이터가 없는 경우 특히 그러하다. 일부 예에서, 실시간 분석(RTA) 시스템은 염기 호출 시스템을 훈련하는 데 사용될 수 있는 표지된 훈련 데이터를 생성하는 데 사용될 수 있다. RTA 시스템의 예는 2019년 5월 28일에 특허된 "Data processing system and methods"이라는 제목의 미국 특허 제10304189 B2호에서 논의되며, 이는 마치 본원에 완전히 기재된 것처럼 참조로 포함된다. 그러나, 시스템에 RTA가 없거나 RTA의 기능을 완전히 활용할 수 없는 경우, 염기 호출 시스템의 신경망 훈련을 위한 초기의 표지된 훈련 데이터를 생성하는 것은 어려울 것이다.
본 개시내용은 자체 학습되는 염기 호출자에 대해 논의하는데, 이는 초기 표지된 훈련 데이터를 생성하고, 표지된 훈련 데이터를 사용하여 자체적으로 훈련하고, 적어도 부분적으로 훈련된 염기 호출자를 사용하여 추가로 표지된 훈련 데이터를 생성하고, 추가로 표지된 훈련 데이터를 사용하여 자체적으로 훈련하고, 심지어 추가로 표지된 훈련 데이터를 생성하고, 이 프로세스를 반복적으로 반복하여 염기 호출자를 적절하게 훈련한다. 이 반복 훈련 및 표지된 훈련 데이터 생성 프로세스는 단일 올리고 스테이지, 다중 올리고 스테이지(예: 2-올리고 스테이지, 3-올리고 스테이지 등), 이어서 단순 유기체 스테이지, 복잡 유기체 스테이지, 추가 복잡 유기체 스테이지 등과 같은 상이한 스테이지를 포함한다. 따라서, 표지된 훈련 데이터의 훈련 및 생성에 사용되는 분석물의 복잡도 및/또는 길이는 염기 호출자의 기저 신경망 구성의 복잡도와 함께 반복에 따라 점진적이고 단조롭게 증가하는데, 이는 더 자세히 본원에서 차례로 논의될 것이다. 염기 호출자는 점진적으로 자체 훈련되기 때문에 이러한 시스템에서는 표지된 훈련 데이터를 생성하기 위해 RTA의 사용은 생략된다. 따라서, 본원에 논의된 염기 호출 시스템은 RTA를 포함할 수 있지만, 본원에 논의된 반복 훈련 프로세스는 염기 호출자를 훈련하기 위해 RTA에 추가적으로 또는 이의 대신에 사용될 수 있다.
도 14a는 알려진 합성 서열(1406)을 사용하여 신경망(NN) 구성(1415)을 포함하는 염기 호출자(1414)를 훈련하기 위해 단일 올리고 훈련 스테이지에서 작동하는 염기 호출 시스템(1400)을 예시한다.
도 14a의 예에서, 염기 호출 시스템(1400)은 도 4의 서열분석 기계(400)와 같은 서열분석기(1404)를 포함한다. 실시형태에서, 서열분석기(1404)는 도 1의 바이오센서(100)의 플로우 셀(102)과 유사한 플로우 셀(1405)을 포함하는 바이오센서(도 14a에는 예시되지 않음)를 포함한다.
도 2, 도 3 및 도 6과 관련하여 논의된 바와 같이, 플로우 셀(1405)은 복수의 클러스터(1407a,...,1407G)를 포함한다. 구체적으로, 일례에서, 플로우 셀(1405)은 복수의 타일 레인을 포함하며, 각 타일은 도 2와 관련하여 논의된 바와 같이 대응하는 복수의 클러스터를 포함한다. 도 14a에서, 플로우 셀(1405)은 일부 이러한 예시적인 클러스터(1407a,...,1407G)를 포함하는 것으로 예시되어 있다. 염기 호출 프로세스 동안에 특정 사이클에서의 모든 클러스터에 대한 염기 호출(A, C, G, T)이 예측된다.
전형적인 플로우 셀(1405)은 수천 또는 심지어 수백만 개의 클러스터와 같은 다중 클러스터(1407)를 포함할 수 있다. 단지 예로서, 본 개시내용의 범위를 제한하지 않고 본 개시내용의 원리의 일부를 설명하기 위해, 실제 플로우 셀은 훨씬 더 많은 수의 이러한 클러스터를 가질 가능성이 있지만 플로우 셀(1405)에는 10,000(또는 10k)개의 클러스터(1407)가 있다고 가정된다(즉, G = 10,000).
예에서, 알려진 합성 서열(1406)은 단일 올리고 훈련 스테이지 동안 염기 호출 작업을 위한 분석물로서 사용된다. 예에서, 공지된 합성 서열(1406)은 합성적으로 생성된 올리고머를 포함한다. 올리고뉴클레오티드는 올리고머 또는 간단히 올리고라고 지칭되는 짧은 DNA 또는 RNA 분자이며, 이는 유전자 검사, 연구 및 법의학 분야에서 폭넓게 응용된다. 일반적으로 실험실에서 고체상 화학 합성을 통해 만들어지는 이 작은 핵산 조각은 사용자가 지정한 서열을 갖는 단일 가닥 분자로서 제조될 수 있으며, 따라서 인공 유전자 합성, 중합효소 연쇄반응(PCR), DNA 서열분석, 분자 클로닝에 및 분자 프로브로서 필수적이다. 올리고뉴클레오티드의 길이는 일반적으로 "-량체(-mer)"로 표시된다. 예를 들어, 6개 뉴클레오티드(nt)의 올리고뉴클레오티드는 6량체이고, 25개 nt의 것은 보통 "25-량체"로 불린다. 하나의 예에서, 공지된 합성 서열(1406)을 포함하는 올리고머 또는 올리고의 크기는 임의의 적절한 개수의 염기(예: 8, 10, 12 이상)를 가질 수 있으며 구현에 따라 다르다. 단지 예로서, 도 14a는 8개 염기를 포함하는 공지된 합성 서열(1406)의 올리고를 예시한다.
도 14a에서 언급된 올리고는 올리고 #1(또는 올리고 번호 1)로 표시되어 있다. 도 14a에서는 단지 하나의 고유한 올리고가 사용되고 있으므로 동일한 올리고 #1이 개별 클러스터(1407)에 채워진다. 따라서 모든 10k 클러스터(1407)는 동일한 올리고 서열로 채워진다. 즉, 모든 클러스터(1407)에는 동일한 올리고의 복제물이 채워진다.
서열분석기(1404)는 복수의 클러스터(1407a,...,1407G) 중 대응하는 것에 대한 서열 신호(1412a,...,1412G)를 생성한다. 예를 들어, 클러스터(1407a)의 경우, 서열분석기(1404)는 일련의 서열분석 사이클 동안 클러스터(1407a) 내에 채워진 염기 서열을 나타내는 대응하는 서열 신호(1412a)를 생성한다. 유사하게, 클러스터(1407b)의 경우, 서열분석기(1404)는 일련의 서열분석 사이클 동안 클러스터(1407b) 내에 채워진 염기 서열 등을 나타내는 대응하는 서열 신호(1412b)를 생성한다. 염기 호출자(1414)는 서열 신호(1412)를 수신하고, 대응하는 염기를 호출(예를 들어, 예측)하는 것을 목표로 한다. 예에서, NN 구성(1415)(및 본원에서 나중에 논의되는 다양한 다른 NN 구성)을 포함하는 염기 호출자(1414)는 메모리(404, 403 및/또는 406)에 저장될 수 있고, 호스트 CPU(예컨대, 도 4의 CPU(402)) 및/또는 서열분석기(400)에 로컬인 구성 가능한 프로세서(들)(예컨대, 도 4의 구성 가능한 프로세서(450))에서 실행될 수 있다. 다른 예에서, 염기 호출자(1414)는 서열분석기(400)로부터 원격으로 저장될 수 있고(예를 들어, 클라우드에 저장됨) 원격 프로세서에 의해 실행될 수 있다(예를 들어, 클라우드에서 실행됨). 예를 들어, 염기 호출자(1414)의 원격 버전에서 염기 호출자(1414)는 서열 신호(1412)를 수신하고(예를 들어, 인터넷과 같은 네트워크를 통해) 염기 호출 동작을 수행하고 염기 호출 결과를 서열분석기(400)로 송신한다(예를 들어, 인터넷과 같은 네트워크를 통해).
예에서, 서열 신호(1412)는 본원에서 이전에 논의된 바와 같이 센서(예를 들어, 광 검출기, 포토다이오드)에 의해 캡처된 이미지를 포함한다. 따라서, 본원에서 논의된 예 및 실시형태 중 적어도 일부는 이미지를 포함하는 서열 신호를 처리하는 염기 호출자(예: 염기 호출자(1414))를 반복적으로 훈련시키는 것에 관한 것이다. 그러나, 본 개시내용의 원리는 특정 유형의 서열 신호를 수신하는 임의의 특정 유형의 염기 호출자를 훈련시키는 것으로 제한되지 않는다. 예를 들어, 본원의 본 개시내용에서 논의된 반복적 훈련은 훈련될 염기 호출자의 유형 또는 사용되는 서열 신호의 유형과 무관하다. 예를 들어, 본원의 본 개시내용에서 논의된 반복적 훈련은 이미지를 포함하지 않는 서열 신호에 기초하여 염기를 호출하도록 구성된 염기 호출자와 같은 임의의 다른 적절한 유형의 염기 호출자를 훈련시키는 데 사용될 수 있다. 예를 들어, 서열 신호는 전기 신호(예를 들어, 전압 신호, 전류 신호), pH 수준 등을 포함할 수 있고, 본원에 논의된 반복적 훈련 방법은 임의의 이러한 유형의 서열 신호를 수신하는 염기 호출자를 훈련시키는 데 적용될 수 있다.
신경망 구성(1415)은 상대적으로 더 적은 수의 층과 상대적으로 더 적은 수의 파라미터를 사용하는(예를 들어, 도 16a의 신경망 구성(1615)과 같은 본원에서 나중에 논의되는 일부 다른 신경망 구성과 비교하여) 컨볼루션 신경망(그 예는 도 7, 9, 10, 11, 12에 예시되어 있음)이며, 이는 본원에서 더 자세히 논의될 것이다.
신경망 구성(1415)을 포함하는 초기에 훈련되지 않은 염기 호출자(1414)는 각각 대응 서열 신호(1412a,...,1412G)에 기초하여 복수의 클러스터(1407a,...,1407G) 중 대응하는 것에 대한 염기 호출 서열(1418a,...,1418G)를 예측한다. 예를 들어, 클러스터(1407a)의 경우, 염기 호출자(1414)는 대응 서열 신호(1412a)에 기초하여 일련의 서열분석 사이클 동안 클러스터(1407a)에 대한 염기 호출을 포함하는 대응하는 염기 호출 서열(1418a)을 예측한다. 유사하게, 클러스터(1407b)의 경우, 염기 호출자(1414)는 대응 서열 신호(1412b)에 기초하여 일련의 서열분석 사이클 동안 클러스터(1407b)에 대한 염기 호출 등을 포함하는 대응하는 염기 호출 서열(1418b)을 예측한다. 따라서 G 염기 호출 서열(1418a, ..., 1418G)은 염기 호출자(1414)에 의해 예측된다.
올리고 #1에는 일반적으로 GA1, ..., GA8로 표시된 8개의 염기가 있다고 가정한다. 단지 예로서 본 개시내용의 범위를 제한하지 않고 올리고 #의 8개 염기는 A, C, T, T, G, C, A, C라고 가정한다. 처음에, 염기 호출자(1414)는 훈련되지 않았으므로, 염기 호출에서 오류가 발생할 가능성이 있다. 예를 들어, 예측된 염기 호출 서열(1418a)(일반적으로 Sa1, ..., Sa8로 표시됨)은 도 14a에 예시된 바와 같이 C, A, T, C, G, C, A, G이다. 따라서, 올리고 #1의 실측 염기 서열(1406)(즉, A, C, T, T, G, C, A, C)과 예측된 염기 서열(1418a)(즉, C, A, T, C, G, C, A, G)을 비교할 때, 염기 번호 1, 2, 4 및 8에 대한 염기 호출에 오류가 있다. 따라서, 도 14a에서, 올리고 #1의 실측 염기 서열(1406)과 예측된 염기 서열(1418a)이 동작(1413a)에서 비교되고, 이들 두 염기 서열 사이의 오류는 신경망 구성(1415)의 기울기 및 가중치를 업데이트하는 데 사용되는 것과 같이 신경망 구성(1415)을 훈련하기 위해 염기 호출자(1414)의 신경망 구성(1415)의 역방향 전달에서 사용된다(도 14a에서 기울기 업데이트(1417)로서 기호적으로 표시됨).
도 14a1은 예측된 염기 서열(1418a)과 올리고 #1의 실측 염기 서열(1406) 사이의 비교 동작을 더 자세히 예시한다. 예를 들어, 도 14a 및 도 14a1을 참조하면, 예측된 염기 서열(1418a)은 C, A, T, C, G, C, A, G이고, 올리고 #1의 실측 염기 서열(1406)은 A, C, T, T, G, C, A, C이다. 따라서, 올리고 #1의 실측 염기 서열(1406)(즉, A, C, T, T, G, C, A, C)과 예측된 염기 서열(1418a)(즉, C, A, T, C, G, C, A, G)을 비교할 때, 염기 번호 1, 2, 4 및 8에 대한 염기 호출에 오류가 있다. 예를 들어, 도 14a1에서 염기 번호 1에 대한 염기 호출에 대한 오류는 다음에 의해 주어진다: "C는 A여야 한다", 즉 염기 호출 C는 염기 호출 A여야 한다. 유사하게, 염기 번호 2에 대한 염기 호출에 대한 오류는 다음에 의해 주어진다: "A는 C여야 한다." 즉, 염기 호출 A는 염기 호출 B여야 한다, 등. 염기 번호 3, 5, 6 및 7에 대한 염기 호출에는 오류가 없다(도 14a1에서 "일치(오류 없음)"로서 예시됨). 따라서, 도 14a1에서, 비교 동안, 예측된 염기 호출 서열(1418a)의 각 염기 호출은 대응하는 실측 서열(예를 들어, 올리고 #1의 염기 서열(1406))의 대응하는 염기 호출과 비교되어, 도 14a1에 예시된 바와 같이 대응하는 비교 결과를 생성한다.
도 14a를 다시 참조하면, 염기 호출 시스템(1400)은 또한 매핑 로직(1416)을 포함하며, 그 기능은 본원에서 나중에 논의될 것이다. 예에서, 매핑 로직(1416)은 메모리(404, 403 및/또는 406)에 저장될 수 있고, 매핑 로직(1416)은 호스트 CPU(예컨대, 도 4의 CPU(402)) 및/또는 서열분석기(400)에 로컬인 구성 가능한 프로세서(들)(예컨대, 도 4의 구성 가능한 프로세서(450))에서 실행될 수 있다. 다른 예에서, 매핑 로직(1416)은 서열분석기(400)로부터 원격으로 저장될 수 있고(예를 들어, 클라우드에 저장됨) 원격 프로세서에 의해 실행될 수 있다(예를 들어, 클라우드에서 실행됨). 예를 들어, 매핑 로직(1416)의 원격 버전에서, 매핑 로직은 서열분석기(400)로부터 매핑될 데이터를 (예를 들어, 인터넷과 같은 네트워크를 통해) 수신하고, 매핑 동작을 수행하며, 매핑 결과를 (예를 들어, 인터넷과 같은 네트워크를 통해) 서열분석기(400)로 송신한다. 매핑 동작은 본원에서 나중에 더 자세히 논의된다.
도 14a 및 본 개시내용의 다양한 다른 도면, 예 및 실시형태는 염기 호출 서열을 예측하는 염기 호출자를 나타낸다. 염기 호출 서열의 그러한 예측의 다양한 예가 본원에서 논의되었다. 염기 호출 예측의 추가 예는 2021년 7월 1일에 출원된 "IMPROVED ARTIFICIAL INTELLIGENCE-BASED BASE CALLING OF INDEX SEQUENCES"라는 제목의 동시 계류 중인 미국 임시 특허 출원 제63/217,644호(대리인 문서 번호 ILLM 1046-1/IP-2135-PRV)에서 찾을 수 있으며, 이는 마치 본원에 완전히 기재된 것처럼 참조로 포함된다.
도 14b는 알려진 합성 서열(1406)을 사용하여 신경망 구성(1415)을 포함하는 염기 호출자(1414)를 훈련시키기 위해 단일 올리고 훈련 스테이지에서 동작하는 도 14a의 염기 호출 시스템(1400)의 추가 세부사항을 예시한다. 예를 들어, 도 14b는 염기 호출자(1414)를 훈련하기 위해 예측된 염기 호출 서열(1418a, ..., 1418G)을 사용하는 것을 예시한다. 예를 들어, 예측된 염기 호출 서열(1418a, ..., 1418G) 의 개별적인 것들은 올리고 #1의 실측 염기 서열(1406)과 비교되고(비교 동작 1413a, ..., 1413G 참조), 결과적인 오류는 신경망 구성(1415)의 역전파 섹션에 의한 신경망 구성(1415)(도 14a에서 기울기 업데이트(1417)로서 기호적으로 표시됨)의 기울기 업데이트 및 그에 따른 파라미터(예컨대, 가중치 및 바이어스)의 업데이트에 사용된다.
따라서, 신경망 구성(1415)은 신경망 구성(1415)에 의해 예측된 염기 호출 서열(1418), 및 올리고 #1의 실측 염기 서열(1406)을 사용하여 훈련되고 있다. 도 14a 및 14b와 관련하여 논의된 훈련은 단일 올리고를 사용하기 때문에, 이 훈련 스테이지는 "단일 올리고 훈련 스테이지"라고도 지칭되며, 도 14a 및 14b는 그에 따라 표지되었다.
예에서, 도 14a 및 14b의 프로세스는 반복적으로 반복될 수 있다. 예를 들어, 도 14a의 첫 번째 반복에서, NN 구성(1415)은 적어도 부분적으로 훈련된다. 적어도 부분적으로 훈련된 NN 구성(1415)은 두 번째 반복 동안 다시 사용되어 서열 신호(1412)로부터 예측된 염기 호출 서열을 재생성하고(예를 들어, 도 14a와 관련하여 논의된 바와 같이), 결과적인 예측된 염기 호출 서열은 다시 실측(1406)(즉, 올리고 #1)과 비교되어 NN 구성(1415)을 추가로 훈련하는 데 사용되는 오류 신호를 생성한다. 이 프로세스는 NN 구성(1415)이 적절하게 훈련될 때까지 여러 번 반복적으로 반복될 수 있다. 예에서, 이 프로세스는 특정 횟수만큼 반복적으로 반복될 수 있다. 다른 예에서, 이 프로세스는 다수의 오류가 포화될 때까지 반복적으로 반복될 수 있다(예를 들어, 연속 반복에서의 오류가 크게 감소하지 않음).
도 15a는 2개의 알려진 합성 서열(1501A 및 1501B)을 사용하여 표지된 훈련 데이터를 생성하기 위해 2-올리고 훈련 스테이지의 훈련 데이터 생성 페이즈에서 동작하는 도 14a의 염기 호출 시스템(1400)을 예시한다.
도 15a의 염기 호출 시스템(1400)은 도 14a의 염기 호출 시스템과 동일하며, 두 도면 모두에서 염기 호출 시스템(1400)은 신경망 구성(1415)을 사용한다. 또한, 2개의 상이한 독특한 올리고 서열(1501A 및 1501B)은 플로우 셀(1405)의 다양한 클러스터에 로딩된다. 단지 예로서, 본 개시내용의 범위를 제한하지 않고, 10,000개의 클러스터(1407) 중에서 약 5,200개의 클러스터가 올리고 서열(1501A)로 채워지고 나머지 4,800개의 클러스터가 올리고 서열(1501B)로 채워진다고 가정한다(다른 예에서는 2개의 올리고가 10,000개의 클러스터 간에 실질적으로 균등하게 분할될 수 있다).
서열분석기(1404)는 복수의 클러스터(1407a,...,1407G) 중 대응하는 것에 대한 서열 신호(1512a,...,1512G)를 생성한다. 예를 들어, 클러스터(1407a)의 경우, 서열분석기(1404)는 일련의 서열분석 사이클 동안 클러스터(1407a)에 대한 염기를 나타내는 대응하는 서열 신호(1512a)를 생성한다. 유사하게, 클러스터(1407b)의 경우, 서열분석기(1404)는 일련의 서열분석 사이클 동안 클러스터(1407b)에 대한 염기 등을 나타내는 대응하는 서열 신호(1512b)를 생성한다.
적어도 부분적으로 훈련된 신경망 구성(1415)(예를 들어, 도 14a 및 도 14b의 동작을 반복적으로 반복함으로써 훈련됨)을 포함하는 염기 호출자(1414)는 각각 대응하는 서열 신호(1512a, ..., 1512G)에 기초하여 복수의 클러스터(1407a, ..., 1407G) 중 대응하는 것에 대한 염기 호출 서열(1518a, ..., 1518G)을 예측한다. 예를 들어, 클러스터(1407a)의 경우, 염기 호출자(1414)는 대응 서열 신호(1512a)에 기초하여 일련의 서열분석 사이클 동안 클러스터(1407a)에 대한 염기 호출을 포함하는 대응하는 염기 호출 서열(1518a)을 예측한다. 유사하게, 클러스터(1407b)의 경우, 염기 호출자(1414)는 대응 서열 신호(1512b)에 기초하여 일련의 서열분석 사이클 동안 클러스터(1407b)에 대한 염기 호출 등을 포함하는 대응하는 염기 호출 서열(1518b)을 예측한다. 따라서 G 염기 호출 서열(1518a, ..., 1518G)은 염기 호출자(1414)에 의해 예측된다. 도 15a의 신경망 구성(1415)은 도 14a 및 14b와 관련하여 논의된 단일 올리고 훈련 스테이지의 반복 동안 더 일찍 훈련되었다는 점에 유의한다. 따라서, 예측된 염기 호출 서열(1518a, ..., 1518G)은 다소 정확하지만 매우 정확하지는 않다(염기 호출자(1414)가 완전히 훈련되지 않았기 때문에).
실시형태에서, 올리고 서열(1501A 및 1501B)은 두 올리고의 염기들 사이에 충분한 편집 거리를 갖도록 선택된다. 도 15b도 15c는 도 15a의 올리고 서열(1501A 및 1501B)의 2개의 대응하는 예시적 선택을 예시한다. 예를 들어, 도 15b에서 올리고(1501A)는 염기 A, C, T, T, G, C, A, C를 갖도록 선택되는 반면, 올리고(1501B)는 염기 C, C, T, A, G, C, A, C를 갖도록 선택된다. 따라서 두 올리고(1510A 및 1510B)에서의 첫 번째 염기와 네 번째 염기가 상이하여, 두 올리고(1510A 및 1510B) 사이에 2의 편집 거리가 초래된다.
대조적으로, 도 15b에서 올리고(1501A)는 염기 A, C, T, T, G, C, A, C를 갖도록 선택되는 반면, 올리고(1501B)는 염기 C, A, T, G, A, T, A, G를 갖도록 선택된다. 따라서, 도 15b의 예에서, 두 올리고(1510A 및 1510B)에서의 첫 번째, 두 번째, 네 번째, 다섯 번째, 여섯 번째 및 여덟 번째 염기가 상이하여, 두 올리고(1510A 및 1510B) 사이에 6의 편집 거리가 초래된다.
예에서, 2개의 올리고(1501A 및 1501B)는 2개의 올리고가 적어도 임계값 편집 거리만큼 분리되도록 선택된다. 단지 예로서, 임계값 편집 거리는 4개 염기, 5개 염기, 6개 염기, 7개 염기 또는 심지어 8개 염기일 수 있다. 따라서, 2개의 올리고(1501A 및 1501B)는 2개의 올리고가 서로 충분히 상이하도록 선택된다.
다시 도 15a를 참조하면, 염기 호출자(1414)는 어떤 올리고 서열이 어떤 클러스터에 채워지는지 알지 못한다. 따라서 염기 호출자(1414)는 알려진 올리고 서열(1501A, 1501B)과 다양한 클러스터 사이의 매핑을 알지 못한다. 예에서, 매핑 로직(1416)은 예측된 염기 호출 서열(1518)을 수신하고, 각각의 예측된 염기 호출 서열(1518)을 올리고(1501A) 또는 올리고(1501B)에 매핑하거나, 예측된 염기 호출 서열을 두 올리고 중 하나로 매핑하는 데 있어서 비결정적임을 선언한다. 도 15d는 (i) 예측된 염기 호출 서열을 올리고(1501A) 또는 올리고(1501B) 중 하나로 매핑하거나, (ii) 예측된 염기 호출 서열을 이 2개의 올리고 중 하나에 매핑하는 데 있어서 비결정적임을 선언하기 위한 매핑 작업 예를 예시한다.
예에서, 두 올리고 사이의 편집 거리가 멀수록 개별 예측을 두 올리고 중 하나에 매핑하는 것이 더 쉬워진다(또는 더 정확해진다). 예를 들어, 도 15b를 참조하면, 두 올리고(1501A, 1501B) 사이의 편집 거리가 단지 2이므로 두 올리고는 거의 유사하며, 두 올리고 중 어느 하나에 염기 호출 예측을 매핑하는 것이 상대적으로 어려울 수 있다. 그러나, 도 15c에서의 두 올리고(1501A와 1501B) 사이의 편집 거리는 6이므로, 두 올리고는 매우 다르며 두 올리고 중 하나에 예측을 매핑하는 것이 상대적으로 쉬울 수 있다. 따라서, 편집 거리가 2인 15b는 "훈련에 덜 적합함"으로 표지되고, 편집 거리가 6인 15c는 "훈련에 더 적합함"으로 표지된다. 따라서, 예에서, 도 15c에 따른(그리고 도 15b에 따르지 않은) 올리고(1501A 및 1501B)가 생성되어 훈련을 위해 사용되는데, 이는 본원에서 차례로 더 자세히 논의될 것이다.
도 15d를 다시 참조하면, 예시적인 예측 염기 호출 서열(1518a, 1518b, 1518G)이 예시된다. 또한 2개의 올리고(1501A 및 1501B)의 예시적인 염기가 예시된다(2개의 올리고의 예시적인 염기는 도 15c에 예시된 염기에 대응한다).
신경망 구성(1415)은 다소 훈련되지만 완전히 훈련되지는 않기 때문에, 신경망 구성(1415)은 염기 호출 예측을 할 수 있지만 그러한 염기 호출 예측은 오류가 발생하기 쉽다.
예측된 염기 호출 서열(1518a)은 C, A, G, G, C, T, A, C를 포함한다. 이는 올리고(1501A)의 염기 호출 서열 A, C, T, T, G, C, A, C와 비교되고, 또한 올리고(1501B)의 염기 호출 서열 C, A, T, G, A, T, A, G와도 비교된다. 예측된 염기 호출 서열(1518a)은 올리고(1501A)의 대응하는 7번째 및 8개의 염기와 일치하는 7번째 및 8개의 염기를 갖고, 올리고(1501B)의 대응하는 염기와 일치하는 1, 2, 4, 6, 7번째 염기를 갖는다. 따라서, 도 15d에 예시된 바와 같이, 예측 염기 호출 서열(1518a)은 올리고(1501A)와 2개 염기의 유사도를 갖고, 예측 염기 호출 서열(1518a)은 올리고(1501B)와 5개 염기의 유사도를 갖는다.
실제로 예측된 염기 호출 서열(1518a)이 올리고(1501B)에 대한 것이라면(예를 들어, 예측된 염기 호출 서열(1518a)이 올리고(1501B)와 5개 염기의 유사도를 갖기 때문에), 이는 신경망 구성(1415)이 8-염기 서열의 5개 염기를 정확하게 예측할 수 있었음(즉, 올리고(1501B)의 대응 염기와 일치하는 첫 번째, 두 번째, 네 번째, 여섯 번째 및 일곱 번째 염기를 정확하게 예측할 수 있었음)을 의미한다. 그러나, 신경망 구성(1415)이 완전히 훈련되지 않기 때문에 신경망 구성(1415)은 나머지 3개의 염기(즉, 3번째, 5번째, 8번째 염기)를 예측하는 데 오류를 범했다.
매핑 로직(1416)은 예측된 염기 호출 서열을 대응하는 올리고에 매핑하기 위해 적절한 로직을 사용할 수 있다. 예를 들어, 예측된 염기 호출 서열이 올리고(1501A)와 SA 유사성 수, 및 올리고(1501B)와 SB 유사성 수를 갖는다고 가정한다. 예에서, 매핑 로직(1416)은 SA > ST이고 SB < ST인 경우 예측된 염기 호출 서열을 올리고(1501A)에 매핑하며, 여기서 ST는 임계값 숫자이다. 즉, 매핑 로직(1416)은 올리고(1501A)와의 유사도 수준이 임계값보다 높고, 올리고(1501B)와의 유사도 수준이 임계값보다 낮은 경우 예측된 염기 호출 서열을 올리고(1501A)에 매핑한다.
유사하게, 다른 예에서, 매핑 로직(1416)은 SB > ST 및 SA < ST인 경우 예측된 염기 호출 서열을 올리고(1501B)에 매핑한다.
또 다른 예에서, 매핑 로직(1416)은 SA 및 SB 둘 다 임계값 ST보다 작거나, SA 및 SB 둘 다 임계값 ST보다 큰 경우 예측된 염기 호출 서열이 결정적이지 않다고 선언한다.
위의 논의는 다음과 같이 방정식 형태로 작성될 수 있다:
예측된 염기 호출 서열의 경우:
SA > ST 및 SB < ST인 경우 올리고(1501A)에 매핑된다. 식 1
SB > ST, 및 SA < ST인 경우 올리고(1501B)에 매핑된다. 식 2
SA, SB < ST인 경우 비결정적인 매핑을 선언한다. 또는 식 3
SA, SB > ST인 경우 비결정적인 매핑을 선언한다. 식 4
임계값 ST는 올리고에서의 염기 수(도면에 예시된 예시적 사용 사례에서는 8임), 원하는 정확도에 따라 달라지고/지거나 구현에 따라 다르다. 단지 예로서, 임계값 ST는 도 15d에 예시된 예시적 사용 사례에서 4인 것으로 가정된다. 4의 임계값 ST는 단순한 예이고, 임계값 ST의 선택은 구현에 따라 다를 수 있음에 유의한다. 단지 예로서, 훈련의 초기 반복 동안 임계값 ST는 상대적으로 낮은 값(예: 4)을 가질 수 있고; 임계값 ST는 훈련의 나중 반복 동안 상대적으로 더 높은 값(예를 들어, 6 또는 7)을 가질 수 있다(훈련 반복은 본원에서 나중에 논의됨). 따라서 나중 훈련 반복 동안 NN 구성이 더 잘 훈련되면 임계값 ST가 점진적으로 증가할 수 있다. 그러나 다른 예에서는 임계값 ST가 훈련의 모든 반복에 걸쳐 동일한 값을 가질 수 있다. 도 15d의 예에서는 임계값 ST가 4로 선택되었지만, 임계값 ST는 예를 들어 다른 예시적인 구현예에서 5, 6 또는 7일 수 있다. 예에서, 임계값 ST는 백분율로서 표현될 수도 있다. 예를 들어, 임계값 ST가 4이고 총 염기 수가 8일 때 임계값 St는 (4/8)×100, 즉 50%로 표현될 수 있다. 임계값 ST는 사용자가 선택 가능한 파라미터일 수 있으며 예를 들어 50% 내지 95%로 선택될 수 있다.
이제 다시 도 15d를 참조하면, 위에서 논의된 바와 같이, 예측 염기 호출 서열(1518a)은 올리고(1501A)와 2개 염기의 유사도를 갖고, 예측 염기 호출 서열(1518a)은 올리고(1501B)와 5개 염기의 유사도를 갖는다. 따라서, SA = 2이고 SB = 5이다. 4의 임계값 ST를 가정하면, 식 2에 따르면 예측된 염기 호출 서열(1518a)은 올리고(1501B)에 매핑된다.
이제 예측 염기 호출 서열(1518b)을 참조하면, 예측 염기 호출 서열(1518b)은 올리고(1501A)와 2개 염기의 유사도를 갖고, 예측 염기 호출 서열(1518b)은 올리고(1501B)와 3개 염기의 유사도를 갖는다. 따라서, SA = 2이고 SB = 3이다. 4의 임계값 ST를 가정하면, 식 3에 따르면 예측 염기 호출 서열(1518b)은 올리고 서열 중 하나에 대한 매핑에 대해 비결정적임이 선언된다.
이제 예측 염기 호출 서열(1518G)을 참조하면, 예측 염기 호출 서열(1518G)은 올리고(1501A)와 6개 염기의 유사도를 갖고, 예측 염기 호출 서열(1518G)은 올리고(1501B)와 3개 염기의 유사도를 갖는다. 따라서, SA = 6이고 SB = 3이다. 4의 임계값 ST를 가정하면, 식 2에 따르면 예측된 염기 호출 서열(1518G)은 올리고(1501A)에 매핑된다.
도 15e는 도 15d의 매핑으로부터 생성된 표지된 훈련 데이터(1550)를 예시하며, 여기서 표지된 훈련 데이터(1550)는 다른 신경망 구성(1615)(예를 들어, 도 16a에 예시되며, 여기서 다른 신경망 구성(1615)은 도 14a, 14b, 15a의 신경망 구성(1415)과 상이하고 그보다 더 복잡함)에 의해 사용된다.
도 15e에 예시된 바와 같이, 예측된 염기 호출 서열(1518) 및 대응 서열 신호 중 일부는 올리고(1501A)의 염기 서열(즉, 실측(1506a))에 매핑되고, 일부 다른 예측 염기 호출 서열(1518) 및 대응 서열 신호는 올리고(1501B)의 염기 서열(즉, 실측(1506b))에 매핑되고, 나머지 예측 염기 호출 서열(1518) 및 대응 서열 신호의 매핑은 결정적이지 않다.
예를 들어, 예측된 염기 호출 서열(1518c, 1518d, 1518G) 및 대응 서열 신호(1512c, 1512d, 1512G)는 올리고(1501A)의 염기 서열(즉, 실측(1506a))에 매핑되고; 예측된 염기 호출 서열(1518a, 1518f) 및 대응하는 서열 신호(1512a, 1512f)는 올리고(1501B)의 염기 서열(즉, 실측(1506b))에 매핑되고; 예측된 염기 호출 서열(1518b, 1518e, 1518g) 및 대응하는 서열 신호(1512b, 1512e, 1512g)의 나머지 매핑은 결정적이지 않다.
단지 예시로서, 훈련 데이터(1550)의 2,600개의 염기 호출 서열이 올리고(1501A)에 매핑되고, 훈련 데이터(1550)의 3,000개의 염기 호출 서열이 올리고(1501B)에 매핑된다고 가정한다. 도 15e에 예시된 것처럼 나머지 4,400개 염기 호출 서열은 비결정적이며 두 올리고 중 어느 것에도 매핑되지 않는다.
도 15a, 15d 및 15e는 "2개의 올리고 훈련 스테이지"의 "훈련 데이터 생성 페이즈"라고 지칭되는데, 이는 표지화 훈련 데이터(1550)가 2개의 올리고로부터의 서열을 사용하고 신경망 구성(1415)을 사용하여 생성되기 때문이다.
도 16a는 2개의 알려진 합성 올리고 서열(1501A, 1501B)을 사용하여 다른 신경망 구성(1615)(이는 도 14a의 신경망 구성(1415)과 상이하고 그보다 더 복잡함)을 포함하는 염기 호출자(1414)를 훈련시키기 위해 "2-올리고 훈련 스테이지"의 "훈련 데이터 소비 및 훈련 페이즈"에서 동작하는 도 14a의 염기 호출 시스템(1400)을 예시한다.
도 16a의 염기 호출 시스템(1400)은 도 14a의 염기 호출 시스템과 동일하다. 그러나 도 14a(여기서 신경망 구성(1415)은 염기 호출자(1414)에서 사용됨)와는 달리, 도 16a의 염기 호출자(1414)는 상이한 신경망 구성(1615)을 사용한다. 도 16a의 신경망 구성(1615)은 도 14a의 신경망 구성(1415)과 상이하다. 예를 들어, 신경망 구성(1615)은 신경망 구성(1415)보다 더 많은 수의 층 및 파라미터(예: 가중치 및 바이어스)를 사용하는 컨볼루션 신경망(그 예는 도 7, 도 9, 도 10, 도 11, 도 12에 예시되어 있음)이다. 다른 예에서, 신경망 구성(1615)은 신경망 구성(1415)보다 더 많은 수의 컨볼루션 필터를 사용하는 컨볼루션 신경망이다. 2개의 신경망 구성(1415 및 1615)의 구성, 토폴로지, 층 및/또는 필터의 수는 일부 예에서 상이할 수 있다.
도 16a에 예시된 "2-올리고 훈련 스테이지"의 "훈련 데이터 소비 및 훈련 페이즈"에서, 신경망 구성(1615)을 포함하는 염기 호출자(1414)는 도 15a의 "훈련 데이터 생성 페이즈" 동안에 이전에 생성된 서열 신호(1512)를 수신한다. 즉, 신경망 구성(1615)을 포함하는 염기 호출자(1414)는 이전에 생성된 서열 신호(1512)를 재사용한다. 따라서, 이전에 생성된 서열 신호(1512)는 도 16a에 예시된 "2-올리고 훈련 스테이지"의 "훈련 데이터 소비 및 훈련 페이즈"에서 재사용되므로, 서열분석기(1404) 및 그 내부의 구성요소는 역할을 수행하지 않으며, 따라서 점선을 사용하여 예시된다. 유사하게, 매핑 로직(1416)이 또한 어떤 역할도 수행하지 않으며(도 16a에서는 매핑이 수행되지 않으므로), 따라서 매핑 로직(1416)도 점선을 사용하여 예시된다.
따라서, 도 16a에서, 신경망 구성(1615)을 포함하는 염기 호출자(1414)는 이전에 생성된 서열 신호(1512)를 수신하고, 서열 신호(1512)로부터 염기 호출 서열(1618)을 예측한다. 예측된 염기 호출 서열(1618)은 예측된 염기 호출 서열(1618a, 1618b, ..., 1618G)을 포함한다. 예를 들어, 서열 신호(1512a)는 염기 호출 서열(1618a)을 예측하는 데 사용되고, 서열 신호(1512b)는 염기 호출 서열(1618b)을 예측하는 데 사용되고, 서열 신호(1512G)는 염기 호출 서열(1618G)을 예측하는 데 사용되는 등이다.
신경망 구성(1615)은 아직 훈련되지 않으며, 따라서 예측된 염기 호출 서열(1618a, 1618b, ..., 1618G)에는 많은 오류가 있을 것이다. 도 15e의 매핑된 훈련 데이터(1550)는 이제 신경망 구성(1615)을 훈련하는 데 사용된다. 예를 들어, 훈련 데이터(1550)로부터, 염기 호출자(1414)는 다음을 안다:
(i) 서열 신호(1512c, 1512d, 1512G)는 올리고(1501A)의 염기 서열(즉, 실측(1506a))에 대한 것임;
(ii) 서열 신호(1512a, 1512f)는 올리고(1501B)의 염기 서열(즉, 실측(1506b))에 대한 것임; 및
(iii) 서열 신호(1512b, 1512e, 1512g)의 매핑은 비결정적임.
따라서, 서열 신호(1512) 및 예측된 염기 호출 서열(1518)은 다음 3개의 카테고리로 선별된다: (i) 올리고(1501a)의 염기 서열(즉, 실측(1506a))에 매핑될 수 있는 서열 신호(1512c, 1512d, 1512G)(및 대응하는 예측 염기 호출 서열(1518c, 1518d, 1518G))를 포함하는 제1 카테고리; (i) 올리고(1501B)의 염기 서열(즉, 실측(1506b))에 매핑될 수 있는 서열 신호(1512a, 1512f)(및 대응하는 예측된 염기 호출 서열(1518a, 1518f))를 포함하는 제2 카테고리; 및 (iii) 올리고(1501A 또는 1501B)의 염기 서열 중 어느 것에도 매핑될 수 없는 서열 신호(1512b, 1512e, 1512g)(및 대응하는 예측된 염기 호출 서열(1518b, 1518e, 1518g))를 포함하는 제3 카테고리.
따라서, 위의 (iii)에 기초하여, 예측된 염기 호출 서열(1618b, 1618e, 1618g)(예를 들어, 서열 신호(1512b, 1512e, 1512g)에 대응)은 신경망 구성(1615)을 훈련하는 데 사용되지 않는다. 따라서, 예측된 염기 호출 서열(1618b, 1618e, 1618g)은 훈련 반복 동안 폐기되고 기울기 업데이트에 사용되지 않는다(예측된 염기 호출 서열(1618b, 1618e, 1618g)과 기울기 업데이트 박스(1617) 사이에 "X" 또는 "십자 기호"를 사용하여 도 16a에 기호적으로 예시됨).
위의 (i)에 기초하여, 염기 호출자(1414)는 예측된 염기 호출 서열(1618c, 1618d, 1618G)(예를 들어, 서열 신호(1512c, 1512d, 1512G)에 대응)이 올리고(1501A)에 대한 것일 가능성이 있다는 것을 안다. 즉, 훈련되지 않은 신경망 구성(1615)이 이러한 예측된 염기 호출 서열의 적어도 일부 염기를 잘못 예측했을 수도 있지만, 올리고(1501A)의 염기 서열은 이러한 예측된 염기 호출 서열(1618c, 1618d, 1618G)에 대한 실측일 가능성이 있다. 따라서, 신경망 구성은 비교 함수(1613)를 사용하여 예측된 염기 호출 서열(1618c, 1618d, 1618G) 각각을 실측(1506a)(이는 올리고(1501A)의 염기 서열임)과 비교하고, 생성된 오류를 기울기 업데이트(1617) 및 신경망 구성(1615)의 결과적인 훈련에 사용한다.
유사하게, 위의 (ii)에 기초하여, 염기 호출자는 예측된 염기 호출 서열(1618a 및 1618f)(예를 들어, 각각 서열 신호(1512a 및 1512f)에 대응함)이 올리고(1501B)에 대한 것일 가능성이 있다는 것을 안다. 즉, 훈련되지 않은 신경망 구성(1615)이 이러한 예측된 염기 호출 서열의 적어도 일부 염기를 잘못 예측했을 수도 있지만, 올리고(1501B)의 염기 서열은 이러한 예측된 염기 호출 서열(1618a, 1618f)에 대한 실측일 가능성이 있다. 따라서, 신경망 구성은 비교 함수(1613)를 사용하여 예측된 염기 호출 서열(1618a, 1618f) 각각을 실측(1506b)(이는 올리고(1501B)의 염기 서열임)과 비교하고, 생성된 오류를 기울기 업데이트(1617) 및 신경망 구성(1615)의 결과적인 훈련에 사용한다.
도 16a의 훈련 데이터 소비 및 훈련 페이즈의 끝에서, NN 구성(1615)은 적어도 부분적으로 훈련된다.
도 16b는 2-올리고 훈련 스테이지의 훈련 데이터 생성 페이즈의 제2 반복에서 동작하는 도 14a의 염기 호출 시스템(1400)을 예시한다. 예를 들어, 도 16a에서, 훈련 데이터(1550)를 사용하여 신경망 구성(1615)이 훈련되고 있었다. 도 16b에서, 다소 또는 적어도 부분적으로 훈련된 신경망 구성(1615)은 추가 훈련 데이터를 생성하는 데 사용된다. 예를 들어, 적어도 부분적으로 훈련된 신경망 구성(1615)은 이전에 생성된 서열 신호(1512)를 사용하여 염기 호출 서열(1628)을 예측한다. 도 16b의 예측된 염기 호출 서열(1628)은 도 16a의 예측된 염기 호출 서열(1618)보다 상대적으로 더 정확할 가능성이 있는데, 왜냐하면 도 16a의 예측된 염기 호출 서열(1618)은 훈련되지 않은 신경망 구성(1615)을 사용하여 생성된 반면, 도 16b의 예측된 염기 호출 서열(1628)은 적어도 부분적으로 신경망 구성(1615)을 사용하여 생성되기 때문이다.
또한, 매핑 로직(1416)은 예측된 염기 호출 서열(1628) 중 개별적인 것을 올리고(1501A) 또는 올리고(1501B)에 매핑하거나, 예측된 염기 호출 서열(1628)의 매핑이 비결정적이다 라고 선언한다(예를 들어, 도 15d에 대한 논의와 유사하게).
도 16c는 도 16b의 매핑으로부터 생성된 표지된 훈련 데이터(1650)를 예시하며, 여기서 훈련 데이터(1650)는 추가 훈련을 위해 사용될 것이다.
도 16c에 예시된 바와 같이, 예측된 염기 호출 서열(1628) 및 대응 서열 신호(1512) 중 일부는 올리고(1501A)의 염기 서열(즉, 실측(1506a))에 매핑되고, 일부 다른 예측 염기 호출 서열(1628) 및 대응 서열 신호(1512)는 올리고(1501B)의 염기 서열(즉, 실측(1506b))에 매핑되고, 나머지 예측된 염기 호출 서열(1628) 및 대응 서열 신호(1512)의 매핑은 결정적이지 않다.
예를 들어, 예측된 염기 호출 서열(1628)은 3개의 카테고리로 선별된다 - (i) 예측된 염기 호출 서열(1628c, 1628d, 1628G) 및 대응 서열 신호(1512c, 1512d, 1512G)는 올리고(1501A)의 염기 서열(즉, 실측(1506a))에 매핑되고; (ii) 예측된 염기 호출 서열(1628a, 1628b, 1628f) 및 대응하는 서열 신호(1512a, 1512b, 1512f)는 올리고(1501B)의 염기 서열(즉, 실측(1506b))에 매핑되고; 나머지의 예측된 염기 호출 서열(1628e, 1628g) 및 대응하는 서열 신호(1512e, 1512g)의 매핑은 결정적이지 않다.
단지 예시로서, 훈련 데이터(1650)의 3,300개의 염기 호출 서열이 올리고(1501A)에 매핑되고, 훈련 데이터(1650)의 3,200개의 염기 호출 서열이 올리고(1501B)에 매핑된다고 가정한다. 도 16c에 예시된 것처럼 나머지 3,500개 염기 호출 서열은 비결정적이며 두 올리고 중 어느 것에도 매핑되지 않는다.
도 15e 및 16c의 훈련 데이터 사이에서 매핑되지 않은(또는 비결정적인) 염기 호출 서열의 수를 비교할 때, 이 숫자는 도 15e에서 4,400, 도 16c에서 3,500임이 관찰된다. 이는 도 16b의 적어도 부분적으로 훈련된 신경망 구성(1615)(이는 훈련 데이터(1650)의 매핑을 생성하는 데 사용되었음)이 도 15a의 적어도 부분적으로 훈련된 신경망 구성(1415)(이는 훈련 데이터(1550)의 매핑을 생성하는 데 사용되었음)보다 상대적으로 더 정확하고/하거나 더 훈련될 수 있기 때문이다. 따라서, 염기 호출이 상대적으로 더 정확해져(예를 들어, 오류 발생 가능성이 적어) 이제 상대적으로 더 정확하게 매핑되므로, 염기 호출의 비결정적인 서열의 수가 점차 감소한다.
도 16d는 2개의 알려진 합성 올리고 서열(1501A 및 1501B)을 사용하여 도 16a의 신경망 구성(1615)을 포함하는 염기 호출자(1414)를 훈련시키기 위해 2-올리고 훈련 스테이지의 훈련 데이터 소비 및 훈련 페이즈의 제2 반복에서 동작하는 도 14a의 염기 호출 시스템(1400)을 예시한다.
도 16a 및 도 16d는 적어도 부분적으로 유사하다. 예를 들어, 도 16a 및 도 16d는 각각 도 15e의 훈련 데이터(1550) 및 도 16c의 훈련 데이터(1650)를 사용하여 신경망 구성(1615)을 훈련하는 데 사용된다. 도 16a의 초기 스테이지에서 신경망 구성(1615)은 완전히 훈련되지 않은 반면, 도 16d의 초기 스테이지에서는 신경망 구성(1615)이 적어도 부분적으로 훈련된다는 점에 유의한다.
도 16d에서, 적어도 부분적으로 훈련된 신경망 구성(1615)을 포함하는 염기 호출자(1414)는 도 15a의 "훈련 데이터 생성 페이즈" 동안 이전에 생성된 서열 신호(1512)를 수신하고, 서열 신호(1512)로부터 염기 호출 서열(1638)을 예측한다. 예측된 염기 호출 서열(1638)은 예측된 염기 호출 서열(1638a, 1638b, ..., 1638G)을 포함한다. 예를 들어, 서열 신호(1512a)는 염기 호출 서열(1638a)을 예측하는 데 사용되고, 서열 신호(1512b)는 염기 호출 서열(1638b)을 예측하는 데 사용되고, 서열 신호(1512G)는 염기 호출 서열(1638G)을 예측하는 데 사용되는 등이다.
신경망 구성(1615)은 완전히 훈련되지는 않으며, 따라서 예측된 염기 호출 서열(1638a, 1638b, ..., 1638G)에는 일부 오류가 포함되지만, 도 16d의 예측된 염기 호출 서열(1638)에서의 오류는 예측된 염기 호출 서열(도 16a의 1618, 도 16b의 1628)에서의 오류보다는 작을 가능성이 있다. 도 16c의 매핑된 훈련 데이터(1650)는 이제 신경망 구성(1615)을 추가로 훈련하는 데 사용된다. 예를 들어, 훈련 데이터(1650)로부터, 염기 호출자(1414)는 다음을 안다:
(i) 서열 신호(1512c, 1512d, 1512G)는 올리고(1501A)의 염기 서열(즉, 실측(1506a))에 대한 것임;
(ii) 서열 신호(1512a, 1512b, 1512f)는 올리고(1501B)의 염기 서열(즉, 실측(1506b))에 대한 것임; 및
(iii) 서열 신호(1512e, 1512g)의 매핑은 비결정적임.
따라서, 위의 (iii)에 기초하여, 도 16d에서의 예측된 염기 호출 서열(1638e, 1638g)(예를 들어, 각각 서열 신호(1512e, 1512g)에 대응)은 신경망 구성(1615)을 훈련하는 데 사용되지 않는다. 따라서, 이러한 예측된 염기 호출 서열(1638e, 1638g)은 훈련 데이터로부터 폐기되고 기울기 업데이트에 사용되지 않는다(도 16d에서 예측된 염기 호출 서열(1618e, 1618g)과 기울기 업데이트 박스(1617) 사이에 "X" 또는 "십자 기호"를 사용하여 기호적으로 예시됨).
위의 (i)에 기초하여, 염기 호출자(1414)는 예측된 염기 호출 서열(1638c, 1638d, 1638G)(예를 들어, 각각 서열 신호(1512c, 1512d, 1512G)에 대응)이 올리고(1501A)에 대한 것일 가능성이 있다는 것을 안다. 즉, 부분적으로 신경망 구성(1615)이 이러한 예측된 염기 호출 서열의 적어도 일부 염기를 잘못 예측했을 수도 있지만, 올리고(1501A)의 염기 서열은 이러한 예측된 염기 호출 서열(1638c, 1638d, 1638G)에 대한 실측일 가능성이 있다. 따라서, 신경망 구성은 비교 함수(1613)를 사용하여 예측된 염기 호출 서열(1638c, 1638d, 1638G) 각각을 실측(1506a)(이는 올리고(1501A)의 염기 서열임)과 비교하고, 생성된 오류를 기울기 업데이트(1617) 및 신경망 구성(1615)의 결과적인 훈련에 사용한다. 예를 들어, 비교 동안, 예측된 염기 호출 서열(1638c)의 각각의 염기 호출은 대응하는 실측 서열의 대응하는 염기 호출과 비교되어, 예를 들어 도 14a1과 관련하여 논의된 바와 같이 대응하는 비교 결과를 생성한다.
유사하게, 위의 (ii)에 기초하여, 염기 호출자는 예측된 염기 호출 서열(1638a, 1638b 및 1638f)(예를 들어, 각각 서열 신호(1512a, 1512b 및 1512f)에 대응함)이 올리고(1501B)에 대한 것일 가능성이 있다는 것을 안다. 즉, 부분적으로 신경망 구성(1615)이 이러한 예측된 염기 호출 서열의 적어도 일부 염기를 잘못 예측했을 수도 있지만, 올리고(1501A)의 염기 서열은 이러한 예측된 염기 호출 서열(1638a, 1638b, 1638f)에 대한 실측일 가능성이 있다. 따라서, 신경망 구성은 비교 함수(1613)를 사용하여 예측된 염기 호출 서열(1638a, 1638b, 1638f) 각각을 실측(1506b)(이는 올리고(1501B)의 염기 서열임)과 비교하고, 생성된 오류를 기울기 업데이트(1617) 및 신경망 구성(1615)의 결과적인 훈련에 사용한다.
도 17a는 단일-올리고 및 2-올리고 서열을 사용하여 염기 호출을 위한 신경망 구성을 반복적으로 훈련하기 위한 예시적 방법(1700)을 나타내는 흐름도를 예시한다. 방법(1700)은 본질적으로 점진적이고 단조롭게 복잡한 NN 구성을 점진적으로 훈련시킨다. NN 구성의 복잡도를 증가시키는 것은 NN 구성의 층 수 증가, NN 구성의 필터 수 증가, NN 구성의 토폴로지 복잡도 증가 및/또는 기타를 포함할 수 있다. 예를 들어, 방법(1700)은 제1 NN 구성(도 14a 및 다른 도면과 관련하여 본원에서 앞서 논의된 NN 구성(1415)), 제2 NN 구성(도 16a 및 다른 도면과 관련하여 본원에서 앞서 논의된 NN 구성(1615)), P번째 NN 구성(도 14a 내지 도 16d와 관련하여 구체적으로 논의되지 않음) 등을 참조한다. 예에서, P번째 NN 구성의 복잡도는 (P-1)번째 NN 구성보다 높고, 이는 (P-2)번째 NN 구성보다 복잡도가 더 높은 등이며, 도 17a의 박스(1710) 내에 기호적으로 예시된 바와 같이 제2 NN 구성의 복잡도는 제1 NN 구성보다 더 높다. 따라서, NN 구성의 복잡도는 단조롭게 증가한다(즉, 나중 스테이지의 NN 구성은 적어도 이전 스테이지의 NN 구성과 유사한 복잡도 또는 더 복잡한 복잡도를 갖는다).
방법(1700)에서, 동작(1704a)은 제1 NN 구성을 반복적으로 훈련하고 제2 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이고, 동작(1704b1-1704bk)은 제2 NN 구성을 훈련하고 제3 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이며, 동작(1704c)은 제3 NN 구성을 훈련하고 제4 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이다. 이 프로세스는 계속되고, 동작(1704P)은 P번째 NN 구성을 훈련하고 후속 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이다. 따라서 일반적으로 말하면 방법(1700)에서 동작(1704i)은 i번째 NN 구성을 훈련하고 (i+1)번째 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이며, 여기서 i = 1, ..., P이다.
방법(1700)은 1704a에서 (i) 단일 올리고 서열을 사용하여 제1 NN 구성을 반복적으로 훈련시키는 단계 및 (ii) 훈련된 제1 NN 구성을 사용하여 제1 2-올리고 표지된 훈련 데이터를 생성하는 단계를 포함한다. 논의된 바와 같이, 제1 NN 구성은 도 14a의 NN 구성(1415)이고, 단일 올리고 서열은 도 14a 및 도 14b와 관련하여 논의된 올리고 #1을 포함한다. 단일 올리고 서열을 사용한 제1 NN 구성의 반복 훈련은 도 14a 및 도 14b와 관련하여 논의된다. 훈련된 제1 NN 구성을 사용하는 제1 2-올리고 표지된 훈련 데이터의 생성은 도 15a, 도 15d, 도 15e와 관련하여 논의되며, 여기서 제1 2-올리고 표지된 훈련 데이터는 도 15e의 훈련 데이터(1550)이다.
그 다음, 방법(1700)은 1704a에서 1704b로 진행된다. 예시된 바와 같이, 동작(1704b)은 제2 NN 구성을 훈련하기 위한 것이며(예를 들어, 동작(1704a)으로부터 생성된 제1 2-올리고 표지된 훈련 데이터를 사용하여) 훈련된 제2 NN 구성을 사용하여 제3 NN 구성을 훈련하기 위한 추가 2-올리고 표지된 훈련 데이터를 생성한다. 동작(1704b)은 블록(1704b1-1704bk)에서 하위 동작을 포함한다.
블록(1704b1)에서, (i) 제2 NN 구성은 1704a에서 생성된 제1 2-올리고 표지된 훈련 데이터를 사용하여 훈련되고, (ii) 제2 2-올리고 표지된 훈련 데이터는 적어도 부분적으로 훈련된 제2 NN 구성을 사용하여 생성된다. 논의된 바와 같이, 제2 NN 구성은 도 16a의 NN 구성(1615)이다. 제1 2-올리고 표지된 훈련 데이터를 사용하는 제2 NN 구성의 훈련이 또한 도 16a에 예시되어 있다. 적어도 부분적으로 훈련된 제2 NN 구성을 사용하는 제2 2-올리고 표지된 훈련 데이터(예를 들어, 도 16c의 훈련 데이터(1650))의 생성은 도 16b 및 16c와 관련하여 논의된다.
그 다음, 방법(1700)은 1704b1에서 1704b2로 진행된다. 블록(1704b2)에서, (i) 제2 NN 구성은 제2 2-올리고 표지된 훈련 데이터를 사용하여 추가로 훈련되고, (ii) 제3 2-올리고 표지된 훈련 데이터는 추가로 훈련된 제2 NN 구성을 사용하여 생성된다. 제2 2-올리고 표지된 훈련 데이터를 사용하는 제2 NN 구성의 훈련이 도 16d에 예시되어 있다. 추가로 훈련된 제2 NN 구성을 사용하는 제3 2-올리고 표지된 훈련 데이터의 생성은 예시되어 있지 않지만 도 16b 및 16c와 관련한 논의와 유사할 것이다.
블록(1704b1)은 제2 NN 구성을 훈련하는 제1 반복이고, 블록(1704b2)은 제2 NN 구성을 훈련하는 제2 반복인 등이며, 마지막으로 블록(1704bk)은 제2 NN 구성을 훈련하는 k번째 반복이라는 점에 유의한다. 논의된 바와 같이, 블록(1704b1)의 동작은 도 16a, 16b, 16c와 관련하여 자세히 논의된다. 후속 블록(1704b2, ..., 1704bk)의 동작은 블록(1704b1)에 대한 논의와 유사할 것이다.
동일한 제2 NN 구성이 모든 반복(1704b1, …, 1704bk)에서 사용된다는 점에 유의한다. 따라서 이러한 k 반복은 제2 NN 구성의 복잡도를 증가시키지 않고 동일한 제2 NN 구성을 반복적으로 훈련하는 것을 목표로 한다.
제2 NN 구성의 훈련은 블록(1704b1, 1704b2, ..., 1704bk)의 각 반복으로 진행된다. 제2 신경망이 반복(1704b1, 1704bk)의 각 단계에서 점진적으로 훈련됨에 따라, 제2 신경망은 염기 호출 서열을 예측할 때 상대적으로 더 적은 오류를 점진적으로 만든다. 예를 들어, 블록(1704a)에 표시되고 또한 도 15e에 예시된 바와 같이, 훈련된 제1 NN 구성을 사용하여 생성된 제1 2-올리고 표지된 훈련 데이터(즉, 훈련 데이터(1550))는 44%(즉, 10,000개 중 4,400개) 비결정적인 매핑을 갖는다. 블록(1704b1)에 표시되고 또한 도 16c에 예시된 바와 같이, 부분적으로 훈련된 제2 NN 구성을 사용하여 생성된 제2 2-올리고 표지된 훈련 데이터(즉, 훈련 데이터(1650))는 35%(즉, 10,000개 중 3,500개) 비결정적인 매핑을 갖는다. 블록(1704b2)에 표시된 바와 같이 단지 예로서, 추가로 훈련된 제2 NN 구성을 사용하여 생성된 제3 2-올리고 표지된 훈련 데이터는 32%(즉, 10,000개 중 3,200개) 비결정적인 매핑을 가질 수 있다. 비결정적인 매핑의 비율은 예를 들어 블록(1704bk)에서 약 20%에 도달할 때까지 각 반복마다 점차적으로 감소할 수 있다.
제2 NN 구성을 훈련하기 위한 반복 횟수 "k"는 하나 이상의 수렴 조건의 충족에 기초할 수 있다. 수렴 조건이 충족되면 제2 NN 구성 훈련을 위한 반복이 종료될 수 있다. 수렴 조건은 구현에 따라 다르며 제2 NN 구성을 훈련하기 위해 수행할 반복 횟수를 지정한다. 예에서, 수렴 조건을 충족한다는 것은 추가 반복이 제2 NN 구성의 추가 훈련에 크게 도움이 되지 않을 수 있으므로 제2 NN 구성에 대한 훈련 반복이 종료될 수 있다는 표시이다. 본원에서 수렴 조건과 그 충족에 대한 몇 가지 예가 논의된다. 예를 들어, 제2 NN 구성은 비결정적인 매핑의 비율이 임계값 비율보다 작아질 때까지 반복적으로 훈련될 수 있다. 여기서, 비결정적인 매핑의 비율이 임계값 비율보다 작아지면 수렴 조건이 충족된다. 예를 들어, 제2 NN 구성의 경우 이 임계값은 단지 예로서 약 20%일 수 있다. 따라서 반복 k에서 임계값이 충족되면 수렴 조건이 충족되고 제2 NN 구성의 훈련이 종료된다. 따라서, 방법은 1704c로 진행되며, 여기서 블록(1704bk)에서 생성된 K번째 2-올리고 표지된 훈련 데이터가 제2 NN 구성보다 더 복잡한 제3 NN 구성을 훈련하는 데 사용된다.
다른 예에서, 제2 NN 구성에 대한 반복은 비결정적인 매핑 비율이 다소 포화될 때까지(즉, 연속 반복으로 크게 감소하지 않을 때까지) 계속되어, 수렴 조건을 충족한다. 즉, 이 예에서, 임계값 수준 미만의 포화는 반복 훈련의 충분한 수렴을 나타내며(예를 들어, 수렴 조건의 충족을 나타냄), 추가 반복은 모델을 크게 향상시킬 수 없다 - 따라서 현재 모델에 대한 반복은 끝날 수 있다. 예를 들어, 반복(k-2)에서(예를 들어, 블록(1704b)(k-2)에서) 비결정적인 매핑 비율이 21%이고; 반복(k-1)에서(예를 들어, 블록(1704b)(k-2)에서) 비결정적인 매핑 비율이 20.4%이고; 반복(k)에서(예를 들어, 블록(1704bk)에서) 비결정적인 매핑 비율이 20%라고 가정한다. 따라서, 비결정적인 매핑 비율의 감소는 마지막 두 번의 반복에서 상대적으로 낮으며(예를 들어, 각각 0.6% 및 0.4%), 이는 훈련이 거의 포화되었으며 추가 훈련이 제2 NN 구성을 크게 개선할 수 없음을 암시한다. 여기서, 포화는 2회의 연속 반복 동안 비결정적인 매핑 비율들 사이의 차이로서 측정된다. 즉, 2회의 연속 반복이 거의 동일한 비결정적인 매핑 비율을 갖는 경우, 추가 반복은 이 비율의 추가 감소에 도움이 되지 않을 수 있으므로 훈련 반복이 종료될 수 있다. 따라서, 이 스테이지에서, 제2 NN 구성에 대한 반복이 종료되고, 방법(1700)은 제3 NN 구성을 위해 1704c로 진행된다.
또 다른 예에서, 반복 횟수 "k"가 미리 지정되어 있으며, k 번의 반복을 완료하면 수렴 조건을 충족하므로 현재 NN 구성에 대한 훈련이 종료되고 다음 NN 구성이 시작될 수 있다.
따라서, 제2 NN 구성에 대한 반복의 끝에서(즉, 블록(1704k)의 끝에서), 방법(1700)은 블록(1704c)로 진행되며, 여기서 제3 NN 구성이 반복적으로 훈련된다. 제3 NN 구성의 훈련은 또한 동작(1704b1, ..., 1704bk)과 관련하여 논의된 것과 유사한 반복을 포함할 것이므로 더 자세히 논의되지 않는다.
더 복잡한 NN 구성을 점진적으로 훈련하는 이 프로세스는 방법(1700)의 1704P에서 P번째 NN 구성이 훈련되고 다음 NN 구성을 훈련하기 위해 2-올리고 훈련 데이터가 생성될 때까지 계속된다.
예시에서 그리고 본원에 논의된 바와 같이, 동일한 2-올리고 서열이 블록(1704b1, ..., 1704bk, 1704c, ..., 1704P)의 모든 반복에 사용될 수 있다는 점에 유의한다. 그러나, 일부 다른 예에서 그리고 본원에서 논의되지는 않았지만, 도 17의 방법(1700)의 상이한 반복을 위해 상이한 2-올리고 서열이 사용될 수도 있다.
논의한 바와 같이, 모델이 더 복잡할수록 모델을 더 잘 훈련하여 염기 호출을 예측할 수 있다. 예를 들어, 제2 NN 구성 훈련이 끝나면 제2 NN 구성에 의해 생성된 최종 표지된 훈련 데이터에는 20%의 비결정적인 매핑이 있다. 제3 NN 구성의 훈련이 끝나면 비결정적인 매핑의 비율이 더욱 감소한다. 예를 들어 제3 NN 구성의 제1 훈련 반복 동안 비결정적인 매핑의 비율은 36%일 수 있으며(예를 들어, 제3 NN 구성은 제1 반복 동안 거의 훈련되지 않았기 때문에), 이 비율은 제3 NN 구성의 후속 훈련 반복에 따라 점차 감소할 수 있다. 예를 들어, 도 17a에 예시된 바와 같이 제3 NN 구성 훈련이 끝나면 제3 NN 구성에 의해 생성된 최종 표지된 훈련 데이터에는 17%의 비결정적인 매핑이 있다고 가정한다. 비결정적인 매핑의 비율은 도 17a의 반복이 진행됨에 따라 더욱 감소하며, 예를 들어 P번째 NN 구성 훈련이 끝나면 P번째 NN 구성에 의해 생성된 최종 표지된 훈련 데이터는 12%의 비결정적인 매핑을 갖는다. 예를 들어, P번째 NN 구성에 대해 수렴 조건(본원에서 앞서 논의됨)이 충족될 때 훈련은 12% 비결정적인 매핑에서 종료된다. 따라서 P개의 NN 구성이 방법(1700)에서 훈련된다. 숫자 "P"는 3, 4, 5 이상이 될 수 있고 구현에 따라 다르며, 대응하는 하나 이상의 수렴 조건의 충족에 기초할 수도 있다. 예를 들어, (P-1)번째 NN 구성으로 인해 12.05%의 비결정적인 매핑이 초래되고 P번째 NN 구성으로 인해 12%의 비결정적인 매핑이 발생하는 경우, 두 NN 구성 간에 0.05%의 비결정적인 매핑의 약간 개선이 있다. 이는 2-올리고 서열을 사용한 새로운 NN 구성의 훈련이 포화 상태임을 나타낸다. 여기서 포화는 2개의 연속 NN 구성 간의 비결정적인 매핑 비율의 차이를 지칭한다. 포화도가 임계값(예컨대 0.1%) 이하이면 2-올리고 서열 훈련이 종료된다. 다른 예에서, NN 구성의 숫자 "P"는 사용자에 의해 예를 들어 3, 4 이상의 숫자로 미리 지정될 수 있다. 본원에서 나중에 논의되는 바와 같이, 2-올리고 서열을 사용하는 P개의 NN 구성에 의한 훈련이 완료되면, 추가의 복잡한 분석물(예컨대 3-올리고 서열)이 훈련에 사용될 수 있다.
도 17b는 도 17a의 방법(1700)의 끝에서 P번째 구성에 의해 생성되는 최종 표지된 훈련 데이터 예(1750)를 예시한다. 논의된 바와 같이, P번째 NN 구성 훈련이 끝나면 P번째 NN 구성에 의해 생성된 최종 표지된 훈련 데이터에는 12%(또는 10,000개 중 1,200개)의 비결정적인 매핑이 있다. 예측된 염기 호출 서열은 3가지 카테고리로 선별된다: (i) 올리고(1501A)에 매핑된 예측된 염기 호출 서열을 포함하는 제1 카테고리, (ii) 올리고(1501B)에 매핑된 예측된 염기 호출 서열을 포함하는 제2 카테고리, 및 (iii) 올리고(1501A 또는 1501B) 중 어느 것에도 매핑되지 않은 예측된 염기 호출 서열을 포함하는 제3 카테고리. 도 17b의 훈련 데이터(1750)는 도 15e 및 16c의 훈련 데이터와 관련한 논의에 기초할 때 명백할 것이다.
도 18a는 3-올리고 신경망 구성(1815)을 포함하는 염기 호출자(1414)를 훈련시키기 위해 "3-올리고 훈련 스테이지"의 "훈련 데이터 소비 및 훈련 페이즈"의 제1 반복에서 동작하는 도 14a의 염기 호출 시스템(1400)을 예시한다. 신경망 구성(1815)을 "3-올리고" 신경망 구성(1815)으로서 표지하는 이유는 본원에서 나중에 명백해질 것이다. 도 18a는 도 16d와 적어도 부분적으로 유사하다. 그러나, 도 15d와 달리, 방법(1700)의 끝에서 생성된(예를 들어, 2-올리고 기반 훈련을 사용한 P번째 NN 구성에 의해) 표지된 훈련 데이터(1750)(도 17b 참조)는 도 18a의 훈련 동안 사용된다.
예를 들어, 도 18a에서, 3-올리고 신경망 구성(1815)을 포함하는 염기 호출자(1414)는 염기 호출 서열(1838a, 1838b, ..., 1838G)을 예측한다. 도 17b의 매핑된 훈련 데이터(1750)는 이제 도 16d와 관련하여 논의된 훈련과 유사하게 3-올리고 신경망 구성(1815)을 추가로 훈련하는 데 사용된다.
도 18b는 도 18a의 3-올리고 신경망 구성(1815)을 포함하는 염기 호출자(1414)를 훈련시키기 위해 "3-올리고 훈련 스테이지"의 "훈련 데이터 생성 페이즈"에서 동작하는 도 14a의 염기 호출 시스템(1400)을 예시한다.
도 18b에서, 3개의 상이한 올리고 서열(1801A, 1801B, 1801C)이 플로우 셀(1405)의 다양한 클러스터에 로딩되어 있다. 단지 예로서, 본 개시내용의 범위를 제한하지 않고, 10,000개의 클러스터(1407) 중에서 약 3,200개의 클러스터가 올리고 서열(1801A)을 포함하고, 약 3,300개의 클러스터가 올리고 서열(1801B)을 포함하고, 나머지 3,500개의 클러스터가 올리고 서열(1501C)을 포함한다고 가정한다(비록 다른 예에서는 3개의 올리고가 10,000개의 클러스터 중에서 실질적으로 동일하게 분할될 수 있다).
서열분석기(1404)는 복수의 클러스터(1407a,...,1407G) 중 대응하는 것에 대한 서열 신호(1812a,...,1812G)를 생성한다. 예를 들어, 클러스터(1407a)의 경우, 서열분석기(1404)는 일련의 서열분석 사이클 동안 클러스터(1407a)에 대한 염기를 나타내는 대응하는 서열 신호(1812a)를 생성한다. 유사하게, 클러스터(1407b)의 경우, 서열분석기(1404)는 일련의 서열분석 사이클 동안 클러스터(1407b)에 대한 염기 등을 나타내는 대응하는 서열 신호(1812b)를 생성한다.
신경망 구성(1815)을 포함하는 염기 호출자(1414)는 도 15a와 관련하여 논의된 바와 같이 각각 대응 서열 신호(1812a,...,1812G)에 기초하여 복수의 클러스터(1407a,...,1407G) 중 대응하는 것에 대한 염기 호출 서열(1818a,...,1818G)을 예측한다.
실시형태에서, 올리고 서열(1801A, 1801B 및 1801C)은 3개의 올리고의 염기들 사이에 충분한 편집 거리를 갖도록 선택되며, 이는 도 15b 및 15c와 관련한 논의에 기초하여 명백할 것이다. 예를 들어, 3개의 올리고 서열(1801A, 1801B 및 1801C) 중 임의의 것은 3개의 올리고 서열(1801A, 1801B 및 1801C) 중 다른 것으로부터 적어도 임계값 편집 거리만큼 분리되어야 한다. 단지 예로서, 임계값 편집 거리는 4개 염기, 5개 염기, 6개 염기, 7개 염기 또는 심지어 8개 염기일 수 있다. 따라서, 3개의 올리고는 3개의 올리고가 서로 충분히 상이하도록 선택된다.
다시 도 18b를 참조하면, 예에서, 염기 호출자(1414)는 어떤 올리고 서열이 어떤 클러스터에 채워지는지 알지 못한다. 따라서 염기 호출자(1414)는 알려진 올리고 서열(1801A, 1801B, 1801C)과 다양한 클러스터 사이의 매핑을 알지 못한다. 매핑 로직(1416)은 예측된 염기 호출 서열(1818)을 수신하고, 각 예측된 염기 호출 서열(1818)을 올리고(1801A, 1801B 또는 1801C) 중 하나로 매핑하거나, 예측된 염기 호출 서열을 3개의 올리고 중 임의의 것에 매핑하는 데 있어서 비결정적임을 선언한다. 도 18c는 (i) 예측된 염기 호출 서열을 3개의 올리고(1801A, 1801B, 1801C) 중 임의의 것에 매핑하거나, (ii) 예측된 염기 호출 서열의 3개의 올리고 중 임의의 것에 대한 매핑이 비결정적이다 라고 선언하는 매핑 동작을 예시한다.
도 18c에 예시된 바와 같이, 예측된 염기 호출 서열(1818a)은 올리고(1801A)와 2개 염기의 유사도를 갖고, 올리고(1801B)와 5개 염기의 유사도를 가지며, 올리고(1801C)와 1개 염기의 유사도를 갖는다. 4의 임계값 유사도(ST)를 가정하면(예를 들어, 식 1-4와 관련하여 논의됨), 예측된 염기 호출 서열(1818a)은 올리고(1801B)에 매핑된다.
유사하게, 도 18c의 예에서, 예측된 염기 호출 서열(1818b)은 올리고(1801C)에 매핑되고, 예측된 염기 호출 서열(1818a)의 매핑은 도 18b의 매핑 로직(1416)에 의해 비결정적인 것으로 선언된다.
도 18d는 도 18c의 매핑으로부터 생성되는 표지된 훈련 데이터(1850)를 예시하며, 여기서 훈련 데이터(1850)는 다른 신경망 구성을 훈련하는 데 사용된다. 도 18d에 예시된 바와 같이, 예측된 염기 호출 서열(1818) 및 대응 서열 신호 중 일부는 올리고(1801A)의 염기 서열(즉, 실측(1806a))에 매핑되고, 예측된 염기 호출 서열(1818) 및 대응 서열 신호 중 일부는 올리고(1801B)의 염기 서열(즉, 실측(1806b))에 매핑되고, 예측된 염기 호출 서열(1818) 및 대응 서열 신호 중 일부는 올리고(1801C)의 염기 서열(즉, 실측(1506c))에 매핑되며, 나머지 예측 염기 호출 서열(1818) 및 대응 서열 신호의 매핑은 비결정적이다. 도 18d의 훈련 데이터(1850)는 본원에서 앞선 도 15e의 훈련 데이터(1550)와 관련한 논의에 기초할 때 명백할 것이다.
도 18e는 3-올리고 실측 서열을 사용하여 염기 호출을 위한 신경망 구성을 반복적으로 훈련하기 위한 예시적 방법(1880)을 나타내는 흐름도를 예시한다. 방법(1800)은 본질적으로 점진적이고 단조롭게 복잡한 3-올리고 NN 구성을 점진적으로 훈련시킨다. NN 구성의 복잡도를 증가시키는 것은 도 17a와 관련하여 또한 논의된 바와 같이 NN 구성의 층 수 증가, NN 구성의 필터 수 증가, NN 구성의 토폴로지 복잡도 증가 및/또는 기타를 포함할 수 있다. 예를 들어, 방법(1880)은 제1 3-올리고 NN 구성(도 18과 관련하여 본원에서 앞서 논의된 3-올리고 NN 구성(1815)), 제2 3-올리고 NN 구성, Q번째 NN 구성 등을 참조한다. 예에서, Q번째 3-올리고 NN 구성의 복잡도는 (Q-1)번째 3-올리고 NN 구성보다 높고, 이는 (Q-2)번째 3-올리고 NN 구성보다 복잡도가 더 높은 등이며, 도 18e의 박스(1890) 내에 기호적으로 예시된 바와 같이 제2 3-올리고 NN 구성의 복잡도는 제1 3-올리고 NN 구성보다 더 높다.
도 18e의 방법(1880)에서 동작(1704P)은 도 17a의 방법(1700)의 마지막 블록으로부터이고, 동작(1888a1-1888am)은 제1 3-올리고 NN 구성을 반복적으로 훈련하고 제2 3-올리고 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이며, 동작(1888b)은 제2 3-올리고 NN 구성을 반복적으로 훈련하고 제3 3-올리고 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이라는 점 등에 유의한다. 이 프로세스는 계속되고, 동작(1888Q)은 Q번째 3-올리고 NN 구성을 훈련하고 후속 NN 구성을 훈련하기 위한 표지된 훈련 데이터를 생성하기 위한 것이다. 따라서 일반적으로 말하면 방법(1880)에서 동작(1888i)은 i번째 3-올리고 NN 구성을 훈련하고 (i+l)번째 3-올리고 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이며, 여기서 i = 1, ..., Q이다.
1704P에서, 방법(1880)은 2-올리고 실측 데이터를 사용하여 P번째 NN 구성을 훈련시키기 위해 동작(1704b1, ..., 1704bk)을 반복하는 단계, 및 다음 NN 구성을 훈련하기 위해 2-올리고 표지된 훈련 데이터를 생성하는 단계를 포함하며, 이는 도 17a의 방법(1700)의 마지막 블록이다.
그 다음, 방법(1880)은 1704P에서 1888a1로 진행된다. 예시된 바와 같이, 동작(1888a)은 이전 블록(예를 들어, 블록 1704P)으로부터 생성되는 표지된 훈련 데이터(예를 들어, 도 17b의 훈련 데이터(1750))를 사용하고 훈련된 제1 3-올리고 NN 구성을 사용하여 제1 3-올리고 NN 구성(예를 들어, 3-올리고 신경망 구성(1815))을 훈련하여 제2 3-올리고 NN 구성의 후속 훈련을 위한 추가 3-올리고 표지된 훈련 데이터를 생성하기 위한 것이다. 동작(1888a)은 블록(1888a1-1888am)에서 하위 동작을 포함한다.
블록(1888a1)에서, (i) 제1 3-올리고 NN 구성(예를 들어, 도 18a의 3-올리고 NN 구성(1815))은 1704P에서 생성되는 표지된 훈련 데이터를 사용하여 훈련되고, (ii) 3-올리고 표지된 훈련 데이터는 적어도 부분적으로 훈련된 제1 3-올리고 NN 구성(예컨대, 도 18d의 훈련 데이터(1850))을 사용하여 생성된다.
그 다음, 방법(1880)은 1888a1에서 1888a2로 진행된다. 블록(1888a2)에서, (i) 제1 3-올리고 NN 구성은 이전 스테이지에서 생성된(예를 들어, 블록(1888a1)에서 생성됨) 3-올리고 표지된 훈련 데이터를 사용하여 추가로 훈련되고, (ii) 추가로 훈련된 제1 3-올리고 NN 구성을 사용하여 새로운 3-올리고 표지된 훈련 데이터가 생성된다.
블록(1888a2)(및 블록(1888a2))과 관련하여 논의된 동작은 1888a3, 1888am에서 반복적으로 반복된다. 블록(1888a1, ..., 1888am)은 모두 제1 3-올리고 NN 구성을 훈련하기 위한 것이다. 반복 횟수 "m"은 구현에 따라 다를 수 있으며, 특정 NN 모델을 훈련하기 위한 반복 횟수를 선택하기 위해 사용되는 예시적 기준은 도 17a의 방법(1700)과 관련하여 논의되었다(예를 들어, 이 방법에서 반복 횟수 "k"의 선택).
제1 3-올리고 NN 구성이 1888am에서 적절하거나 만족스럽게 훈련된 후, 방법(1888)은 블록(1888b)으로 진행되며, 여기서 제2 3-올리고 NN 구성이 반복적으로 훈련된다. 제2 3-올리고 NN 구성의 훈련은 또한 동작(1888a1, ..., 1888am)과 관련하여 논의된 것과 유사한 반복을 포함할 것이므로 더 자세히 논의되지 않는다.
더 복잡한 NN 구성을 점진적으로 훈련하는 이 프로세스는 방법(1888)의 1888Q에서 Q번째 3-올리고 NN 구성이 훈련되고 다음 NN 구성을 훈련하기 위해 대응하는 3-올리고 훈련 데이터가 생성될 때까지 계속된다.
도 19는 다중-올리고 실측 서열을 사용하여 염기 호출을 위한 신경망 구성을 반복적으로 훈련하기 위한 예시적 방법(1900)을 나타내는 흐름도를 예시한다. 도 19는 본질적으로 도 14a 내지 도 18e와 관련한 논의를 요약한다. 예를 들어, 도 19는 단일-올리고 스테이지, 2-올리고 스테이지, 3-올리고 스테이지 등과 같은 상이한 올리고 스테이지를 사용하는 반복 훈련 및 표지된 훈련 데이터 생성 프로세스를 보여준다. 따라서, 표지된 훈련 데이터의 훈련 및 생성에 사용되는 분석물의 복잡도 및/또는 길이는 염기 호출자의 기저 신경망 구성의 복잡도와 함께 반복에 따라 점진적이고 단조롭게 증가한다.
예를 들어 도 14a 및 도 14b, 및 도 17a의 방법(1700)의 블록(1704a)과 관련하여 논의된 바와 같이, 1904A에서, 방법(1900)은 1-올리고 NN 구성을 반복적으로 훈련하는 단계, 및 표지된 훈련 데이터를 생성하는 단계를 포함한다.
예를 들어 도 17a의 방법(1700)의 블록(1704b1-1704P)과 관련하여 논의된 바와 같이, 1904b에서, 방법(1900)은 2-올리고 서열을 사용하여 하나 이상의 2-올리고 NN 구성을 반복적으로 훈련하는 단계, 및 표지된 2-올리고 훈련 데이터를 생성하는 단계를 추가로 포함한다.
예를 들어 도 18e의 방법(1880)의 블록(1888a1-1888Q)와 관련하여 논의된 바와 같이, 1904c에서, 방법(1900)은 3-올리고 서열을 사용하여 하나 이상의 3-올리고 NN 구성을 반복적으로 훈련하는 단계, 및 표지된 2-올리고 훈련 데이터를 생성하는 단계를 추가로 포함한다.
이 프로세스는 계속되며 더 많은 수의 올리고 서열이 점진적으로 사용될 수 있다. 마지막으로, 1904N에서, 하나 이상의 N-올리고 NN 구성이 N-올리고 서열을 사용하여 훈련되고, 대응하는 N-올리고 표지된 훈련 데이터가 생성되며, 여기서 N은 2보다 크거나 같은 적절한 양의 정수일 수 있다. 1904N에서의 동작은 1904b 및 1904c에서의 동작에 관한 논의에 기초할 때 명백할 것이다.
도 14a 내지 도 19는 합성적으로 서열화된 단순 올리고 서열을 갖는 NN 모델 훈련과 관련된다. 예를 들어, 이들 도면에 사용된 올리고 서열은 유기체의 DNA에서 발견되는 서열에 비해 염기 수가 더 적을 가능성이 있다. 실시형태에서, 도 14a 내지 도 19와 관련하여 논의된 올리고 기반 훈련은 점진적으로 복잡한 NN 모델을 훈련하고 점진적으로 풍부하고 표지된 훈련 데이터 세트를 생성하는 데 사용된다. 예를 들어, 도 19는 N-올리고 NN 구성을 사용하여 N-올리고 표지된 훈련 데이터 세트를 출력하며, 여기서 N-올리고 표지된 훈련 데이터 세트는 "N 미만"의 올리고 수와 관련된 표지된 훈련 데이터 세트보다 훨씬 더 풍부하고 다양하며 더 큰 표지된 훈련 데이터 세트를 가질 수 있다.
그러나, 실제로 서열분석기(1404) 및 염기 호출자(1414)는 단순한 올리고 서열보다 훨씬 더 복잡한 염기 호출 서열에 대한 것이다. 예를 들어, 실제로 서열분석기(1404) 및 염기 호출자(1414)는 단순한 올리고 서열보다 훨씬 더 복잡한 염기 호출 유기체 서열에 대한 것이다. 따라서, 염기 호출자(1414)는 올리고 서열보다 더 복잡한 유기체 DNA 및 RNA에서 발견되는 염기 서열에 대해 훈련되어야 한다.
도 20a는 도 14a의 염기 호출자(1414)를 훈련시키는 데 사용되는 유기체 서열(2000)을 예시한다. 유기체 서열은 phix(phi X라고도 함)와 같이 비교적 더 적은 염기를 갖는 유기체의 것일 수 있다. Phix 박테리오파지는 단일 가닥 DNA(ssDNA) 바이러스이다. phix 174 박테리오파지는 대장균을 감염시키는 ssDNA 바이러스이며, 1977년에 서열분석된 최초의 DNA 기반 게놈이다. Phix(예컨대 ΦX174) 바이러스 입자가 또한 시험관 내에서 성공적으로 조립되었다. 실시형태에서, 염기 호출자(1414)를 올리고 서열로 훈련시킨 후(도 14a 내지 도 19와 관련하여 논의된 바와 같음), 염기 호출자(1414)는 단순한 유기체 DNA, 예컨대 phix DNA로 추가로 훈련될 수 있지만, 이것은 본 개시내용의 범위를 제한하지는 않는다. 예를 들어, phix 대신에 박테리아(예컨대, 대장균 또는 대장균 박테리아)와 같은 더 복잡한 유기체가 사용될 수 있다. 따라서, 유기체 서열(2000)은 phix 또는 다른 비교적 단순한 유기체 DNA일 수 있다. 유기체 서열(2000)은 사전 서열분석되며, 즉 유기체 서열(2000)의 염기 서열은 선험적으로 알려져 있다(예를 들어, 서열분석기 및 도 14a에 예시된 것과 다른 이미 훈련된 염기 호출자에 의해 서열분석됨).
도 20a에 예시된 바와 같이, 도 14a의 서열분석기(1404)에 유기체 서열(2000)을 로딩할 때, 유기체 서열(2000)은 다중 하위서열(2004a, 2004b, ..., 2004N)로 구획화되거나 섹션화된다. 각 하위서열은 대응하는 하나 이상의 클러스터에 로딩된다. 따라서, 각 클러스터(1407)는 대응하는 하위서열(2004) 및 그 합성 복제물로 채워진다. 유기체 서열(2000)을 섹션화하기 위해 임의의 적절한 기준, 예를 들어 클러스터를 채울 수 있는 하위서열의 최대 크기가 사용될 수 있다. 예를 들어, 플로우 셀의 개별 클러스터가 최대 약 150개의 염기를 갖는 하위서열로 채워질 수 있는 경우, 하위서열(2004)의 개별 클러스터가 최대 150개의 염기를 갖도록 섹션화가 그에 따라 수행될 수 있다. 예에서, 개별 하위서열(2004)은 실질적으로 동일한 수의 염기를 가질 수 있는 반면; 다른 예에서, 개별 하위서열(2004)은 상이한 수의 염기를 가질 수 있다. 본 개시내용의 교시를 논의하기 위한 예로서 사용되는 하위서열(2004b)은 L1 개수의 염기를 갖는 것으로 가정된다. 단지 예로서, 숫자 L1은 100 내지 200일 수 있지만, 임의의 다른 적절한 값을 가질 수 있고 구현에 따라 다르다.
도 20b는 도 20a의 제1 유기체 서열(2000)의 하위서열(2004a, …, 2004S)을 사용하여 제1 유기체 수준 신경망 구성(2015)을 포함하는 염기 호출자(1414)를 훈련하기 위해 제1 유기체 훈련 스테이지의 훈련 데이터 생성 페이즈에서 동작하는 도 14a의 염기 호출 시스템(1400)을 예시한다.
도 20b에는 예시되지 않지만, 제1 유기체 수준 NN 구성(2015)은 도 19의 방법(1904)으로부터의 N-올리고 표지된 훈련 데이터를 사용하여 처음에 훈련된다는 점에 유의한다. 따라서 제1 유기체 수준 NN 구성(2015)은 적어도 부분적으로 사전 훈련된다. 도 20b의 염기 호출 시스템(1400)은 도 14a의 염기 호출 시스템과 동일하지만, 두 도면에서 염기 호출 시스템(1400)은 상이한 신경망 구성 및 상이한 분석물을 사용한다.
논의된 바와 같이, 하위서열(2004a, ..., 2004S)은 대응하는 클러스터(1407)에 로딩된다. 예를 들어, 하위서열(2004a)은 클러스터(1407a)에 로딩되고, 하위서열(2004b)은 클러스터(1407b)에 로딩되는 등이다. 각 클러스터(1407)는 동일한 하위서열(2004)의 여러 서열분석된 복제물을 포함할 것이라는 점에 유의한다. 예를 들어, 클러스터에 로딩된 하위서열은 클러스터가 동일한 하위서열의 여러 복제물을 갖도록 합성적으로 복제될 것이며, 이는 클러스터에 대한 대응 서열 신호(2012)를 생성하는 데 도움이 된다.
염기 호출자(1414)는 어떤 클러스터가 어떤 서브서열로 채워지는지 알지 못한다는 점에 유의한다. 예를 들어, 하위서열(2004a) 및 그 합성 복제물이 특정 클러스터에 로딩되면, 염기 호출자(1414)는 하위서열(2004a)에 의해 채워지는 클러스터를 알지 못할 것이다. 본원에서 나중에 논의되는 바와 같이, 매핑 로직(1416)은 훈련 프로세스를 용이하게 하기 위해 개별 하위서열(2004)을 대응하는 클러스터(1407)에 매핑하는 것을 목표로 한다.
서열분석기(1404)는 복수의 클러스터(1407a,...,1407G) 중 대응하는 것에 대한 서열 신호(2012a,...,2012G)를 생성한다. 예를 들어, 클러스터(1407a)의 경우, 서열분석기(1404)는 일련의 서열분석 사이클 동안 클러스터(1407a)에 대한 염기를 나타내는 대응하는 서열 신호(2012a)를 생성한다. 유사하게, 클러스터(1407b)의 경우, 서열분석기(1404)는 일련의 서열분석 사이클 동안 클러스터(1407b)에 대한 염기 등을 나타내는 대응하는 서열 신호(2012b)를 생성한다.
예에서, 개별 하위서열(2004)이 대응하는 클러스터(1407)에 로딩되지만, 염기 호출자(1414)는 어떤 하위서열이 어떤 클러스터에 로딩되는지 알지 못한다. 따라서 염기 호출자(1414)는 하위서열(2004)과 클러스터(1407) 사이의 매핑을 알지 못한다. 각 클러스터(1407)가 대응하는 서열 신호(2012)를 생성하므로, 염기 호출자(1414)는 하위서열(2004)과 서열 신호(2012) 사이의 매핑을 알지 못한다.
신경망 구성(2015)을 포함하는 염기 호출자(1414)는 각각 대응 서열 신호(2012a,...,2012G)에 기초하여 복수의 클러스터(1407a,...,1407G) 중 대응하는 것에 대한 염기 호출 서열(2018a,...,2018G)을 예측한다. 예를 들어, 클러스터(1407a)의 경우, 염기 호출자(1414)는 대응 서열 신호(2012a)에 기초하여 일련의 서열분석 사이클 동안 클러스터(1407a)에 대한 염기 호출을 포함하는 대응하는 염기 호출 서열(2018a)을 예측한다. 유사하게, 클러스터(1407b)의 경우, 염기 호출자(1414)는 대응 서열 신호(2012b)에 기초하여 일련의 서열분석 사이클 동안 클러스터(1407b)에 대한 염기 호출 등을 포함하는 대응하는 염기 호출 서열(2018b)을 예측한다.
신경망 구성(2015)은 단지 부분적으로만 훈련되고 완전히 훈련되지는 않는다. 따라서, 신경망 구성(2015)이 개별 하위서열의 염기 중 일부 또는 대부분을 정확하게 예측하는 것이 불가능할 수 있다.
또한, 하위서열에서의 염기 호출이 진행됨에 따라 페이딩 및/또는 페이징 또는 사전 페이징의 노이즈로 인해 염기 호출이 점점 더 어려워진다. 도 20c는 신호 강도가 염기 호출 동작의 서열분석 런(run)에서 사이클 수의 함수로서 감소되는 페이딩의 예를 예시한다. 페이딩은 사이클 수의 함수로서 형광 신호 강도의 지수적 감쇠이다. 서열분석 런이 진행됨에 따라, 분석물 가닥은 과도하게 세척되고, 반응성 종을 생성하는 레이저 방출에 노출되며, 가혹한 환경 조건의 대상이 된다. 이들 모두는 각 분석물에서의 단편의 점진적인 손실로 이어져 형광 신호 강도를 감소시킨다. 페이딩은 또한 디밍(dimming) 또는 신호 감쇠라고도 한다. 도 20c는 페이딩(2000C)의 일 예를 예시한다. 도 20c에서, AC 미세위성(microsatellite)을 갖는 분석물 단편의 강도 값은 지수적 감쇠를 보여준다.
도 20d는 서열분석 사이클이 진행됨에 따라 감소하는 신호 대 잡음비를 개념적으로 예시한다. 예를 들어, 서열분석이 진행됨에 따라, 신호 강도가 감소하고 잡음이 증가하여 신호 대 잡음비가 상당히 감소하기 때문에 정확한 염기 호출이 점점 더 어려워진다. 물리적으로, 나중의 합성 단계가 이전 합성 단계보다 센서에 대해 상이한 위치에 태그를 부착한다는 것이 관찰되었다. 센서가 합성 중인 서열 아래에 있는 경우, 이전 단계보다 나중 서열분석 단계에서 센서에서 더 멀리 떨어진 가닥에 태그를 부착함으로써 신호 감쇠가 초래된다. 이것은 서열분석 사이클의 진행과 함께 신호 감쇠를 일으킨다. 센서가 클러스터를 유지하는 기재 위에 있는 일부 설계에서는, 서열분석이 진행됨에 따라 신호가 감쇠하는 대신 증가할 수 있다.
조사된 플로우 셀 설계에서 신호가 감쇠하는 동안 잡음이 증가한다. 물리적으로, 서열분석이 진행됨에 따라 페이징 및 사전-페이징은 잡음을 증가시킨다. 페이징은 태그가 서열을 따라 진행하지 못하는 서열분석 단계를 지칭한다. 사전-페이징은 서열분석 사이클 동안 태그가 한 위치가 아닌 두 위치 앞으로 점프하는 서열분석 단계를 지칭한다. 페이징 및 사전-페이징은 모두 500 내지 1000 사이클에 한 번 정도 비교적 드물게 발생한다. 페이징은 사전-페이징보다 약간 더 흔하게 발생한다. 페이징 및 사전-페이징은 강도 데이터를 생성하는 클러스터에서의 개별 가닥에 영향을 미치므로, 클러스터의 강도 잡음 분포는 서열분석이 진행됨에 따라 이항, 삼항, 사항 등 확장으로 누적된다.
페이딩, 신호 감쇠 및 신호 대 잡음비 감소에 대한 추가 세부 사항, 도 20c 및 20d는 2020년 5월 14일자로 "Systems and Devices for Characterization and Performance Analysis of Pixel-Based Sequencing"라는 명칭으로 출원된 미국 정규 특허 출원 제16/874,599호(대리인 문서 번호 ILLM 1011-4/IP-1750-US)에서 찾을 수 있으며, 이는 마치 본원에 완전히 기재된 것처럼 참조로 포함된다.
따라서 염기 호출 중에 서열분석 사이클이 진행됨에 따라 염기 호출의 신뢰성이나 예측 가능성이 감소한다. 예를 들어, 도 20a의 하위서열(2004b)과 같은 특정 하위서열을 참조하면, 일반적으로 하위서열(2004b)의 염기 1 내지 10의 호출은 염기 10 내지 20의 호출 또는 염기 50 내지 60의 호출보다 더 신뢰성이 있을 수 있다. 다르게 말하면, 하위서열(2004b)의 L1 염기의 처음 몇 개의 염기는 하위서열(2004b)의 L1 염기의 나머지 염기보다 상대적으로 더 정확하게 예측될 가능성이 있다.
도 20e는 하위서열(2004b)의 L1 개수의 염기 중 제1 L2 개수의 염기의 염기 호출을 예시하며, 여기서 하위서열(2004b)의 제1 L2 개수의 염기는 하위서열(2004b)을 서열(2000)에 매핑하는 데 사용된다.
예를 들어, 도 20a, 도 20b 및 도 20e를 참조하면, 서열분석기(1404)는 하위서열(2004b)에 대응하는 서열 신호(2012b)를 생성한다(즉, 하위서열(2004b)이 클러스터(1407b)에 채워진다고 가정). 그러나 염기 호출자(1414)는 서열 신호(2012b)에 대응하는 하위서열이 서열(2000)에서 어디에 맞는지 알지 못한다. 즉, 염기 호출자(1414)는 특히 하위서열(2004b)이 클러스터(1407b)에 로딩되어 있다는 것을 알지 못한다.
도 20e에 예시된 바와 같이, 부분적으로 훈련된 NN 구성(2015)(예를 들어, 이는 도 19의 방법(1904)으로부터 N-올리고 표지된 훈련 데이터를 사용하여 훈련됨)은 서열 신호(2012b)를 수신하고 서열 신호(2012b)에 의해 표시된 L1 염기를 예측한다. L1 염기의 예측은 제1 L2 염기의 예측을 포함하며, 여기서 하위서열(2004b)의 제1 L2 개수의 염기의 예측은 하위서열(2004b)을 서열(2000)에 매핑하는 데 사용된다.
예를 들어 L2는 10이다. 숫자 L2는 L2가 L1보다 상대적으로 작은 한, 8, 10, 12, 13 등과 같은 임의의 적절한 숫자일 수 있다. 예를 들어, L2는 L1의 10% 미만, L1의 25% 미만 등이다.
예를 들어, NN 구성(2015)에 의해 예측된 하위서열(2004b)의 제1 L2 염기는 도 20e에 예시된 바와 같이 A, C, C, T, G, A, G, C, G, A이다. 나머지(L1-L2) 염기의 예측은 일반적으로 도 20e에서 B1, ..., B1으로서 예시된다.
이제, NN 구성(2015)이 제1 L2 개수의 염기를 정확하게 예측했을 가능성이 있거나 이러한 L2 개수의 염기 예측에 하나 이상의 오류가 있을 수 있다. 매핑 로직(1416)은 제1 L2개 염기 예측을 유기체 서열(2000)의 대응하는 연속 L2 염기에 매핑하려고 시도한다. 다르게 말하면, 매핑 로직(1416)은 유기체 서열(2000) 내의 하위서열(2004b)이 식별될 수 있도록 제1 L2 개수의 염기 예측을 유기체 서열(2000)의 연속 L2 염기와 일치시키려고 시도한다.
도 20e에 예시된 바와 같이, 매핑 로직(1416)은 하위서열(2004b)에 대해 예측된 제1 L2 개수의 염기와 유기체 서열(2000)의 연속 L2 염기 사이의 "실질적인" 그리고 "고유한" 일치를 찾을 수 있다. "실질적인" 일치는 일치가 100%가 아닐 수 있으며 일치에 하나 이상의 오류가 있을 수 있음에 유의한다. 예를 들어, NN 구성(2015)에 의해 예측된 하위서열(2004b)의 제1 L2 개수의 염기는 A, C, C, T, G, A, G, C, G, A인 반면, 유기체 서열(2000)에서 대응하는 실질적 일치의 순차적 L2 염기는 A, G, C, T, G, A, G, C, G, A이다. 따라서, 이들 두 L2 염기 서열에서의 제2 염기는 일치하지 않지만 나머지 염기는 일치한다. 그러한 불일치의 수가 임계 백분율 미만인 한, 매핑 로직(1416)은 2개의 L2 염기 단편 개수가 일치한다고 선언한다. 불일치의 임계값 비율은 10%, 20% 또는 숫자 L2의 일부 유사한 비율일 수 있다. 따라서 예에서, L2는 10이고 일치하는 로직(1416)은 최대 2개의 불일치(또는 20% 불일치)를 허용할 수 있다. 따라서, 매핑 로직(1416)은 하위서열(2004b)에 대해 예측된 염기의 제1 L2 개수의 염기 또는 이의 약간의 변화(예를 들어, 변화가 매칭 동안 오류 허용 오차를 의미하는 경우)를 유기체 서열(2000)에서의 연속 L2 염기에 매핑하는 것을 목표로 한다. 임계값 백분율 값은 구현에 따라 다르며 사용자가 구성 가능할 수 있다. 단지 예로서, 훈련의 초기 반복 동안 임계값 백분율은 상대적으로 높은 값(예: 20%)을 가질 수 있고; 임계값 백분율은 나중에 훈련을 반복하는 동안 상대적으로 낮은 값(예: 10%)을 가질 수 있다. 따라서, 훈련 반복의 초기 스테이지에서는 염기 호출 예측에서 오류가 발생할 가능성이 상대적으로 높기 때문에 임계값 백분율이 상대적으로 높을 수 있다. NN 구성이 더 잘 훈련되면 및 그 때, 더 나은 염기 호출 예측을 할 가능성이 있으므로 임계값 백분율이 점차 낮아질 수 있다. 그러나 다른 예에서는 임계값 백분율이 훈련의 모든 반복에 걸쳐 동일할 수 있다.
또한, 예에서, 적절한 매핑을 위해서는 2개의 L2 개수의 염기 간의 일치가 고유해야 하며, 고유하지 않은 일치로 인해 일치 및 매핑이 비결정적인 것으로 선언될 수 있다. 따라서 하위서열(2004b)(또는 이의 약간의 변화)에 대해 예측된 제1 L2 개수의 염기는 일치 및 매핑이 유효하도록 유기체 서열(2000)에서 한 번만 발생할 수 있다. 일반적으로 단순한 유기체의 실제 염기 서열의 경우 연속 L2 염기(또는 이의 작은 변화)가 유기체 서열(2000)에서 단 한 번만 발생할 가능성이 높다.
예를 들어, 도 20e의 예를 참조하면, 유기체 서열(2000)의 한 섹션에서 연속 염기 A, G, C, T, G, A, G, C, G, A의 발생이 있고 유기체 서열(2000)의 다른 섹션에서 연속 염기 A, C, A, T, G, A, G, C, G, A의 다른 발생이 있는 경우, 거의 틀림없이, 유기체 서열(2000)의 두 섹션 모두 NN 구성(2015)(A, C, C, T, G, G, A, G, C, G, A)에 의해 예측된 하위서열(2004b)의 제1 L2 개수의 염기와 일치될 수 있다. 따라서, 이 예에서, 일치는 고유하지 않으며 매핑 로직(1416)은 유기체 서열(2000)의 두 섹션 중 어느 것이 하위서열(2004b)의 L2 개수의 염기에 매핑되는지 알지 못한다. 그러한 시나리오에서, 매핑 로직(1416)은 신뢰할 수 있는 일치가 없음을 선언한다(즉, 비결정적인 매핑을 선언함).
도 20e의 예를 참조하면, 예시된 바와 같이, NN 구성(2015)에 의해 예측된 하위서열(2004b)의 제1 L2 개수의 염기는 유기체 서열(2000)의 대응하는 L2 개수의 연속 염기와 "실질적으로" 그리고 "고유하게" 일치한다. 또한 유기체 서열(2000)의 섹션(2000B)(L1 염기를 가짐)을 가정하는데, 여기서 하위서열(2004b)의 제1 L2 예측은 유기체 서열(2000)의 섹션 B의 제1 L2 염기와 "실질적으로" 그리고 "고유하게" 일치한다. 따라서, 가장 가능하게는, 하위서열(2004b)은 실제로 유기체 서열(2000)의 섹션(2000B)이다. 다르게 말하면, 가장 가능하게는, 유기체 서열(2000)의 섹션(2000B)이 도 20a에서 섹션화되어 하위서열(2004b)을 형성한다.
따라서, 유기체 서열(2000)의 섹션(2000B)은 하위서열(2004b)에 대응하는 서열 신호(2012b)에 대한 실측으로서 작용한다. 도 20f는 도 20e의 매핑으로부터 생성되는 표지된 훈련 데이터(2050)를 예시하며, 여기서 표지된 훈련 데이터(2050)는 실측으로서 도 20a의 유기체 서열(2000)의 섹션을 포함한다.
도 20f의 표지된 훈련 데이터(2050)에서, 단지 예로서, 하위서열(2004a, 2004d)은 비결정적인 매핑으로 인해 유기체 서열(2000)의 어떤 섹션에도 매핑되지 않는다. 예를 들어, 도 20e와 관련하여 논의된 바와 같이, 매핑 로직(1416)이 결정적인 매핑을 선언하기 위해서는 하위서열의 제1 L2 염기와 유기체 서열(2000)의 대응 섹션 사이에 실질적이고 고유한 일치가 있어야 한다. NN 구성(2015)은 하위서열(2004a, 2004d) 각각의 제1 L2 염기에서 상대적으로 더 많은 수의 오류를 범했을 수 있으며, 그 결과 이들 하위서열은 유기체 서열(2000)의 임의의 대응 섹션에 매핑될 수 없다.
도 20f의 표지된 훈련 데이터(2050)에서, 하위서열(2004b)(따라서 서열 신호(2012b))은 도 20e와 관련하여 논의된 바와 같이 유기체 서열(2000)의 섹션(2000B)에 매핑된다. 유사하게, 하위서열(2004c)은 유기체 서열(2000)의 섹션(2000C)에 매핑되고 하위서열(2004S)은 유기체 서열(2000)의 섹션(2000S)에 매핑된다. 예를 들어, 하위서열(2004c)은 유기체 서열(2000)의 섹션(2000C)(예를 들어, 하위서열(2004c)과 동일한 수의 염기를 가짐)에 매핑되어 하위서열(2004c)의 제1 L2 염기 예측이 섹션(2000C)의 제1 L2 염기와 "실질적으로" 그리고 "고유하게" 일치되도록 한다.
도 20g는 제1 유기체 수준 신경망 구성(2015)을 포함하는 염기 호출자(1414)를 훈련시키기 위해 "유기체 수준 훈련 스테이지"의 "훈련 데이터 소비 및 훈련 페이즈"에서 동작하는 도 14a의 염기 호출 시스템(1400)을 예시한다. 예를 들어, 도 20f의 표지된 훈련 데이터(2050)는 도 20g의 훈련에 사용된다.
예를 들어, 염기 호출자(1414)에 의해 예측된 하위서열(2004b)의 L1 염기는 유기체 서열(2000)의 섹션(2000B)과 비교된다. 염기 호출자(1414)에 의해 예측된 하위서열(2004b)의 L1 염기는 유기체 서열(2000)과 비교되어 도 20f의 매핑을 생성한 제1 L2 염기를 갖는다는 점에 유의한다. 나머지 (L1-L2) 염기는 도 20f의 매핑을 생성하는 동안 비교되지 않았는데, 이는 나머지 (L1-L2) 염기가 많은 오류를 포함할 가능성이 있었기 때문이다. 이는 도 20c 및 도 20d와 관련하여 논의된 바와 같이 하위서열에서 나중에 발생하는 염기는 페이딩, 페이징 및/또는 프리-페이징으로 인해 잘못 예측될 가능성이 더 높기 때문이다. 도 20g에서, 염기 호출자(1414)에 의해 예측된 하위서열(2004b)의 전체 L1 염기는 유기체 서열(2000)의 섹션(2000B)에 있는 대응하는 L1 염기와 비교된다.
따라서, 도 20f의 매핑은 하위서열(2004b)을 도 20g와 비교시켜야 할 유기체 서열(2000)(즉, 섹션(2000B))의 일부를 특정한다. 매핑이 완료되고 표지된 훈련 데이터(2050)가 생성되면, 표지된 훈련 데이터(2050)는 NN 구성(2015)의 역방향 전달에서 기울기 업데이트(2017)와 NN 구성(2015)의 결과 훈련에 사용되는 오류 신호의 비교 및 생성을 위해 도 20g에서 사용된다.
일부 하위서열(예컨대, 하위서열(2004a, 2004d), 도 20f 참조)은 유기체 서열(2000)의 대응하는 섹션과 결정적으로 일치되지 않았으므로, 이들 하위서열에 대응하는 염기 호출 예측은 도 20g의 훈련에 사용되지 않는다.
도 21은 도 20a의 단순 유기체 서열(2000)을 사용하여 염기 호출을 위한 신경망 구성을 반복적으로 훈련하기 위한 예시적 방법(2100)을 나타내는 흐름도를 예시한다. 방법(2100)은 본질적으로 단조롭게 복잡한 NN 구성을 점진적으로 훈련시킨다. 본원에서 이전에 논의된 바와 같이, NN 구성의 복잡도를 증가시키는 것은 NN 구성의 층 수 증가, NN 구성의 필터 수 증가, NN 구성의 토폴로지 복잡도 증가 및/또는 기타를 포함할 수 있다. 예를 들어, 방법(2100)은 제1 유기체 수준 NN 구성(도 20b, 20g 및 다른 도면과 관련하여 본원에서 앞서 논의한 NN 구성(2015)임), 제2 유기체 수준 NN 구성, R번째 유기체 수준 NN 구성 등을 참조한다. 예에서, R번째 유기체 수준 NN 구성의 복잡도는 (R-1)번째 유기체 수준 NN 구성의 복잡도보다 높고, 이는 (R-2)번째 유기체 수준 NN 구성의 복잡도보다 더 높은 등이며, 제2 유기체 수준 NN 구성의 복잡도는 제1 유기체 수준 NN 구성보다 더 높다.
방법(2100)에서 동작(2104a)(이는 블록(2104a1, ..., 2104am)을 포함함)은 제1 유기체 수준 NN 구성을 훈련하고 제2 유기체 수준 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이고, 동작(2104b)은 제2 유기체 수준 NN 구성을 훈련하고 제3 유기체 수준 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이라는 점 등에 유의한다. 이 프로세스는 계속되고 마지막으로 동작(2104R)은 R번째 유기체 수준 NN 구성을 훈련하고 다음 스테이지 NN 구성을 위해 표지된 훈련 데이터를 생성하기 위한 것이다. 따라서 일반적으로 말하면 방법(2100)에서 동작(2104i)은 i번째 유기체 수준 NN 구성을 훈련하고 (i+1)번째 유기체 수준 NN 구성에 대한 표지된 훈련 데이터를 생성하기 위한 것이며, 여기서 i = 1, ..., R이다.
방법(2100)은, 2104a1에서, (i) 도 19의 방법(1900)의 1904N으로부터의 N-올리고 표지된 훈련 데이터를 사용하여 제1 유기체 수준 NN 구성(예를 들어, 도 20b의 유기체 수준 NN 구성(2015), 이 NN 구성의 훈련은 도 20b에 예시되어 있지 않지만)을 훈련하는 단계, 및 (ii) 적어도 부분적으로 훈련된 제1 유기체 수준 NN 구성(2015)을 사용하여 표지된 훈련 데이터를 생성하는 단계를 포함한다. 표지된 훈련 데이터는 도 20f에 예시되어 있으며, 그 생성은 도 20e 및 20f와 관련하여 논의된다.
그 다음, 방법(2100)은 2104a1에서 2014a2로 진행되고, 그 동안 제1 유기체 수준 NN 구성(2015)을 훈련하는 제2 반복이 수행된다. 예를 들어, 2104a2에서, (i) 제1 유기체 수준 NN 구성(2015)은 예를 들어 도 20g와 관련하여 논의된 바와 같이 이전 스테이지로부터의 표지된 훈련 데이터를 사용하여 추가로 훈련되고, (ii) 추가로 표지된 훈련 데이터는 적어도 부분적으로 훈련된 제1 유기체 수준 NN 구성(2015)을 사용하여 생성된다(예를 들어, 도 20e 및 도 20f와 관련한 논의와 유사하게).
훈련 및 생성 동작은 반복적으로 반복되며, 최종적으로 2104am에서, 제1 유기체 수준 NN 구성(2015)의 훈련이 완료된다. 블록(2014a1)은 제1 유기체 수준 NN 구성(2015)을 훈련하는 제1 반복이고, 블록(2104a2)은 제1 유기체 수준 NN 구성(2015)을 훈련하는 제2 반복인 등이며, 마지막으로 블록(2104am)은 제1 유기체 수준 NN 구성(2015)을 훈련하는 m번째 반복이다. 반복 횟수는 도 17a의 방법(1700)과 관련하여 본원에서 앞서 논의된 것과 같은 하나 이상의 인자에 기초할 수 있다(예를 들어, 반복 횟수 "k"를 선택하는 기준이 논의된 곳). 제1 유기체 수준 NN 구성(2015)의 복잡도는 2104a1, …, 2104am의 반복 동안에 변화되지 않는다.
제1 유기체 수준 NN 구성(2015)에 대한 반복의 끝에서(즉, 블록(2104am)의 끝에서), 방법(2100)은 블록(2104b)으로 진행하며, 여기서 제2 유기체 수준 NN 구성이 이제 반복적으로 훈련된다. 제2 유기체 수준 NN 구성의 훈련 및 훈련 표지된 데이터의 연관된 생성은 또한 동작(2104a1, ...., 2104am)과 관련하여 논의된 것과 유사한 반복을 포함하므로 더 자세히 논의되지 않는다.
훈련 표지된 데이터의 생성과 관련된 더 복잡한 NN 구성을 점진적으로 훈련하는 이 프로세스는 방법(2100)의 2104R에서 R번째 유기체 수준 NN 구성이 훈련되고 다음 NN 구성을 훈련하기 위해 대응하는 표지된 훈련 데이터가 생성될 때까지 계속된다.
도 22는 도 14a의 염기 호출자(1414)를 위한 대응하는 NN 구성의 훈련을 위한 복잡한 유기체 서열의 사용을 예시한다. 예를 들어, 도 20a 내지 도 21과 관련하여 논의된 바와 같이, 하위서열당 약 L1 개수의 염기를 포함하는 상대적으로 단순한 유기체 서열(2000)은 R개의 간단한 유기체 수준 NN 구성을 반복적으로 훈련시키고 대응하는 표지된 훈련 데이터를 생성하는 데 사용된다. 예를 들어, 도 21의 방법(2100)은 단순 유기체 서열(2000)을 사용하여 이러한 반복적 훈련 및 표지된 훈련 데이터의 생성을 예시한다. 논의된 바와 같이, 단순 유기체 서열(2000)은 상대적으로 단순한(또는 상대적으로 작은) 유전자 서열을 갖는 Phix 또는 다른 유기체일 수 있다.
또한 도 22에는 상대적으로 복잡한 유기체 서열(2200a)의 사용이 예시되어 있다. 예를 들어, 복잡한 유기체 서열(2200a)의 염기 수가 유기체 서열(2000)의 염기의 수보다 높기 때문에 유기체 서열(2200a)은 유기체 서열(2000)보다 더 복잡하다. 단지 예로서, 유기체 서열(2000)은 약 100만 개의 염기를 가질 수 있고, 복잡한 유기체 서열(2200a)은 400만 개의 염기를 가질 수 있다. 다른 예에서, 복잡한 유기체 서열(2200a)로부터 섹션화된 각각의 하위서열은 유기체 서열(2000)로부터 섹션화된 각 하위서열의 것보다 더 많은 수의 염기를 갖는다. 또 다른 예에서, 복잡한 유기체 서열(2200a)로부터 섹션화된 하위서열의 수는 유기체 서열(2000)로부터 섹션화된 하위서열의 수보다 크다. 예를 들어, 복잡한 유기체 서열(2200a) 및 유기체 서열(2000)을 섹션화할 때, 복잡한 유기체 서열(2200a)로부터 섹션화된 하위서열의 수는 유기체 서열(2000)로부터 섹션화된 하위서열의 수보다 높을 것인데, 왜냐하면 (i) 복잡한 유기체 서열(2200a)은 유기체 서열(2000)보다 더 많은 수의 염기를 가지며 (ii) 각 하위서열은 많아야 임계값 수의 염기를 가질 수 있기 때문이다. 예에서, 복잡한 유기체 서열(2200a)은 대장균과 같은 박테리아로부터의 유전 물질, 또는 유기체 서열(2000)보다 더 복잡한 다른 적절한 유기체 서열을 포함한다.
도 22에 예시된 바와 같이, 복잡한 유기체 서열(2200a)은 복잡한 유기체 수준 NN 구성의 Ra 수를 반복적으로 훈련하고 표지된 훈련 데이터를 생성하는 데 사용된다. 표지된 훈련 데이터의 훈련 및 생성은 도 21의 방법(2100)과 관련하여 논의된 것과 유사하다(차이점은 방법(2100)이 구체적으로 유기체 서열(2000)에 관한 것인 반면, 여기서는 복잡한 유기체 서열(2200a)이 사용된다는 점이다).
이러한 반복 과정이 계속되고, 최종적으로 상대적으로 더 복잡한 유기체 서열(2200T)이 사용된다. 더 복잡한 유기체 서열(2200T)은 유기체 서열(2000, 2200a)보다 더 복잡하다. 예를 들어, 더 복잡한 유기체 서열(2200T)에서의 염기 수는 유기체 서열(2000, 2200a) 각각에서의 염기 수보다 더 크다. 다른 예에서, 더 복잡한 유기체 서열(2200T)로부터 섹션화된 각각의 하위서열은 유기체 서열(2000 또는 2200a)로부터 섹션화된 각 하위서열보다 더 많은 수의 염기를 갖는다. 또 다른 예에서, 더 복잡한 유기체 서열(2200T)로부터 섹션화된 하위서열의 수는 유기체 서열(2000 또는 2200a)로부터 섹션화된 하위서열의 수보다 더 크다. 예에서, 더 복잡한 유기체 서열(2200T)은 인간 또는 다른 포유동물로부터의 유전 물질과 같은 복잡한 종으로부터의 유전 물질을 포함한다.
도 22에 예시된 바와 같이, 유기체 서열(2200T)은 더 복잡한 유기체 수준 NN 구성의 RT 수를 반복적으로 훈련하고 표지된 훈련 데이터를 생성하는 데 사용된다. 표지된 훈련 데이터의 훈련 및 생성은 도 21의 방법(2100)과 관련하여 논의된 것과 유사하다(차이점은 방법(2100)이 구체적으로 유기체 서열(2000)에 관한 것인 반면, 여기서는 유기체 서열(2000T)이 사용된다는 점이다).
도 23a는 염기 호출을 위한 신경망 구성을 반복적으로 훈련하기 위한 예시적인 방법(2300)을 묘사하는 흐름도를 예시한다. 방법(2300)은 도 14a 내지 도 22와 관련하여 본원에서 논의된 실시형태 및 예 중 적어도 일부를 요약한다. 방법(2300)은 본원에 논의된 바와 같이 본질적으로 단조롭게 복잡한 NN 구성을 훈련시킨다. 방법(2300)은 또한 분석물로서 복잡한 유전자 서열을 단조롭게 사용한다. 방법(2300)은 본원에 논의된 다양한 도면의 염기 호출자(1414)를 훈련시키는 데 사용된다.
방법(2300)은 2304에서 시작하는데, 여기서 NN 구성(1415)(예를 들어, 도 14a 참조)을 포함하는 염기 호출자(1414)는 도 17a의 방법(1700)의 블록(1704)과 관련하여 논의된 바와 같이 단일 올리고 실측 데이터를 사용하여 반복적으로 훈련된다. 도 14a의 적어도 부분적으로 훈련된 NN 구성(1415)은 도 17a의 방법(1700)의 블록(1704)과 관련하여 또한 논의된 바와 같이 표지된 훈련 데이터를 생성하는 데 사용된다.
그 다음, 방법(2300)은 2304에서 2308로 진행하는데, 여기서 하나 이상의 NN 구성은 2-올리고 서열을 사용하여 반복적으로 훈련되고 대응하는 표지된 훈련 데이터는 예를 들어 도 17a의 방법(1700)과 관련하여 논의된 바와 같이 생성된다.
그 다음, 방법(2300)은 2308에서 2312로 진행하는데, 여기서 하나 이상의 NN 구성은 3-올리고 서열을 사용하여 반복적으로 훈련되고 대응하는 표지된 훈련 데이터는 예를 들어 도 19의 방법(1900)과 관련하여 논의된 바와 같이 생성된다.
점진적으로 더 많은 수의 올리고를 사용하여 NN 구성을 훈련하는 이 프로세스는 2316에서 하나 이상의 NN 구성이 N-올리고 서열을 사용하여 반복적으로 훈련되고 대응하는 표지된 훈련 데이터가 예를 들어 도 19의 방법(1900)과 관련하여 논의된 바와 같이 생성될 때까지 계속된다.
그 다음 방법(2300)은 2320으로 전환하는데, 여기서 훈련 및 표지된 훈련 데이터 생성은 유기체를 포함한다. 2320에서, 도 20a의 단순 유기체 서열(2000)과 같은 단순 유기체 서열이 사용된다. 하나 이상의 NN 구성은 단순 유기체 서열을 사용하여 훈련되고(예를 들어, 도 21의 방법(2100) 참조) 표지된 훈련 데이터가 생성된다.
방법(2300)이 2320으로부터 진행됨에 따라, 점점 더 복잡한 유기체 서열이 도 22와 관련하여 논의된 바와 같이 사용된다. 마지막으로, 2328에서, 하나 이상의 NN 구성은 복잡한 유기체 서열(예를 들어, 도 22의 더 복잡한 유기체 서열(2200T))을 사용하여 반복적으로 훈련되고, 대응하는 표지된 훈련 데이터가 생성된다.
따라서, 방법(2300)은 염기 호출자(1414)가 "적절하게 훈련"될 때까지 계속된다. "적절하게 훈련된"은 염기 호출자(1414)가 이제 목표 오류율보다 낮은 오류율로 염기 호출을 할 수 있음을 의미할 수 있다. 논의된 바와 같이, 훈련 프로세스는 염기 호출의 적절한 훈련 및 목표 오류율이 달성될 때까지 반복적으로 계속될 수 있다(예를 들어, 도 23e의 "오류율" 차트 참조). 방법(2300)의 끝에서, 방법(2300)의 마지막 NN 구성을 포함하는 염기 호출자(1414)가 이제 적절하게 훈련된다. 따라서, 방법(2300)의 마지막 NN 구성을 포함하는 훈련된 염기 호출자(1414)는 이제 추론을 위해 사용될 수 있으며, 예를 들어 미지의 유전자 서열을 서열분석하는 데 사용될 수 있다.
도 23b 내지 23e는 본 개시내용에서 논의된 염기 호출자 훈련 프로세스의 효율성을 예시하는 다양한 차트를 예시한다. 도 23b를 참조하면, (i) 본원에 논의된 신경망 기반 훈련 데이터 생성 기술을 사용하여 훈련된 NN 구성(1615)과 같은 제1 2-올리고 NN 구성, 및 (ii) 통상적인 2-올리고 훈련 데이터 생성 기술을 사용하여 훈련된 NN 구성에 의해 생성된 훈련 데이터의 매핑 비율을 나타내는 차트(2360)가 예시되어 있다. 차트(2360)에서의 흰색 막대는 본원에 논의된 신경망 기반 모델을 사용하여 생성된 훈련 데이터를 사용하여 훈련된 제1 2-올리고 NN 구성의 매핑 데이터를 예시한다. 따라서, 차트(2360)에서의 흰색 막대는 본원에 논의된 다양한 기술을 사용하여 생성된 매핑 데이터를 예시한다. 차트(2360)에서의 회색 막대는 실시간 분석(RTA) 모델과 같은 통상적인 비-신경망 기반 모델에 의해 생성된 훈련 데이터에 의해 훈련된 NN 구성과 연관된 데이터를 예시한다. RTA 모델의 예는 2019년 5월 28일에 특허된 "Data processing system and methods"이라는 제목의 미국 특허 제10304189 B2호에서 논의되며, 이는 마치 본원에 완전히 기재된 것처럼 참조로 포함된다. 따라서 차트(2360)에서의 회색 막대는 통상적인 기술을 사용하여 생성된 매핑 데이터를 예시한다. 예에서, 차트(2360)의 흰색 막대는 도 17a의 방법(1700)의 동작(1704b1)에서 생성될 수 있다. 차트(2360)는 올리고 1에 매핑된 염기 호출 예측의 백분율, 올리고 2에 매핑된 염기 호출 예측의 백분율, 올리고 1 또는 2 중 어느 하나에 결정적으로 매핑될 수 없는 염기 호출 예측의 백분율(즉, 비결정적인 백분율)을 예시한다. 볼 수 있듯이, 본원에서 논의된 기술을 사용하여 생성된 훈련 데이터에 대한 비결정적인 백분율은 통상적인 기술을 사용하여 생성된 훈련 데이터에 대한 비결정적인 백분율보다 약간 더 높다. 따라서, 초기에(예를 들어, 훈련 반복의 시작에서), 통상적인 기술은 본원에서 논의된 훈련 데이터 생성 기술보다 약간 더 나은 성능을 나타낸다.
이제 도 23c를 참조하면, (i) 본원에 논의된 신경망 기반 훈련 데이터 생성 기술을 사용하여 훈련된 제1 2-올리고 NN 구성(예를 들어, NN 구성(1615)), (ii) 본원에 논의된 신경망 기반 훈련 데이터 생성 기술을 사용하여 훈련된 제2 2-올리고 NN 구성(점선 막대), 및 (iii) 통상적인 2-올리고 훈련 데이터 생성 기술, 예컨대 RTA 기반의 통상적인 훈련 데이터 생성 기술(회색 막대)을 사용하여 훈련된 NN 구성을 사용하여 생성된 훈련 데이터에서의 매핑 백분율을 나타내는 차트(2365)가 예시되어 있다. 예에서, 제1 2-올리고 NN 구성(흰색 막대) 및 제2 2-올리고 NN 구성(점선 막대)은 각각 도 17a의 방법(1700)의 동작(1704b 및 1704c)에 대응한다. 차트(2365)는 올리고 1에 매핑된 염기 호출 예측의 백분율, 올리고 2에 매핑된 염기 호출 예측의 백분율, 올리고 1 또는 2 중 어느 하나에 결정적으로 매핑될 수 없는 염기 호출 예측의 백분율(즉, 비결정적인 백분율)을 예시한다. 볼 수 있듯이, 제1 2-올리고 NN 구성을 사용하여 생성된 훈련 데이터에 대한 비결정적인 비율은 (i) 제2 2-올리고 NN 구성을 사용하여 생성된 훈련 데이터 및 (ii) 통상적인 기술을 사용하여 생성된 훈련 데이터 각각보다 더 높다. 또한 제2 2-올리고 NN 구성을 사용하여 생성된 훈련 데이터에 대한 비결정적인 비율은 통상적인 기술을 사용하여 생성된 훈련 데이터와 거의 유사하다. 따라서, 반복 및 보다 복잡한 NN 구성을 통해 NN 기반 구성을 사용하여 생성된 훈련 데이터는 통상적인 기술을 사용하여 생성된 훈련 데이터와 거의 유사하다.
이제 도 23d를 참조하면, (i) 본원에 논의된 신경망 기반 훈련 데이터 생성 기술을 사용하여 훈련된 제1 4-올리고 NN 구성(흰색 막대), 및 (ii) 통상적인 4-올리고 훈련 데이터 생성 기술, 예를 들어 RTA 기반 기술을 사용하여 훈련된 NN 구성(회색 막대)에 의해 생성된 훈련 데이터의 매핑 비율을 나타내는 차트(2370)가 예시되어 있다. 볼 수 있듯이, 본원에서 논의된 기술을 사용하여 생성된 훈련 데이터에 대한 비결정적인 백분율은 통상적인 기술을 사용하여 생성된 훈련 데이터에 대한 비결정적인 백분율과 유사하다. 따라서, 통상적인 기술 및 본원에 논의된 훈련 데이터 생성 기술은 훈련이 4-올리고 서열로 전환될 때 유사한 결과를 생성한다.
이제 도 23e를 참조하면, (i) 예를 들어 도 23a의 방법(2300)의 동작(2328)과 관련하여 본원에 논의된 복잡한 유기체 서열을 사용하여 훈련된 NN 구성(실선) 및 (ii) 통상적인 복잡한 유기체 훈련 데이터 생성 기술, 예를 들어 RTA 기반 기술을 사용하여 훈련된 NN 구성(점선)에 의해 생성된 데이터에서의 오류율을 나타내는 차트(2375)가 예시되어 있다. 볼 수 있듯이, 본원에서 논의된 기술을 사용하여 생성된 데이터에 대한 오류율은 통상적인 기술을 사용하여 생성된 데이터와 유사하다. 따라서, 통상적인 기술 및 본원에 논의된 훈련 데이터 생성 기술은 유사한 결과를 생성한다. 논의된 바와 같이, 본원에서 논의된 훈련 데이터 생성 기술은, 예를 들어 통상적인 기술이 훈련 데이터 생성을 위해 이용가능하지 않거나 준비되지 않은 경우 통상적인 기술 대신에 사용될 수 있다.
도 24는 일 구현예에 따른 염기 호출 시스템(2400)의 블록도이다. 염기 호출 시스템(2400)은 생물학적 또는 화학적 물질 중 적어도 하나에 관련된 임의의 정보 또는 데이터를 획득하도록 동작할 수 있다. 일부 구현예에서, 염기 호출 시스템(2400)은 벤치탑(bench-top) 디바이스 또는 데스크톱 컴퓨터와 유사할 수 있는 워크스테이션이다. 예를 들어, 원하는 반응을 이행하기 위한 시스템 및 구성요소의 대부분(또는 전부)이 공통 하우징(2416) 내에 있을 수 있다.
특정 구현예에서, 염기 호출 시스템(2400)은, 드 노보 서열분석(de novo sequencing), 전체 게놈 또는 표적 게놈 영역의 재서열분석, 및 메타게노믹스(metagenomics)를 포함하지만 이들로 제한되지 않는 다양한 적용을 위해 구성된 핵산 서열분석 시스템(또는 서열분석기)이다. 서열분석기는 또한 DNA 또는 RNA 분석을 위해 사용될 수 있다. 일부 구현예에서, 염기 호출 시스템(2400)은 또한 바이오센서 내의 반응 부위를 생성하도록 구성될 수 있다. 예를 들어, 염기 호출 시스템(2400)은 샘플을 수용하도록, 그리고 샘플로부터 도출된 클론 증폭된 핵산의 표면 부착 클러스터를 생성하도록 구성될 수 있다. 각각의 클러스터는 바이오센서 내의 반응 부위를 구성하거나 그의 일부일 수 있다.
예시적인 염기 호출 시스템(2400)은 바이오센서(2402) 내에서 원하는 반응을 수행하기 위해 바이오센서(2402)와 상호작용하도록 구성된 시스템 리셉터클 또는 인터페이스(2412)를 포함할 수 있다. 도 24와 관련한 하기의 설명에서, 바이오센서(2402)는 시스템 리셉터클(2412) 내로 로딩된다. 그러나, 바이오센서(2402)를 포함하는 카트리지는 시스템 리셉터클(2412) 내로 삽입될 수 있고, 일부 상태에서, 카트리지는 일시적으로 또는 영구적으로 제거될 수 있다는 것이 이해된다. 전술된 바와 같이, 카트리지는, 특히, 유체 제어 및 유체 저장 구성요소를 포함할 수 있다.
특정 구현예에서, 염기 호출 시스템(2400)은 바이오센서(2402) 내에서 다수의 병렬 반응을 수행하도록 구성된다. 바이오센서(2402)는 원하는 반응이 발생할 수 있는 하나 이상의 반응 부위를 포함한다. 반응 부위는, 예를 들어, 바이오센서의 고체 표면에 고정화되거나, 또는 바이오센서의 대응하는 반응 챔버 내에 위치되는 비드(또는 다른 이동가능한 기재)에 고정화될 수 있다. 반응 부위는, 예를 들어, 클론 증폭된 핵산의 클러스터를 포함할 수 있다. 바이오센서(2402)는 솔리드 스테이트 이미지화 디바이스(예컨대, CCD 또는 CMOS 이미저) 및 이에 탑재되는 플로우 셀을 포함할 수 있다. 플로우 셀은, 염기 호출 시스템(2400)으로부터 용액을 수용하고 그 용액을 반응 부위를 향해 지향시키는 하나 이상의 플로우 채널을 포함할 수 있다. 선택적으로, 바이오센서(2402)는 열 에너지를 플로우 채널 내로 또는 플로우 채널 밖으로 이송하기 위한 열 요소와 결합하도록 구성될 수 있다.
염기 호출 시스템(2400)은 생물학적 또는 화학적 분석을 위한 미리 결정된 방법 또는 검정 프로토콜을 수행하기 위해 서로 상호작용하는 다양한 구성요소, 조립체, 및 시스템(또는 서브시스템)을 포함할 수 있다. 예를 들어, 염기 호출 시스템(2400)은 염기 호출 시스템(2400)의 다양한 구성요소, 조립체, 및 서브시스템, 및 또한 바이오센서(2402)와 통신할 수 있는 시스템 제어기(2404)를 포함한다. 예를 들어, 시스템 리셉터클(2412)에 더하여, 염기 호출 시스템(2400)은 또한 염기 호출 시스템(2400) 및 바이오센서(2402)의 유체 네트워크 전체에 걸쳐 유체의 유동을 제어하기 위한 유체 제어 시스템(2406); 생물검정 시스템에 의해 사용될 수 있는 모든 유체(예컨대, 기체 또는 액체)를 보유하도록 구성된 유체 저장 시스템(2408); 유체 네트워크, 유체 저장 시스템(2408), 및/또는 바이오센서(2402)에서의 유체의 온도를 조절할 수 있는 온도 제어 시스템(2410); 및 바이오센서(2402)를 조명하도록 구성된 조명 시스템(2409)을 포함할 수 있다. 전술된 바와 같이, 바이오센서(2402)를 갖는 카트리지가 시스템 리셉터클(2412) 내로 로딩되는 경우, 카트리지는 또한 유체 제어 및 유체 저장 구성요소를 포함할 수 있다.
또한, 도시된 바와 같이, 염기 호출 시스템(2400)은 사용자와 상호작용하는 사용자 인터페이스(2414)를 포함할 수 있다. 예를 들어, 사용자 인터페이스(2414)는 사용자로부터의 정보를 디스플레이하거나 요청하기 위한 디스플레이(2413) 및 사용자 입력을 수신하기 위한 사용자 입력 디바이스(2415)를 포함할 수 있다. 일부 구현예에서, 디스플레이(2413) 및 사용자 입력 디바이스(2415)는 동일한 디바이스이다. 예를 들어, 사용자 인터페이스(2414)는 개인의 터치의 존재를 검출하도록, 그리고 또한 디스플레이 상의 터치의 위치를 식별하도록 구성된 터치 감응형 디스플레이를 포함할 수 있다. 그러나, 마우스, 터치패드, 키보드, 키패드, 핸드헬드 스캐너, 음성 인식 시스템, 모션 인식 시스템 등과 같은 다른 사용자 입력 디바이스(2415)가 사용될 수 있다. 하기에서 더 상세히 논의되는 바와 같이, 염기 호출 시스템(2400)은 원하는 반응을 수행하기 위해, 바이오센서(2402)(예컨대, 카트리지의 형태로 있음)를 포함하는 다양한 구성요소와 통신할 수 있다. 염기 호출 시스템(2400)은 또한 사용자에게 원하는 정보를 제공하기 위해 바이오센서로부터 획득된 데이터를 분석하도록 구성될 수 있다.
시스템 제어기(2404)는 마이크로제어기를 사용하는 시스템, 축약 명령어 세트 컴퓨터(RISC: Reduced Instruction Set Computer), 주문형 집적 회로(ASIC), 필드 프로그래밍가능 게이트 어레이(FPGA), 논리 회로, 및 본원에 기술된 함수를 실행할 수 있는 임의의 다른 회로 또는 프로세서를 포함하는, 임의의 프로세서 기반 또는 마이크로프로세서 기반 시스템을 포함할 수 있다. 위의 예는 단지 예시적인 것이며, 따라서, 어떠한 방식으로든, 용어 "시스템 제어기"의 정의 및/또는 의미를 제한하도록 의도되지 않는다. 예시적인 구현예에서, 시스템 제어기(2404)는 검출 데이터를 획득하는 것 및 분석하는 것 중 적어도 하나를 위해 하나 이상의 저장 요소, 메모리, 또는 모듈에 저장된 명령어의 세트를 실행한다. 검출 데이터는 픽셀 신호의 복수의 서열을 포함하여, 수백만 개의 센서(또는 픽셀) 각각으로부터의 픽셀 신호의 서열이 많은 염기 호출 사이클에 걸쳐서 검출될 수 있게 할 수 있다. 저장 요소는 염기 호출 시스템(2400) 내의 정보 소스 또는 물리적 메모리 요소의 형태로 있을 수 있다.
명령어의 세트는 본원에 기술된 다양한 구현예의 방법 및 프로세스와 같은 특정 동작을 수행하도록 염기 호출 시스템(2400) 또는 바이오센서(2402)에 지시하는 다양한 커맨드를 포함할 수 있다. 명령어의 세트는, 유형적(tangible)인 비일시적 컴퓨터 판독가능 매체 또는 매체의 일부를 형성할 수 있는 소프트웨어 프로그램의 형태로 있을 수 있다. 본원에서 사용되는, 용어 "소프트웨어" 및 "펌웨어"는 상호교환가능하며, RAM 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 및 비휘발성 RAM(NVRAM) 메모리를 포함한, 컴퓨터에 의한 실행을 위한 메모리에 저장된 임의의 컴퓨터 프로그램을 포함한다. 위의 메모리 유형은 단지 예시적이며, 따라서, 컴퓨터 프로그램의 저장을 위해 사용가능한 메모리의 유형에 대한 제한은 아니다.
소프트웨어는 시스템 소프트웨어 또는 애플리케이션 소프트웨어와 같은 다양한 형태로 있을 수 있다. 또한, 소프트웨어는 별개의 프로그램의 집합의 형태, 또는 더 큰 프로그램 내의 프로그램 모듈 또는 프로그램 모듈의 일부분의 형태로 있을 수 있다. 소프트웨어는 또한 객체 지향 프로그래밍 형태의 모듈식 프로그래밍을 포함할 수 있다. 검출 데이터를 획득한 후에, 검출 데이터는 염기 호출 시스템(2400)에 의해 자동으로 처리될 수 있거나, 사용자 입력에 응답하여 처리될 수 있거나, 또는 다른 처리 기계에 의해 이루어진 요청(예컨대, 통신 링크를 통한 원격 요청)에 응답하여 처리될 수 있다. 예시된 구현예에서, 시스템 제어기(2404)는 분석 모듈(2538)(도 25에 도시됨)을 포함한다. 다른 구현예에서, 시스템 제어기(2404)는 분석 모듈(2538)을 포함하지 않고, 대신에, 분석 모듈(2538)에 액세스한다(예컨대, 분석 모듈(2538)은 클라우드 상에서 개별적으로 호스팅될 수 있음).
시스템 제어기(2404)는 통신 링크를 통해 염기 호출 시스템(2400)의 바이오센서(2402) 및 다른 구성요소에 접속될 수 있다. 시스템 제어기(2404)는 또한 현장외(off-site) 시스템 또는 서버에 통신가능하게 접속될 수 있다. 통신 링크는 유선, 코드, 또는 무선일 수 있다. 시스템 제어기(2404)는 사용자 인터페이스(2414) 및 사용자 입력 디바이스(2415)로부터 사용자 입력 또는 커맨드를 수신할 수 있다.
유체 제어 시스템(2406)은 유체 네트워크를 포함하며, 유체 네트워크를 통한 하나 이상의 유체의 유동을 지향시키고 조절하도록 구성된다. 유체 네트워크는 바이오센서(2402) 및 유체 저장 시스템(2408)과 유체 연통할 수 있다. 예를 들어, 선택 유체가, 제어된 방식으로, 유체 저장 시스템(2408)으로부터 인출되어 바이오센서(2402)로 지향될 수 있거나, 또는 유체가 바이오센서(2402)로부터 인출되어, 예를 들어, 유체 저장 시스템(2408) 내의 폐기물 저장조를 향해 지향될 수 있다. 도시되어 있지 않지만, 유체 제어 시스템(2406)은 유체 네트워크 내의 유체의 유량 또는 압력을 검출하는 유동 센서를 포함할 수 있다. 센서는 시스템 제어기(2404)와 통신할 수 있다.
온도 제어 시스템(2410)은 유체 네트워크, 유체 저장 시스템(2408), 및/또는 바이오센서(2402)의 상이한 영역에서의 유체의 온도를 조절하도록 구성된다. 예를 들어, 온도 제어 시스템(2410)은, 바이오센서(2402)와 인터페이싱하고 바이오센서(2402) 내의 반응 부위를 따라 유동하는 유체의 온도를 제어하는 서모사이클러(thermocycler)를 포함할 수 있다. 온도 제어 시스템(2410)은, 또한, 염기 호출 시스템(2400) 또는 바이오센서(2402)의 고체 요소 또는 구성요소의 온도를 조절할 수 있다. 도시되어 있지 않지만, 온도 제어 시스템(2410)은 유체의 온도를 검출하기 위한 센서 또는 다른 구성요소를 포함할 수 있다. 센서는 시스템 제어기(2404)와 통신할 수 있다.
유체 저장 시스템(2408)은 바이오센서(2402)와 유체 연통하고, 내부에서 원하는 반응을 이행하는 데 사용되는 다양한 반응 구성요소 또는 반응물을 저장할 수 있다. 유체 저장 시스템(2408)은, 또한, 유체 네트워크 및 바이오센서(2402)를 세척 또는 세정하기 위한 그리고 반응물을 희석하기 위한 유체를 저장할 수 있다. 예를 들어, 유체 저장 시스템(2408)은 샘플, 시약, 효소, 다른 생체분자, 완충 용액, 수성 및 비극성 용액 등을 저장하기 위한 다양한 저장조를 포함할 수 있다. 더욱이, 유체 저장 시스템(2408)은, 또한, 바이오센서(2402)로부터 폐기물을 수용하기 위한 폐기물 저장조를 포함할 수 있다. 카트리지를 포함하는 구현예에서, 카트리지는 유체 저장 시스템, 유체 제어 시스템, 또는 온도 제어 시스템 중 하나 이상을 포함할 수 있다. 따라서, 그러한 시스템에 관한 것으로 본원에 기술된 구성요소 중 하나 이상은 카트리지 하우징 내에 포함될 수 있다. 예를 들어, 카트리지는 샘플, 시약, 효소, 다른 생체분자, 완충 용액, 수성 및 비극성 용액, 폐기물 등을 저장하기 위한 다양한 저장소를 가질 수 있다. 이와 같이, 유체 저장 시스템, 유체 제어 시스템 또는 온도 제어 시스템 중 하나 이상이 카트리지 또는 다른 바이오센서를 통해 생물검정 시스템과 제거가능하게 결합될 수 있다.
조명 시스템(2409)은 바이오센서를 조명하기 위한 광원(예컨대, 하나 이상의 LED) 및 복수의 광학 구성요소를 포함할 수 있다. 광원의 예는 레이저, 아크 램프, LED, 또는 레이저 다이오드를 포함할 수 있다. 광학 구성요소는, 예를 들어, 반사기, 다이크로익(dichroic), 빔 스플리터, 시준기, 렌즈, 필터, 웨지, 프리즘, 거울, 검출기 등일 수 있다. 조명 시스템을 사용하는 구현예에서, 조명 시스템(2409)은 여기 광을 반응 부위로 지향시키도록 구성될 수 있다. 하나의 예로서, 형광단은 광의 녹색 파장에 의해 여기될 수 있는데, 이는 여기 광의 그러한 파장이 대략 532 nm일 수 있기 때문이다. 일 구현예에서, 조명 시스템(2409)은 바이오센서(2402)의 표면의 표면 법선에 평행한 조명을 생성하도록 구성된다. 다른 구현예에서, 조명 시스템(2409)은 바이오센서(2402)의 표면의 표면 법선에 대해 오프각(off-angle)인 조명을 생성하도록 구성된다. 또 다른 구현예에서, 조명 시스템(2409)은 일부 평행 조명 및 일부 오프각 조명을 포함한 복수의 각도를 갖는 조명을 생성하도록 구성된다.
시스템 리셉터클 또는 인터페이스(2412)는 기계적 방식, 전기적 방식 및 유체 방식 중 적어도 하나로 바이오센서(2402)와 결합하도록 구성된다. 시스템 리셉터클(2412)은 바이오센서(2402)를 통한 유체의 유동을 용이하게 하기 위해 바이오센서(2402)를 원하는 배향으로 보유할 수 있다. 시스템 리셉터클(2412)은, 또한, 바이오센서(2402)와 결합하도록 구성된 전기 접촉부를 포함하여, 염기 호출 시스템(2400)이 바이오센서(2402)와 통신하고/하거나 바이오센서(2402)에 전력을 제공할 수 있게 할 수 있다. 또한, 시스템 리셉터클(2412)은 바이오센서(2402)와 결합하도록 구성된 유체 포트(예컨대, 노즐)를 포함할 수 있다. 일부 구현예에서, 바이오센서(2402)는 기계적 방식으로, 전기적 방식으로, 그리고 또한 유체 방식으로 시스템 리셉터클(2412)에 제거가능하게 커플링된다.
또한, 염기 호출 시스템(2400)은 다른 시스템 또는 네트워크와 또는 다른 생물검정 시스템(2400)과 원격으로 통신할 수 있다. 생물검정 시스템(들)(2400)에 의해 획득된 검출 데이터는 원격 데이터베이스에 저장될 수 있다.
도 25는 도 24의 시스템에서 사용될 수 있는 시스템 제어기(2404)의 블록도이다. 일 구현예에서, 시스템 제어기(2404)는 서로 통신할 수 있는 하나 이상의 프로세서 또는 모듈을 포함한다. 프로세서 또는 모듈 각각은 특정 프로세스를 수행하기 위한 알고리즘(예컨대, 유형적 그리고/또는 비일시적 컴퓨터 판독가능 저장 매체 상에 저장된 명령어) 또는 서브알고리즘을 포함할 수 있다. 시스템 제어기(2404)는 개념적으로 모듈의 집합체로서 예시되지만, 전용 하드웨어 보드, DSP, 프로세서 등의 임의의 조합을 이용하여 구현될 수 있다. 대안적으로, 시스템 제어기(2404)는 단일 프로세서 또는 다중 프로세서를 갖는 기성품 PC를 이용하여 구현될 수 있으며, 기능적 동작은 프로세서들 사이에 분산된다. 추가 옵션으로서, 후술되는 모듈은 소정의 모듈식 기능이 전용 하드웨어를 활용하여 수행되는 하이브리드 구성을 활용하여 구현될 수 있는 반면, 나머지 모듈식 기능은 기성품 PC 등을 활용하여 수행된다. 모듈은 또한 처리 유닛 내의 소프트웨어 모듈로서 구현될 수 있다.
동작 동안, 통신 포트(2520)는 정보(예컨대, 커맨드)를 바이오센서(2402)(도 24) 및/또는 서브시스템(2406, 2408, 2410)(도 24)로 송신할 수 있거나 정보(예컨대, 데이터)를 그들로부터 수신할 수 있다. 구현예에서, 통신 포트(2520)는 픽셀 신호의 복수의 서열을 출력할 수 있다. 통신 포트(2520)는 사용자 인터페이스(2414)(도 24)로부터 사용자 입력을 수신할 수 있고, 데이터 또는 정보를 사용자 인터페이스(2414)로 송신할 수 있다. 바이오센서(2402) 또는 서브시스템(2406, 2408, 2410)로부터의 데이터는 생물검정 세션 동안 실시간으로 시스템 제어기(2404)에 의해 처리될 수 있다. 추가로 또는 대안으로, 데이터는 생물검정 세션 동안 시스템 메모리에 일시적으로 저장될 수 있고, 실시간 또는 오프라인 동작보다 느리게 처리될 수 있다.
도 25에 도시된 바와 같이, 시스템 제어기(2404)는 주 제어 모듈(2530)과 통신하는 복수의 모듈(2531 내지 2539)을 포함할 수 있다. 주 제어 모듈(2530)은 사용자 인터페이스(2414)(도 24)와 통신할 수 있다. 모듈(2531 내지 2539)이 주 제어 모듈(2530)과 직접 통신하는 것으로 도시되어 있지만, 모듈(2531 내지 2539)은 또한 서로, 사용자 인터페이스(2414), 및 바이오센서(2402)와 직접 통신할 수 있다. 또한, 모듈(2531 내지 2539)은 다른 모듈을 통해 주 제어 모듈(2530)과 통신할 수 있다.
복수의 모듈(2531 내지 2539)은 서브시스템(2406, 2408, 2410, 2409)과 각각 통신하는 시스템 모듈(2531 내지 2533, 2539)을 포함한다. 유체 제어 모듈(2531)은 유체 제어 시스템(2406)과 통신하여, 유체 네트워크를 통한 하나 이상의 유체의 유동을 제어하기 위해 유체 네트워크의 유동 센서 및 밸브를 제어할 수 있다. 유체 저장 모듈(2532)은 유체가 낮을 때 또는 폐기물 저장소가 최대 용량에 또는 그 근처에 있을 때 사용자에게 통지할 수 있다. 유체 저장 모듈(2532)은, 또한, 온도 제어 모듈(2533)과 통신하여, 유체가 원하는 온도로 저장될 수 있게 할 수 있다. 조명 모듈(2539)은 조명 시스템(2409)과 통신하여, 프로토콜 동안의 지정된 시간에, 예컨대 원하는 반응(예컨대, 결합 이벤트들)이 발생한 후에, 반응 부위를 조명할 수 있다. 일부 구현예에서, 조명 모듈(2539)은 지정된 각도로 반응 부위를 조명하기 위해 조명 시스템(2409)과 통신할 수 있다.
복수의 모듈(2531 내지 2539)은, 또한, 바이오센서(2402)와 통신하는 디바이스 모듈(2534) 및 바이오센서(2402)에 관한 식별 정보를 결정하는 식별 모듈(2535)을 포함할 수 있다. 디바이스 모듈(2534)은, 예를 들어, 시스템 리셉터클(2412)과 통신하여, 바이오센서가 염기 호출 시스템(2400)과 전기적 및 유체 접속을 확립하였음을 확인할 수 있다. 식별 모듈(2535)은 바이오센서(2402)를 식별하는 신호를 수신할 수 있다. 식별 모듈(2535)은 다른 정보를 사용자에게 제공하기 위해 바이오센서(2402)의 동일성을 사용할 수 있다. 예를 들어, 식별 모듈(2535)은 로트 번호, 제조 날짜, 또는 바이오센서(2402)로 실행될 것이 추천되는 프로토콜을 결정할 수 있고, 이어서, 이를 디스플레이할 수 있다.
복수의 모듈(2531 내지 2539)은, 또한, 바이오센서(2402)로부터 신호 데이터(예컨대, 이미지 데이터)를 수신 및 분석하는 분석 모듈(2538)(신호 처리 모듈 또는 신호 프로세서로도 칭해짐)을 포함한다. 분석 모듈(2538)은 검출 데이터를 저장하기 위한 메모리(예컨대, RAM 또는 플래시)를 포함한다. 검출 데이터는 픽셀 신호의 복수의 서열을 포함하여, 수백만 개의 센서(또는 픽셀) 각각으로부터의 픽셀 신호의 서열이 많은 염기 호출 사이클에 걸쳐서 검출될 수 있게 할 수 있다. 신호 데이터는 후속 분석을 위해 저장될 수 있거나, 또는 사용자에게 원하는 정보를 디스플레이하기 위해 사용자 인터페이스(2414)로 송신될 수 있다. 일부 구현예에서, 신호 데이터는 분석 모듈(2538)이 신호 데이터를 수신하기 전에 솔리드 스테이트 이미저(예컨대, CMOS 이미지 센서)에 의해 처리될 수 있다.
분석 모듈(2538)은 복수의 서열분석 사이클 각각에서 광 검출기로부터 이미지 데이터를 획득하도록 구성된다. 이미지 데이터는 광 검출기에 의해 검출된 방출 신호로부터 유도되고, 신경망(예를 들어, 신경망 기반 템플릿 생성기(2548), 신경망 기반 염기 호출자(2558)(예를 들어, 도 7, 9 및 10 참조), 및/또는 신경망 기반 품질 스코러(scorer)(2568))을 통해 복수의 서열분석 사이클 각각에 대한 이미지 데이터를 처리하고, 복수의 서열분석 사이클 각각에서 분석물 중 적어도 일부에 대한 염기 호출을 생성한다.
프로토콜 모듈(2536, 2537)은 미리 결정된 검정 프로토콜을 이행할 때 서브시스템(2406, 2408, 2410)의 동작을 제어하기 위해 주 제어 모듈(2530)과 통신한다. 프로토콜 모듈(2536, 2537)은 미리 결정된 프로토콜에 따라 특정 동작을 수행할 것을 염기 호출 시스템(2400)에 지시하기 위한 명령어의 세트를 포함할 수 있다. 도시된 바와 같이, 프로토콜 모듈은 합성에 의한 서열분석(SBS: sequencing-by-synthesis) 프로세스를 수행하기 위한 다양한 커맨드를 발행하도록 구성된 SBS 모듈(2536)일 수 있다. SBS에서, 템플릿 내의 뉴클레오티드의 서열을 결정하기 위해 핵산 템플릿을 따른 핵산 프라이머의 연장이 모니터링된다. 기초 화학적 프로세스는 중합화(예컨대, 중합효소 효소에 의해 촉매화되는 바와 같음) 또는 결찰(예컨대, 리가아제 효소에 의해 촉매됨)일 수 있다. 특정 중합효소 기반 SBS 구현예에서, 프라이머에 첨가되는 뉴클레오티드의 순서 및 유형의 검출이 템플릿의 서열을 결정하는 데 사용될 수 있도록 하는 템플릿 의존 방식으로, 형광 표지된 뉴클레오티드가 프라이머에 첨가된다(이에 의해, 프라이머를 연장함). 예를 들어, 제1 SBS 사이클을 개시하기 위해, 핵산 템플릿의 어레이를 수용하는 플로우 셀 내로/플로우 셀을 통해 하나 이상의 표지된 뉴클레오티드, DNA 중합효소 등을 전달하기 위한 커맨드가 제공될 수 있다. 핵산 템플릿은 대응하는 반응 부위에 위치될 수 있다. 프라이머 연장이 표지된 뉴클레오티드가 혼입되게 하는 그러한 반응 부위가 이미지화 이벤트를 통해 검출될 수 있다. 이미지화 이벤트 동안, 조명 시스템(2409)은 반응 부위에 여기 광을 제공할 수 있다. 선택적으로, 뉴클레오티드는, 일단 뉴클레오티드가 프라이머에 첨가되었다면, 추가 프라이머 연장을 종결시키는 가역적 종결 속성을 추가로 포함할 수 있다. 예를 들어, 가역적 종결자 모이어티를 갖는 뉴클레오티드 유사체가 프라이머에 첨가되어, 모이어티를 제거하기 위해 탈블록킹제(deblocking agent)가 전달될 때까지 후속 연장이 발생할 수 없게 할 수 있다. 따라서, 가역적 종결을 사용하는 구현예에 대해, (검출이 발생하기 전 또는 발생한 후) 탈블록킹 시약을 플로우 셀에 전달하기 위한 커맨드가 제공될 수 있다. 다양한 전달 단계들 사이의 세척(들)을 달성하기 위해 하나 이상의 커맨드가 제공될 수 있다. 그 다음, 사이클을 n번 반복하여 프라이머를 n개의 뉴클레오티드만큼 확장하여 길이 n의 서열을 검출할 수 있다. 예시적인 서열분석 기술은 예를 들어 문헌[Bentley et al., Nature 456:53-59 (2008)]; 국제공개 WO 04/018497호; 미국 특허 제7,057,026호; 국제공개 WO 91/06678호; 국제공개 WO 07/123744호; 미국 특허 제7,329,492호; 미국 특허 제7,211,414호; 미국 특허 제7,315,019호; 및 미국 특허 제7,405,281호에 기재되어 있으며, 이들의 각각은 본원에 참고로 포함된다.
SBS 사이클의 뉴클레오티드 전달 단계의 경우, 단일 유형의 뉴클레오티드가 한 번에 전달될 수 있거나, 또는 다수의 상이한 뉴클레오티드 유형이 (예컨대, A, C, T, 및 G가 함께) 전달될 수 있다. 단일 유형의 뉴클레오티드만이 한 번에 존재하는 뉴클레오티드 전달 구성의 경우, 상이한 뉴클레오티드는 별개의 표지를 가질 필요가 없는데, 이는 그들이 개별화된 전달 시에 고유한 시간적 분리에 기초하여 구별될 수 있기 때문이다. 따라서, 서열분석 방법 또는 장치는 단일 컬러 검출을 사용할 수 있다. 예를 들어, 여기 소스는 단일 파장의 또는 단일 파장 범위 내의 여기만을 제공할 필요가 있다. 전달이 플로우 셀 내에 한 번에 존재하는 다수의 상이한 뉴클레오티드를 생성하는 뉴클레오티드 전달 구성의 경우, 상이한 뉴클레오티드 유형을 혼입하는 부위는 혼합물 내의 각자의 뉴클레오티드 유형에 부착되는 상이한 형광 표지에 기초하여 구별될 수 있다. 예를 들어, 4개의 상이한 뉴클레오티드가 사용될 수 있으며, 각각은 4개의 상이한 형광단 중 하나를 갖는다. 일 구현예에서, 4개의 상이한 형광단은 스펙트럼의 4개의 상이한 영역에서의 여기를 사용하여 구별될 수 있다. 예를 들어, 4개의 상이한 여기 방사선 소스가 사용될 수 있다. 대안적으로, 4개 미만의 상이한 여기 소스가 사용될 수 있지만, 단일 소스로부터의 여기 방사선의 광학적 여과가 플로우 셀에서 상이한 범위의 여기 방사선을 생성하는 데 사용될 수 있다.
일부 구현예에서, 4개 미만의 상이한 컬러가 4개의 상이한 뉴클레오티드를 갖는 혼합물에서 검출될 수 있다. 예를 들어, 뉴클레오티드의 쌍은 동일한 파장에서 검출될 수 있지만, 그 쌍의 하나의 구성원에 대해 다른 구성원과 비교한 강도의 차이에 기초하여, 또는 그 쌍의 다른 구성원에 대해 검출된 신호와 비교한, 명백한 신호가 나타나거나 사라지게 하는 (예컨대, 화학적 변형, 광화학적 변형, 또는 물리적 변형을 통한) 그 쌍의 하나의 구성원에 대한 변화에 기초하여 구별될 수 있다. 4개 미만의 색상 검출을 사용하여 4개의 상이한 뉴클레오티드를 구별하기 위한 예시적인 장치 및 방법은 예를 들어 미국 특허출원 제61/538,294호 및 제61/619,878호에 기재되어 있는데, 이들은 전체 내용이 참조로 본원에 포함된다. 2012년 9월 21일자로 출원된 미국 출원 제13/624,200호가 또한 전체가 본원에 참고로 포함된다.
복수의 프로토콜 모듈은, 또한, 바이오센서(2402) 내의 제품을 증폭시키기 위한 커맨드를 유체 제어 시스템(2406) 및 온도 제어 시스템(2410)에 발행하도록 구성된 샘플 준비(또는 생성) 모듈(2537)을 포함할 수 있다. 예를 들어, 바이오센서(2402)는 염기 호출 시스템(2400)에 결합될 수 있다. 증폭 모듈(2537)은 필요한 증폭 성분을 바이오센서(2402) 내의 반응 챔버로 전달하라는 명령어를 유체 제어 시스템(2406)에 발행할 수 있다. 다른 구현예에서, 반응 부위는 증폭을 위한 일부 구성요소, 예컨대 템플릿 DNA 및/또는 프라이머를 이미 함유할 수 있다. 증폭 성분을 반응 챔버로 전달한 후에, 증폭 모듈(2537)은 알려진 증폭 프로토콜에 따라 상이한 온도 스테이지를 통해 순환할 것을 온도 제어 시스템(2410)에 지시할 수 있다. 일부 구현예에서, 증폭 및/또는 뉴클레오티드 혼입은 등온적으로 수행된다.
SBS 모듈(2536)은 클론 앰플리콘(clonal amplicon)의 클러스터가 플로우 셀의 채널 내의 국소화된 영역 상에 형성되는 브리지 PCR을 수행하라는 커맨드를 발행할 수 있다. 브리지 PCR을 통해 앰플리콘을 생성한 후, 앰플리콘은 단일 가닥 템플릿 DNA 또는 sstDNA를 만들기 위해 "선형화"될 수 있고, 서열분석 프라이머는 관심 영역을 플랭킹하는 유니버셜 서열에 혼성화될 수 있다. 예를 들어, 합성 방법에 의한 가역적 종결자 기반 서열분석은 위에 기재된 바와 같이 또는 하기와 같이 사용될 수 있다.
각각의 염기 호출 또는 서열분석 사이클은, 예를 들어 변형된 DNA 중합효소 및 4개의 유형의 뉴클레오티드의 혼합물을 사용함으로써 달성될 수 있는 단일 염기에 의해 sstDNA를 연장할 수 있다. 상이한 유형의 뉴클레오티드는 고유 형광 표지를 가질 수 있고, 각각의 뉴클레오티드는 각각의 사이클에서 단일 염기 혼입만이 발생하는 것을 허용하는 가역적 종결자를 추가로 가질 수 있다. 단일 염기가 sstDNA에 첨가된 후, 여기 광은 반응 부위 위로 입사할 수 있고, 형광 방출물이 검출될 수 있다. 검출 후에, 형광 표지 및 종결자는 sstDNA로부터 화학적으로 절단될 수 있다. 다른 유사한 염기 호출 또는 서열분석 사이클이 이어질 수 있다. 그러한 서열분석 프로토콜에서, SBS 모듈(2536)은 바이오센서(2402)를 통해 시약 및 효소 용액의 유동을 지향시킬 것을 유체 제어 시스템(2406)에 지시할 수 있다. 본원에 기술된 장치 및 방법으로 활용될 수 있는 예시적인 가역적 종결자 기반 SBS 방법은, 미국 특허출원공개 2007/0166705 A1호, 미국 특허출원공개 2006/0188901 A1호, 미국 특허 제7,057,026호, 미국 특허출원공개 2006/0240439 A1호, 미국 특허출원공개 2006/02814714709 A1호, PCT 공개 공보 WO 05/065814호, PCT 공개 공보 WO 06/064199호에 기재되어 있으며, 이들 각각은 그 전체가 본원에 참고로 포함된다. 가역적 종결자 기반 SBS를 위한 예시적인 시약은 미국 특허 제7,541,444호; 미국 특허 제7,057,026호; 미국 특허 제7,427,673호; 미국 특허 제7,566,537호, 및 미국 특허 제7,592,435호에 기재되어 있으며, 이들 각각은 그 전체가 본원에 참고로 포함된다.
일부 구현예에서, 증폭 및 SBS 모듈은 단일 검정 프로토콜로 동작할 수 있는데, 여기서 예를 들어, 템플릿 핵산은 증폭되고, 후속하여, 동일한 카트리지 내에서 서열분석된다.
염기 호출 시스템(2400)은 또한 사용자가 검정 프로토콜을 재구성하는 것을 허용할 수 있다. 예를 들어, 염기 호출 시스템(2400)은 결정된 프로토콜을 변형하기 위한 옵션을 사용자 인터페이스(2414)를 통해 사용자에게 제공할 수 있다. 예를 들어, 바이오센서(2402)가 증폭을 위해 사용될 것으로 결정되는 경우, 염기 호출 시스템(2400)은 어닐링 사이클을 위한 온도를 요청할 수 있다. 더욱이, 염기 호출 시스템(2400)은 사용자가 선택된 검정 프로토콜에 대해 대체적으로 수용가능하지 않은 사용자 입력을 제공한 경우에 사용자에게 경고를 발행할 수 있다.
구현예에서, 바이오센서(2402)는 수백만 개의 센서(또는 픽셀)를 포함하고, 이들 각각은 연속적 염기 호출 사이클에 걸쳐서 픽셀 신호의 복수의 서열을 생성한다. 분석 모듈(2538)은 픽셀 신호의 복수의 서열을 검출하고, 이들을 센서의 어레이 상의 센서의 행방향 및/또는 열방향 위치에 따라, 그것들을 대응하는 센서(또는 픽셀)에 귀속시킨다.
센서 어레이에서의 각 센서는 플로우 셀의 타일에 대한 센서 데이터를 생성할 수 있으며, 여기서 유전 물질의 클러스터가 염기 호출 동작 동안에 배치되는 플로우 셀 상의 영역에 있는 타일이다. 센서 데이터는 픽셀 어레이에서의 이미지 데이터를 포함할 수 있다. 소정의 사이클에 대해, 센서 데이터는 하나 초과의 이미지를 포함하여, 타일 데이터로서 픽셀당 다수의 특징을 생성할 수 있다.
도 26은 개시된 기술을 구현하는 데 사용될 수 있는 컴퓨터 시스템(2600)의 단순화된 블록도이다. 컴퓨터 시스템(2600)은 버스 서브시스템(2655)을 통해 다수의 주변 디바이스와 통신하는 적어도 하나의 중앙 처리 유닛(CPU)(2672)을 포함한다. 이러한 주변 디바이스는, 예를 들어 메모리 디바이스 및 파일 저장 서브시스템(2636)을 포함하는 저장 서브시스템(2610), 사용자 인터페이스 입력 디바이스(2638), 사용자 인터페이스 출력 디바이스(2676), 및 네트워크 인터페이스 서브시스템(2674)을 포함할 수 있다. 입력 및 출력 디바이스는 컴퓨터 시스템(2600)과의 사용자 상호작용을 허용한다. 네트워크 인터페이스 서브시스템(2674)은 다른 컴퓨터 시스템에서의 대응하는 인터페이스 디바이스에 대한 인터페이스를 포함하는 인터페이스를 외부 네트워크에 제공한다.
사용자 인터페이스 입력 디바이스(2638)는 키보드; 마우스, 트랙볼, 터치패드, 또는 그래픽 태블릿과 같은 포인팅 디바이스; 스캐너; 디스플레이 내에 통합된 터치 스크린; 음성 인식 시스템 및 마이크로폰과 같은 오디오 입력 디바이스; 및 다른 유형의 입력 디바이스를 포함할 수 있다. 일반적으로, 용어 "입력 디바이스"의 사용은 정보를 컴퓨터 시스템(2600)에 입력하기 위한 모든 가능한 유형의 디바이스 및 방식을 포함하도록 의도된다.
사용자 인터페이스 출력 디바이스(2676)는 디스플레이 서브시스템, 프린터, 팩스 기계, 또는 오디오 출력 디바이스와 같은 비시각적 디스플레이를 포함할 수 있다. 디스플레이 서브시스템은 LED 디스플레이, 음극선관(CRT), 액정 디스플레이(LCD)와 같은 평면 디바이스, 프로젝션 장치, 또는 가시적인 이미지를 생성하기 위한 일부 다른 메커니즘을 포함할 수 있다. 디스플레이 서브시스템은 또한, 오디오 출력 디바이스와 같은 비시각적 디스플레이를 제공할 수 있다. 일반적으로, "출력 디바이스"라는 용어의 사용은 정보를 컴퓨터 시스템(2600)으로부터 사용자에게 또는 다른 기계 또는 컴퓨터 시스템에 출력하기 위한 모든 가능한 유형의 디바이스 및 방식을 포함하도록 의도된다.
저장 서브시스템(2610)은 본원에 기술된 모듈 및 방법 중 일부 또는 전부의 기능을 제공하는 프로그래밍 및 데이터 구성을 저장한다. 이들 소프트웨어 모듈은, 대체적으로, 심층 학습 프로세서(2678)에 의해 실행된다.
일 구현예에서, 신경망은 구성 가능한 그리고 재구성 가능한 프로세서, 필드-프로그래밍 가능한 게이트 어레이(FPGA), 주문형 집적 회로(ASIC) 및/또는 코어스-그레인드 재구성가능한 아키텍처(CGRA) 및 그래픽 처리 유닛(GPU) 기타 구성된 디바이스일 수 있는 심층 학습 프로세서(2678)를 사용하여 구현된다. 심층 학습 프로세서(2678)는 Google Cloud Platform™, Xilinx™, 및 Cirrascale™과 같은 심층 학습 클라우드 플랫폼에 의해 호스팅될 수 있다. 심층 학습 프로세서(14978)의 예는 Google의 Tensor Processing Unit(TPU)™, 랙마운트 솔루션, 예컨대 GX4 Rackmount Series™, GX149 Rackmount Series™, NVIDIA DGX-1™, Microsoft의 Stratix V FPGA™, Graphcore의 Intelligent Processor Unit (IPU)™, Snapdragon processors™을 갖는 Qualcomm의 Zeroth Platform™, NVIDIA의 Volta™, NVIDIA의 DRIVE PX™, NVIDIA의 JETSON TX1/TX2 MODULE™, Intel의 Nirvana™, Movidius VPU™, Fujitsu DPI™, ARM의 DynamicIQ™, IBM TrueNorth™ 등을 포함한다.
저장 서브시스템(2610)에 사용되는 메모리 서브시스템(2622)은 프로그램 실행 동안 명령어 및 데이터의 저장을 위한 메인 랜덤 액세스 메모리(RAM)(2634) 및 고정된 명령어가 저장되는 판독 전용 메모리(ROM)(2632)를 포함하는 다수의 메모리를 포함할 수 있다. 파일 저장 서브시스템(2636)은 프로그램 및 데이터 파일을 위한 영구 저장소를 제공할 수 있고, 하드 디스크 드라이브, 연관된 착탈식 매체와 함께 플로피 디스크 드라이브, CD-ROM 드라이브, 광학 드라이브, 또는 착탈식 매체 카트리지를 포함할 수 있다. 소정 구현예의 기능을 구현하는 모듈은 저장 서브시스템(2610) 내의 파일 저장 서브시스템(2636)에 의해, 또는 프로세서에 의해 액세스가능한 다른 기계에 저장될 수 있다.
버스 서브시스템(2655)은 컴퓨터 시스템(2600)의 다양한 구성요소 및 서브시스템이 의도된 대로 서로 통신하게 하기 위한 메커니즘을 제공한다. 버스 서브시스템(2655)이 개략적으로 단일 버스로서 도시되어 있지만, 버스 서브시스템의 대안적인 구현예는 다수의 버스를 사용할 수 있다.
컴퓨터 시스템(2600) 자체는 개인용 컴퓨터, 휴대용 컴퓨터, 워크스테이션, 컴퓨터 단말기, 네트워크 컴퓨터, 텔레비전, 메인프레임, 서버 팜, 느슨하게 네트워킹된 컴퓨터의 광범위하게 분포된 세트, 또는 임의의 다른 데이터 처리 시스템 또는 사용자 디바이스를 포함한 다양한 유형의 것일 수 있다. 컴퓨터 및 네트워크의 끊임없이 변화하는 특성으로 인해, 도 26에 묘사된 컴퓨터 시스템(2600)의 설명은 본 발명의 바람직한 구현예를 예시하기 위한 특정 예로서만 의도된다. 도 26에 묘사된 컴퓨터 시스템보다 더 많은 또는 더 적은 구성요소를 갖는 컴퓨터 시스템(2600)의 많은 다른 구성이 가능하다.
우리는 다음 조항을 개시한다:
조항
조항 세트 # 1(올리고 서열을 사용하여 훈련된 자체 학습 염기 호출자)
1. 염기 호출자를 점진적으로 훈련시키는 컴퓨터 구현 방법으로서,
단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키고, 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계;
(i) 다중-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 추가로 훈련시키고, 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계; 및
적어도 하나의 반복 동안 염기 호출자 내에 로딩된 신경망 구성의 복잡도를 증가시키면서 단계 (i)을 반복함으로써 염기 호출자를 반복적으로 추가 훈련시키는 단계를 포함하며, 여기서 반복 동안 생성된 표지된 훈련 데이터는 직후 반복(immediate subsequent iteration) 동안에 염기 호출자를 훈련시키는 데 사용되는, 컴퓨터 구현 방법.
1a. 조항 1에 있어서,
다중-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 추가로 훈련시키는 적어도 1회의 반복 동안, 분석물 내에서 다중-올리고 염기 서열의 고유한 올리고 염기 서열의 수를 증가시키는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
2. 조항 1에 있어서, 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키는 단계는,
염기 호출자의 초기 훈련의 제1 반복 동안:
알려진 단일-올리고 염기 서열을 플로우 셀의 복수의 클러스터에 채우는 단계;
복수의 클러스터에 대응하는 복수의 서열 신호를 생성하는 단계 - 복수의 서열 신호의 각 서열 신호는 복수의 클러스터 중 대응하는 클러스터에 로딩된 염기 서열을 나타냄 -;
복수의 서열 신호 중 각 서열 신호에 기초하여, 알려진 단일 올리고 염기 서열에 대한 대응하는 염기 호출을 예측하여 복수의 예측된 염기 호출을 생성하는 단계;
(i) 대응하는 예측된 염기 호출과 (ii) 알려진 단일 올리고 염기 서열의 염기를 비교하여 복수의 서열 신호 중 각 서열 신호에 대해 대응 오류 신호를 생성하고, 이에 의해 복수의 서열 신호에 대응하는 복수의 오류 신호를 생성하는 단계; 및
복수의 오류 신호에 기초하여 제1 반복 동안 염기 호출자를 초기에 훈련시키는 단계를 포함하는, 컴퓨터 구현 방법.
2a. 조항 2에 있어서, 제1 반복 동안 염기 호출자를 초기에 훈련시키는 단계는,
염기 호출자에 로딩된 신경망 구성의 역전파 경로를 사용하여, 복수의 오류 신호에 기초하여 신경망 구성의 가중치 및/또는 바이어스를 업데이트하는 것을 포함하는, 컴퓨터 구현 방법.
3. 조항 2에 있어서, 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키는 단계는,
초기 훈련의 제1 반복 후에 발생하는 염기 호출자의 초기 훈련의 제2 반복 동안:
초기 훈련의 제1 반복 동안 부분적으로 훈련된 염기 호출자를 사용하여, 복수의 서열 신호 중 각 서열 신호에 기초하여, 알려진 단일 올리고 염기 서열에 대한 대응하는 추가의 염기 호출을 예측하여 복수의 추가 예측된 염기 호출을 생성하는 단계;
(i) 대응하는 추가의 예측된 염기 호출과 (ii) 알려진 단일 올리고 염기 서열의 염기를 비교하여 복수의 서열 신호 중 각 서열 신호에 대해 대응하는 추가의 오류 신호를 생성하고, 이에 의해 복수의 서열 신호에 대응하는 복수의 추가 오류 신호를 생성하는 단계; 및
복수의 추가 오류 신호에 기초하여 제2 반복 동안 염기 호출자를 추가로 초기에 훈련시키는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
4. 조항 3에 있어서, 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키는 단계는,
수렴 조건이 충족될 때까지 복수의 인스턴스에 대해 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자의 초기 훈련의 제2 반복을 반복하는 단계를 포함하는, 컴퓨터 구현 방법.
5. 조항 4에 있어서, 수렴 조건은 염기 호출자의 초기 훈련의 제2 반복의 2회 연속 반복들 사이에서 복수의 추가 오류 신호의 감소가 임계값보다 작은 경우 충족되는, 컴퓨터 구현 방법.
6. 조항 4에 있어서, 수렴 조건은 염기 호출자의 초기 훈련의 제2 반복이 적어도 임계값 수의 인스턴스 동안 반복될 때 충족되는, 컴퓨터 구현 방법.
7. 조항 3에 있어서,
염기 호출자의 초기 훈련의 제1 반복 동안 생성되는 복수의 클러스터에 대응하는 복수의 서열 신호는 염기 호출자의 초기 훈련의 제2 반복에 재사용되는, 컴퓨터 구현 방법.
8. 조항 2에 있어서, (i) 대응하는 예측된 염기 호출과 (ii) 알려진 단일 올리고 서열의 염기를 비교하는 단계는,
제1 예측된 염기 호출에 대해, (i) 제1 예측된 염기 호출의 제1 염기를 알려진 단일 올리고 서열의 제1 염기와 비교하는 단계, 및 (ii) 제1 예측된 염기 호출의 제2 염기와 알려진 단일 올리고 서열의 제2 염기를 비교하여 대응하는 제1 오류 신호를 생성하는 단계를 포함하는, 컴퓨터 구현 방법.
9. 조항 1에 있어서, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
2개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 N1 반복 동안 추가로 훈련시키는 단계; 및
3개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 N2 반복 동안 추가로 훈련시키는 단계를 포함하며,
N1 반복은 N2 반복 이전에 수행되는, 컴퓨터 구현 방법.
10. 조항 1에 있어서, 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키는 동안, 제1 신경망 구성이 염기 호출자 내에 로딩되며, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
2개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 N1 반복 동안 추가로 훈련시켜,
(i) N1 반복의 제1 서브세트 동안 제2 신경망 구성이 염기 호출자 내에 로딩되고,
(ii) N1 반복의 제1 서브세트 이후에 발생하는 N1 반복의 제2 서브세트 동안 제3 신경망 구성이 염기 호출자 내에 로딩되도록 하는 단계를 포함하며, 여기서 제1, 제2 및 제3 신경망 구성은 서로 상이한, 컴퓨터 구현 방법.
11. 조항 10에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 복잡하고, 제3 신경망 구성은 제2 신경망 구성보다 더 복잡한, 컴퓨터 구현 방법.
12. 조항 10에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 층을 갖는, 컴퓨터 구현 방법.
13. 조항 10에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 가중치를 갖는, 컴퓨터 구현 방법.
14. 조항 10에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 파라미터를 갖는, 컴퓨터 구현 방법.
15. 조항 10에 있어서, 제3 신경망 구성은 제2 신경망 구성보다 더 많은 수의 층을 갖는, 컴퓨터 구현 방법.
16. 조항 10에 있어서, 제3 신경망 구성은 제2 신경망 구성보다 더 많은 수의 가중치를 갖는, 컴퓨터 구현 방법.
17. 조항 10에 있어서, 제3 신경망 구성은 제2 신경망 구성보다 더 많은 수의 파라미터를 갖는, 컴퓨터 구현 방법.
18. 조항 10에 있어서, 2개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는, N1 반복의 1회 반복에 대해:
(i) 2개의 알려진 고유한 올리고 염기 서열 중 제1의 알려진 올리고 염기 서열로 플로우 셀의 제1 복수의 클러스터를 채우고 (ii) 2개의 알려진 고유한 올리고 염기 서열 중 제2의 알려진 올리고 염기 서열로 플로우 셀의 제2 복수의 클러스터를 채우는 단계;
복수의 예측된 염기 호출이 생성되도록, 제1 및 제2 복수의 클러스터 중 각 클러스터에 대해 대응하는 염기 호출을 예측하는 단계;
복수의 예측된 염기 호출 중 제3 예측된 염기 호출을 제1 또는 제2의 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하면서, (i) 복수의 예측된 염기 호출 중 제1 예측된 염기 호출을 제1의 알려진 올리고 염기 서열에 매핑하고 (ii) 복수의 예측된 염기 호출의 제2 예측된 염기 호출을 제2의 알려진 올리고 염기 서열에 매핑하는 단계;
(i) 제1 예측된 염기 호출을 제1 알려진 올리고 염기 서열과 비교하는 것에 기초하여 제1 오류 신호를 생성하고, (ii) 제2 예측된 염기 호출을 제2 알려진 올리고 염기 서열과 비교하는 것에 기초하여 제2 오류 신호를 생성하는 단계; 및
제1 및 제2 오류 신호에 기초하여 염기 호출자를 추가로 훈련시키는 단계를 포함하는, 컴퓨터 구현 방법.
19. 조항 18에 있어서, 2개의 알려진 고유한 올리고 염기 서열 중 제1의 알려진 올리고 염기 서열에 제1 예측된 염기 호출을 매핑하는 단계는,
제1 예측된 염기 호출의 각 염기를 제1 및 제2 알려진 올리고 염기 서열의 대응하는 염기와 비교하는 단계;
제1 예측된 염기 호출이 제1 알려진 올리고 염기 서열과 적어도 임계값 수의 염기 유사도를 갖고, 제2 알려진 올리고 염기 서열과 임계값 수 미만의 염기 유사도를 갖는 것을 결정하는 단계; 및
제1 예측된 염기 호출이 제1 알려진 올리고 염기 서열과 적어도 임계값 수의 염기 유사도를 갖는 것을 결정한 것에 기초하여, 제1 예측된 염기 호출을 제1 알려진 올리고 염기 서열에 매핑하는 단계를 포함하는, 컴퓨터 구현 방법.
20. 조항 18에 있어서, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하는 단계는,
제1 예측된 염기 호출의 각 염기를 제1 및 제2 알려진 올리고 염기 서열의 대응하는 염기와 비교하는 단계;
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열 각각과 임계값 수 미만의 염기 유사도를 갖는 것을 결정하는 단계; 및
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열의 각각과 임계값 수 미만의 염기 유사도를 갖는 것을 결정한 것에 기초하여, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열에 매핑하는 것을 억제하는 단계를 포함하는, 컴퓨터 구현 방법.
21. 조항 18에 있어서, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하는 단계는,
제1 예측된 염기 호출의 각 염기를 제1 및 제2 알려진 올리고 염기 서열의 대응하는 염기와 비교하는 단계;
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열 각각과 임계값 수 초과의 염기 유사도를 갖는 것을 결정하는 단계; 및
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열의 각각과 임계값 수 초과의 염기 유사도를 갖는 것을 결정한 것에 기초하여, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열에 매핑하는 것을 억제하는 단계를 포함하는, 컴퓨터 구현 방법.
22. 조항 18에 있어서, N1 반복의 1회 반복 동안 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계는,
N1 반복의 1회 반복 동안 염기 호출자를 추가로 훈련한 후에, 다른 복수의 예측된 염기 호출이 생성되도록, 염기 호출에 대응하는 제1 및 제2 복수의 클러스터의 각 클러스터에 대해 재예측하는 단계;
다른 복수의 예측된 염기 호출 중 제3 서브세트를 제1 또는 제2의 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하면서, (i) 다른 복수의 예측된 염기 호출 중 제1 서브세트를 제1의 알려진 올리고 염기 서열에 재매핑하고 (ii) 다른 복수의 예측된 염기 호출의 제2 서브세트를 제2의 알려진 올리고 염기 서열에 재매핑하는 단계; 및
표지된 훈련 데이터가 (i) 다른 복수의 예측된 염기 호출의 제1 서브세트 - 제1 알려진 올리고 염기 서열은 다른 복수의 예측된 염기 호출의 제1 서브세트에 대한 실측 데이터를 형성함 -, 및 (ii) 다른 복수의 예측된 염기 호출의 제2 서브세트 - 제2의 알려진 올리고 염기 서열은 다른 복수의 예측된 염기 호출의 제2 서브세트에 대한 실측 데이터를 형성함 -를 포함하도록, 재매핑에 기초하여 표지된 훈련 데이터를 생성하는 단계를 포함하는, 컴퓨터 구현 방법.
23. 조항 22에 있어서,
N1 반복의 1회 반복 동안 생성된 표지된 훈련 데이터는 N1 반복의 직후 반복 동안 염기 호출자를 훈련시키는 데 사용되는, 컴퓨터 구현 방법.
24. 조항 23에 있어서,
염기 호출자의 신경망 구성은 N1 반복의 1회 반복과 N1 반복의 직후 반복 동안 동일한, 컴퓨터 구현 방법.
25. 조항 23에 있어서,
N1 반복의 직후 반복 동안 염기 호출자의 신경망 구성은 N1 반복의 1회 반복 동안 염기 호출자의 신경망 구성과 상이하고 그보다 더 복잡한, 컴퓨터 구현 방법.
26. 조항 1에 있어서, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
반복적인 추가 훈련 동안 반복의 진행에 따라, 다중 올리고 염기 서열을 포함하는 분석물에서 고유한 올리고 염기 서열의 수를 단조롭게 증가시키는 것을 포함하는, 컴퓨터 구현 방법.
27. 컴퓨터 구현 방법으로서,
염기 호출자를 사용하여 올리고의 알려진 서열을 갖도록 서열분석된 미지 분석물에 대한 염기 호출 서열을 예측하는 단계;
알려진 서열과 일치하는 실측 서열로 미지 분석물의 각각을 표지하는 단계; 및
표지된 미지 분석물을 사용하여 염기 호출자를 훈련시키는 단계를 포함하는, 컴퓨터 구현 방법.
28. 조항 27에 있어서, 수렴이 충족될 때까지 사용, 표지화 및 훈련을 반복하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
29. 컴퓨터 구현 방법으로서,
염기 호출자를 사용하여 2개 이상의 올리고의 2개 이상의 알려진 서열을 갖도록 서열분석된 미지 분석물 집단에 대한 염기 호출 서열을 예측하는 단계;
선별된 미지 분석물의 염기 호출 서열을 알려진 서열로 분류하는 것에 기초하여 미지 분석물의 집단으로부터 미지 분석물을 선별하는 단계;
분류에 기초하여, 알려진 서열과 각각 일치하는 각각의 실측 서열로 선별된 미지 분석물의 각각의 서브세트를 표지하는 단계; 및
선별된 미지 분석물의 표지된 각각의 서브세트를 사용하여 염기 호출자를 훈련시키는 단계를 포함하는, 컴퓨터 구현 방법.
30. 조항 29에 있어서, 수렴이 충족될 때까지 사용, 선별, 표지화 및 훈련을 반복하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
31. 염기 호출자를 점진적으로 훈련시키기 위한 컴퓨터 프로그램 명령이 기록된 비일시적 컴퓨터 판독가능한 저장 매체로서, 명령은, 프로세서 상에서 실행될 때, 하기 단계를 포함하는 방법을 구현하는, 컴퓨터 판독가능한 저장 매체:
단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키고, 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계;
(i) 다중-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 추가로 훈련시키고, 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계; 및
적어도 하나의 반복 동안 염기 호출자 내에 로딩된 신경망 구성의 복잡도를 증가시키면서 단계 (i)을 반복함으로써 염기 호출자를 반복적으로 추가 훈련시키는 단계 - 여기서 반복 동안 생성된 표지된 훈련 데이터는 직후 반복 동안에 염기 호출자를 훈련시키는 데 사용됨 -.
31a. 조항 31에 있어서, 명령은 하기 단계를 추가로 포함하는 방법을 구현하는, 컴퓨터 판독가능한 저장 매체:
다중-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 추가로 훈련시키는 적어도 1회의 반복 동안, 분석물 내에서 다중-올리고 염기 서열의 고유한 올리고 염기 서열의 수를 증가시키는 단계.
32. 조항 31에 있어서, 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키는 단계는,
염기 호출자의 초기 훈련의 제1 반복 동안:
알려진 단일-올리고 염기 서열을 플로우 셀의 복수의 클러스터에 채우는 단계;
복수의 클러스터에 대응하는 복수의 서열 신호를 생성하는 단계 - 복수의 서열 신호의 각 서열 신호는 복수의 클러스터 중 대응하는 클러스터에 로딩된 염기 서열을 나타냄 -;
복수의 서열 신호 중 각 서열 신호에 기초하여, 알려진 단일 올리고 염기 서열에 대한 대응하는 염기 호출을 예측하여 복수의 예측된 염기 호출을 생성하는 단계;
(i) 대응하는 예측된 염기 호출과 (ii) 알려진 단일 올리고 염기 서열의 염기를 비교하여 복수의 서열 신호 중 각 서열 신호에 대해 대응 오류 신호를 생성하고, 이에 의해 복수의 서열 신호에 대응하는 복수의 오류 신호를 생성하는 단계; 및
복수의 오류 신호에 기초하여 제1 반복 동안 염기 호출자를 초기에 훈련시키는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
32a. 조항 32에 있어서, 제1 반복 동안 염기 호출자를 초기에 훈련시키는 단계는,
염기 호출자에 로딩된 신경망 구성의 역전파 경로를 사용하여, 복수의 오류 신호에 기초하여 신경망 구성의 가중치 및/또는 바이어스를 업데이트하는 것을 포함하는, 컴퓨터 판독가능한 저장 매체.
33. 조항 32에 있어서, 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키는 단계는,
초기 훈련의 제1 반복 후에 발생하는 염기 호출자의 초기 훈련의 제2 반복 동안:
초기 훈련의 제1 반복 동안 부분적으로 훈련된 염기 호출자를 사용하여, 복수의 서열 신호 중 각 서열 신호에 기초하여, 알려진 단일 올리고 염기 서열에 대한 대응하는 추가의 염기 호출을 예측하여 복수의 추가 예측된 염기 호출을 생성하는 단계;
(i) 대응하는 추가의 예측된 염기 호출과 (ii) 알려진 단일 올리고 염기 서열의 염기를 비교하여 복수의 서열 신호 중 각 서열 신호에 대해 대응하는 추가의 오류 신호를 생성하고, 이에 의해 복수의 서열 신호에 대응하는 복수의 추가 오류 신호를 생성하는 단계; 및
복수의 추가 오류 신호에 기초하여 제2 반복 동안 염기 호출자를 추가로 초기에 훈련시키는 단계를 추가로 포함하는, 컴퓨터 판독가능한 저장 매체.
34. 조항 33에 있어서, 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키는 단계는,
수렴 조건이 충족될 때까지 복수의 인스턴스에 대해 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자의 초기 훈련의 제2 반복을 반복하는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
35. 조항 34에 있어서, 수렴 조건은 염기 호출자의 초기 훈련의 제2 반복의 2회 연속 반복들 사이에서 복수의 추가 오류 신호의 감소가 임계값보다 작은 경우 충족되는, 컴퓨터 판독가능한 저장 매체.
36. 조항 34에 있어서, 수렴 조건은 염기 호출자의 초기 훈련의 제2 반복이 적어도 임계값 수의 인스턴스 동안 반복될 때 충족되는, 컴퓨터 판독가능한 저장 매체.
37. 조항 33에 있어서,
염기 호출자의 초기 훈련의 제1 반복 동안 생성되는 복수의 클러스터에 대응하는 복수의 서열 신호는 염기 호출자의 초기 훈련의 제2 반복에 재사용되는, 컴퓨터 판독가능한 저장 매체.
38. 조항 32에 있어서, (i) 대응하는 예측된 염기 호출과 (ii) 알려진 단일 올리고 서열의 염기를 비교하는 단계는,
제1 예측된 염기 호출에 대해, (i) 제1 예측된 염기 호출의 제1 염기를 알려진 단일 올리고 서열의 제1 염기와 비교하는 단계, 및 (ii) 제1 예측된 염기 호출의 제2 염기와 알려진 단일 올리고 서열의 제2 염기를 비교하여 대응하는 제1 오류 신호를 생성하는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
39. 조항 31에 있어서, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
2개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 N1 반복 동안 추가로 훈련시키는 단계; 및
3개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 N2 반복 동안 추가로 훈련시키는 단계를 포함하며,
N1 반복은 N2 반복 이전에 수행되는, 컴퓨터 판독가능한 저장 매체.
40. 조항 31에 있어서, 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키는 동안, 제1 신경망 구성이 염기 호출자 내에 로딩되며, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
2개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 N1 반복 동안 추가로 훈련시켜,
(i) N1 반복의 제1 서브세트 동안 제2 신경망 구성이 염기 호출자 내에 로딩되고,
(ii) N1 반복의 제1 서브세트 이후에 발생하는 N1 반복의 제2 서브세트 동안 제3 신경망 구성이 염기 호출자 내에 로딩되도록 하는 단계를 포함하며, 여기서 제1, 제2 및 제3 신경망 구성은 서로 상이한, 컴퓨터 판독가능한 저장 매체.
41. 조항 40에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 복잡하고, 제3 신경망 구성은 제2 신경망 구성보다 더 복잡한, 컴퓨터 판독가능한 저장 매체.
42. 조항 40에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 층을 갖는, 컴퓨터 판독가능한 저장 매체.
43. 조항 40에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 가중치를 갖는, 컴퓨터 판독가능한 저장 매체.
44. 조항 40에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 파라미터를 갖는, 컴퓨터 판독가능한 저장 매체.
45. 조항 40에 있어서, 제3 신경망 구성은 제2 신경망 구성보다 더 많은 수의 층을 갖는, 컴퓨터 판독가능한 저장 매체.
46. 조항 40에 있어서, 제3 신경망 구성은 제2 신경망 구성보다 더 많은 수의 가중치를 갖는, 컴퓨터 판독가능한 저장 매체.
47. 조항 40에 있어서, 제3 신경망 구성은 제2 신경망 구성보다 더 많은 수의 파라미터를 갖는, 컴퓨터 판독가능한 저장 매체.
48. 조항 40에 있어서, 2개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는, N1 반복의 1회 반복에 대해:
(i) 2개의 알려진 고유한 올리고 염기 서열 중 제1의 알려진 올리고 염기 서열로 플로우 셀의 제1 복수의 클러스터를 채우고 (ii) 2개의 알려진 고유한 올리고 염기 서열 중 제2의 알려진 올리고 염기 서열로 플로우 셀의 제2 복수의 클러스터를 채우는 단계;
복수의 예측된 염기 호출이 생성되도록, 제1 및 제2 복수의 클러스터 중 각 클러스터에 대해 대응하는 염기 호출을 예측하는 단계;
복수의 예측된 염기 호출 중 제3 예측된 염기 호출을 제1 또는 제2의 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하면서, (i) 복수의 예측된 염기 호출 중 제1 예측된 염기 호출을 제1의 알려진 올리고 염기 서열에 매핑하고 (ii) 복수의 예측된 염기 호출의 제2 예측된 염기 호출을 제2의 알려진 올리고 염기 서열에 매핑하는 단계;
(i) 제1 예측된 염기 호출을 제1 알려진 올리고 염기 서열과 비교하는 것에 기초하여 제1 오류 신호를 생성하고, (ii) 제2 예측된 염기 호출을 제2 알려진 올리고 염기 서열과 비교하는 것에 기초하여 제2 오류 신호를 생성하는 단계; 및
제1 및 제2 오류 신호에 기초하여 염기 호출자를 추가로 훈련시키는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
49. 조항 38에 있어서, 2개의 알려진 고유한 올리고 염기 서열 중 제1의 알려진 올리고 염기 서열에 제1 예측된 염기 호출을 매핑하는 단계는,
제1 예측된 염기 호출의 각 염기를 제1 및 제2 알려진 올리고 염기 서열의 대응하는 염기와 비교하는 단계;
제1 예측된 염기 호출이 제1 알려진 올리고 염기 서열과 적어도 임계값 수의 염기 유사도를 갖고, 제2 알려진 올리고 염기 서열과 임계값 수 미만의 염기 유사도를 갖는 것을 결정하는 단계; 및
제1 예측된 염기 호출이 제1 알려진 올리고 염기 서열과 적어도 임계값 수의 염기 유사도를 갖는 것을 결정한 것에 기초하여, 제1 예측된 염기 호출을 제1 알려진 올리고 염기 서열에 매핑하는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
50. 조항 48에 있어서, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하는 단계는,
제1 예측된 염기 호출의 각 염기를 제1 및 제2 알려진 올리고 염기 서열의 대응하는 염기와 비교하는 단계;
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열 각각과 임계값 수 미만의 염기 유사도를 갖는 것을 결정하는 단계; 및
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열의 각각과 임계값 수 미만의 염기 유사도를 갖는 것을 결정한 것에 기초하여, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열에 매핑하는 것을 억제하는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
51. 조항 48에 있어서, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하는 단계는,
제1 예측된 염기 호출의 각 염기를 제1 및 제2 알려진 올리고 염기 서열의 대응하는 염기와 비교하는 단계;
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열 각각과 임계값 수 초과의 염기 유사도를 갖는 것을 결정하는 단계; 및
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열의 각각과 임계값 수 초과의 염기 유사도를 갖는 것을 결정한 것에 기초하여, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열에 매핑하는 것을 억제하는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
52. 조항 48에 있어서, N1 반복의 1회 반복 동안 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계는,
N1 반복의 1회 반복 동안 염기 호출자를 추가로 훈련한 후에, 다른 복수의 예측된 염기 호출이 생성되도록, 염기 호출에 대응하는 제1 및 제2 복수의 클러스터의 각 클러스터에 대해 재예측하는 단계;
다른 복수의 예측된 염기 호출 중 제3 서브세트를 제1 또는 제2의 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하면서, (i) 다른 복수의 예측된 염기 호출 중 제1 서브세트를 제1의 알려진 올리고 염기 서열에 재매핑하고 (ii) 다른 복수의 예측된 염기 호출의 제2 서브세트를 제2의 알려진 올리고 염기 서열에 재매핑하는 단계; 및
표지된 훈련 데이터가 (i) 다른 복수의 예측된 염기 호출의 제1 서브세트 - 제1 알려진 올리고 염기 서열은 다른 복수의 예측된 염기 호출의 제1 서브세트에 대한 실측 데이터를 형성함 -, 및 (ii) 다른 복수의 예측된 염기 호출의 제2 서브세트 - 제2의 알려진 올리고 염기 서열은 다른 복수의 예측된 염기 호출의 제2 서브세트에 대한 실측 데이터를 형성함 -를 포함하도록, 재매핑에 기초하여 표지된 훈련 데이터를 생성하는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
53. 조항 52에 있어서,
N1 반복의 1회 반복 동안 생성된 표지된 훈련 데이터는 N1 반복의 직후 반복 동안 염기 호출자를 훈련시키는 데 사용되는, 컴퓨터 판독가능한 저장 매체.
54. 조항 53에 있어서,
염기 호출자의 신경망 구성은 N1 반복의 1회 반복과 N1 반복의 직후 반복 동안 동일한, 컴퓨터 판독가능한 저장 매체.
55. 조항 53에 있어서,
N1 반복의 직후 반복 동안 염기 호출자의 신경망 구성은 N1 반복의 1회 반복 동안 염기 호출자의 신경망 구성과 상이하고 그보다 더 복잡한, 컴퓨터 판독가능한 저장 매체.
56. 조항 31에 있어서, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
반복적인 추가 훈련 동안 반복의 진행에 따라, 다중 올리고 염기 서열을 포함하는 분석물에서 고유한 올리고 염기 서열의 수를 단조롭게 증가시키는 것을 포함하는, 컴퓨터 판독가능한 저장 매체.
조항 세트 # 2(유기체 서열을 사용하여 훈련된 자체 학습 염기 호출자)
A1. 염기 호출자를 점진적으로 훈련시키는 컴퓨터 구현 방법으로서,
염기 호출자를 초기에 훈련시키고, 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계;
(i) 유기체 염기 서열을 포함하는 분석물로 염기 호출자를 추가로 훈련시키고, 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계; 및
N 반복 동안 단계 (i)을 반복함으로써 염기 호출자를 반복적으로 추가 훈련시키는 단계를 포함하고, 이 추가 훈련 단계는,
제1 복수의 염기 하위서열에서 선별되는 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계, 및
제2 복수의 염기 하위서열에서 선별되는 제2 유기체 염기 서열을 포함하는 분석물로 N 반복의 N2 반복 동안 염기 호출자를 추가로 훈련시키는 단계를 포함하고,
염기 호출자에 로딩된 신경망 구성의 복잡도는 N 반복에 따라 단조롭게 증가하고,
N 반복의 반복 동안 생성된 표지된 훈련 데이터는 N 반복의 직후 반복 동안 염기 호출자를 훈련시키는 데 사용되는, 컴퓨터 구현 방법.
A1a. 조항 A1에 있어서, 염기 호출자를 초기에 훈련시키는 단계는,
하나 이상의 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 초기에 훈련시키는 것 및 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 것을 포함하는, 컴퓨터 구현 방법.
A2. 조항 A1에 있어서, N1 반복은 N2 반복 이전에 수행되고, 제2 유기체 염기 서열은 제1 유기체 염기 서열보다 더 많은 수의 염기를 갖는, 컴퓨터 구현 방법.
A3. 조항 A1에 있어서, N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는, N1 반복의 1회 반복 동안:
(i) 제1 유기체의 제1 복수의 염기 하위서열 중 제1 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제1 클러스터를 채우고, (ii) 제1 유기체의 제1 복수의 염기 하위서열 중 제2 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제2 클러스터를 채우고, (iii) 제1 유기체의 제1 복수의 염기 하위서열 중 제3 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제3 클러스터를 채우는 단계;
(i) 제1 클러스터에 채워진 염기 하위서열을 나타내는 제1 클러스터로부터의 제1 서열 신호, (ii) 제2 클러스터에 채워진 염기 하위서열을 나타내는 제2 클러스터로부터의 제2 서열 신호, 및 (iii) 제3 클러스터에 채워진 염기 하위서열을 나타내는 제3 클러스터로부터의 제3 서열 신호를 수신하는 단계;
(i) 제1 서열 신호에 기초하여 제1 예측된 염기 하위서열, (ii) 제2 서열 신호에 기초하여 제2 예측된 염기 하위서열, 및 (iii) 제3 서열 신호에 기초하여 제3 예측된 염기 하위서열을 생성하는 단계;
(i) 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하고 (ii) 제2 예측된 염기 하위서열을 제1 유기체 염기 서열의 제2 섹션과 매핑하는 한편, 제3 예측된 염기 하위서열을 제1 유기체 염기 서열의 임의의 섹션과 매핑하지 못하는 단계; 및
(i) 제1 유기체 염기 서열의 제1 섹션에 매핑된 제1 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제1 섹션은 제1 예측된 염기 하위서열에 대한 실측임 -, 및 (ii) 제1 유기체 염기 서열의 제2 섹션에 매핑된 제2 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제2 섹션은 제2 예측된 염기 하위서열에 대한 실측임 -을 포함하는 표지된 훈련 데이터를 생성하는 단계를 포함하는, 컴퓨터 구현 방법.
A3a. 조항 A3에 있어서, N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는, N1 반복의 1회 반복 동안:
제1, 제2 및 제3의 예측된 염기 하위서열을 생성하기 전에, 염기 호출자를 처음 훈련시키는 동안 생성되는 표지된 훈련 데이터를 사용하여 염기 호출자를 훈련시키는 것을 포함하는, 컴퓨터 구현 방법.
A4. 조항 A3에 있어서,
제1 예측된 염기 하위서열은 L1 개수의 염기를 갖고;
제1 예측된 염기 하위서열의 L1 염기 중 하나 이상의 염기는 염기 호출자에 의한 염기 호출 예측의 오류로 인해 제1 유기체 염기 서열의 제1 섹션의 대응 염기와 일치하지 않는, 컴퓨터 구현 방법.
A5. 조항 A3에 있어서, 제1 예측된 염기 하위서열은 L1 개수의 염기를 갖고, 제1 예측된 염기 하위서열의 L1 개수의 염기는 초기 L2 염기 및 이어서 후속 L3 염기를 포함하며, 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하는 단계는,
제1 예측된 염기 서열의 초기 L2 염기를 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 그리고 고유하게 일치시키는 단계;
제1 유기체 염기 서열의 제1 섹션을, 제1 섹션이 (i) 초기 염기로서 연속 L2 염기를 포함하고 (ii) L1 개수의 염기를 포함하도록 식별하는 단계; 및
제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 식별된 제1 섹션과 매핑하는 단계를 포함하는, 컴퓨터 구현 방법.
A6. A5에 있어서,
제1 예측된 염기 서열의 초기 L2 염기를 실질적으로 그리고 고유하게 일치시키는 동안, 제1 예측된 염기 서열의 후속 L3 염기를 제1 유기체 염기 서열의 임의의 염기와 일치시키는 것을 목표로 하는 것을 억제하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
A7. A5에 있어서, 제1 예측된 염기 서열의 초기 L2 염기는 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 일치하여, 제1 예측된 염기 서열의 초기 L2 염기 중 적어도 임계값 수의 염기가 제1 유기체 염기 서열의 연속 L2 염기와 일치하는, 컴퓨터 구현 방법.
A8. A5에 있어서, 제1 예측된 염기 서열의 초기 L2 염기는 제1 유기체 염기 서열의 연속 L2 염기와 고유하게 일치하여, 제1 예측된 염기 서열의 초기 L2 염기가 제1 유기체 염기 서열의 연속 L2 염기와만 실질적으로 일치하고, 제1 유기체 염기 서열의 다른 연속 L2 염기와는 일치하지 않는, 컴퓨터 구현 방법.
A9. 조항 A3에 있어서, 제3 예측된 염기 하위서열은 L1 개수의 염기를 갖고, 제3 예측된 염기 하위서열을 제1 복수의 염기 하위서열 중 임의의 염기 하위서열과 매핑하지 못하는 단계는,
(i) 제3 예측된 염기 서열의 L1 염기 중 초기 L2 염기를 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 그리고 고유하게 일치시키지 못하는 것을 포함하는, 컴퓨터 구현 방법.
A10. 조항 A3에 있어서, N1 반복의 1회 반복은 N1 반복의 제1 반복이고, N1 반복의 제2 반복 동안 염기 호출자를 추가로 훈련시키는 단계는,
N1 반복의 제1 반복 동안 생성되는 표지된 훈련 데이터를 사용하여 염기 호출자를 훈련시키는 단계;
N1 반복의 제1 반복 동안 생성되는 표지된 훈련 데이터로 훈련된 염기 호출자를 사용하여, (i) 제1 서열 신호에 기초하여 추가의 제1 예측된 염기 하위서열, (ii) 제2 서열 신호에 기초하여 추가의 제2 예측된 염기 하위서열, 및 (iii) 제3 서열 신호에 기초하여 추가의 제3 예측된 염기 하위서열을 생성하는 단계;
(i) 추가의 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하고, (ii) 추가의 제2 예측된 염기 하위서열을 제1 유기체 염기 서열의 제2 섹션과 매핑하고, (iii) 추가의 제3 예측된 염기 하위서열을 제1 유기체 염기 서열의 제3 섹션과 매핑하는 단계; 및
(i) 제1 유기체 염기 서열의 제1 섹션에 매핑된 추가의 제1 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제1 섹션은 추가의 제1 예측된 염기 하위서열에 대한 실측임 -, (ii) 제1 유기체 염기 서열의 제2 섹션에 매핑된 추가의 제2 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 추가의 제2 섹션은 추가의 제2 예측된 염기 하위서열에 대한 실측임 -, 및 (iii) 제1 유기체 염기 서열의 제3 섹션에 매핑된 추가의 제3 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 추가의 제3 섹션은 추가의 제3 예측된 염기 하위서열에 대한 실측임 -을 포함하는 추가의 표지된 훈련 데이터를 생성하는 단계를 포함하는, 컴퓨터 구현 방법.
A11. 조항 A10에 있어서,
(i) N1 반복의 제1 반복 동안 생성된 제1 예측된 염기 하위서열과 (ii) 제1 유기체 염기 서열의 제1 섹션 사이에 제1 오류를 생성하는 단계; 및
(i) N1 반복의 제2 반복 동안 생성된 추가의 제1 예측된 염기 하위서열과 (ii) 제1 유기체 염기 서열의 제1 섹션 사이에 제2 오류를 생성하는 단계를 추가로 포함하며,
염기 호출자가 제1 반복에 비해 제2 반복 동안에 더 잘 훈련되기 때문에 제2 오류는 제1 오류보다 작은, 컴퓨터 구현 방법.
A12. 조항 A10에 있어서,
제1 반복 동안 생성된 제1, 제2 및 제3 서열 신호는 제2 반복에서 재사용되어 각각 추가의 제1 예측된 염기 하위서열, 추가의 제2 예측된 염기 하위서열 및 추가의 제3 예측된 염기 하위서열을 생성하는, 컴퓨터 구현 방법.
A13. 조항 A10에 있어서,
염기 호출자의 신경망 구성은 N1 반복의 제1 반복과 N1 반복의 제2 반복 동안 동일한, 컴퓨터 구현 방법.
A13a. 조항 A13에 있어서,
염기 호출자의 신경망 구성은 수렴 조건이 충족될 때까지 여러 반복에 재사용되는, 컴퓨터 구현 방법.
A14. 조항 A10에 있어서,
N1 반복의 제1 반복 동안 염기 호출자의 신경망 구성은 N1 반복의 제2 반복 동안 염기 호출자의 신경망 구성과 상이하고 그보다 더 복잡한, 컴퓨터 구현 방법.
A15. 조항 A1에 있어서, 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는,
N1 반복의 제1 서브세트에 대해, 염기 호출자에 로딩된 제1 신경망 구성으로 염기 호출자를 추가로 훈련시키는 단계;
N1 반복의 제2 서브세트에 대해, 염기 호출자에 로딩된 제2 신경망 구성으로 염기 호출자를 추가로 훈련시키는 단계를 포함하며, 제2 신경망 구성은 제1 신경망 구성과 상이한, 컴퓨터 구현 방법.
A16. 조항 A15에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 층을 갖는, 컴퓨터 구현 방법.
A17. 조항 A15에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 가중치를 갖는, 컴퓨터 구현 방법.
A18. 조항 A15에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 파라미터를 갖는, 컴퓨터 구현 방법.
A19. 조항 A1에 있어서, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
제1 유기체 염기 서열을 포함하는 분석물을 갖는 N1 반복의 1회 이상의 반복에 대해, 염기 호출자에 제1 신경망 구성을 로딩하는 단계; 및
제2 유기체 염기 서열을 포함하는 분석물을 갖는 N2 반복의 1회 이상의 반복에 대해, 염기 호출자에 제2 신경망 구성을 로딩하는 단계를 포함하며, 제2 신경망 구성은 제1 신경망 구성과 상이한, 컴퓨터 구현 방법.
A20. 조항 A19에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 층을 갖는, 컴퓨터 구현 방법.
A21. 조항 A19에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 가중치를 갖는, 컴퓨터 구현 방법.
A22. 조항 A19에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 파라미터를 갖는, 컴퓨터 구현 방법.
A23. 조항 A1에 있어서, 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는,
N1 반복 후 수렴 조건이 충족될 때까지 제1 유기체 염기 서열을 사용하여 추가 훈련을 반복하는 것을 포함하는, 컴퓨터 구현 방법.
A24. 조항 A23에 있어서, 수렴 조건은, N1 반복의 2회 연속 반복들 사이에서, 생성된 오류 신호의 감소가 임계값보다 작은 경우 충족되는, 컴퓨터 구현 방법.
A25. 조항 A23에 있어서, 수렴 조건은 N1 반복의 완료 후에 충족되는, 컴퓨터 구현 방법.
B1. 염기 호출자를 점진적으로 훈련시키기 위한 컴퓨터 프로그램 명령이 기록된 비일시적 컴퓨터 판독가능한 저장 매체로서, 명령은, 프로세서 상에서 실행될 때, 하기 단계를 포함하는 방법을 구현하는, 컴퓨터 판독가능한 저장 매체:
염기 호출자를 초기에 훈련시키고, 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계;
(i) 유기체 염기 서열을 포함하는 분석물로 염기 호출자를 추가로 훈련시키고, 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계; 및
N 반복 동안 단계 (i)을 반복함으로써 염기 호출자를 반복적으로 추가 훈련시키는 단계를 포함하고, 이 추가 훈련 단계는,
제1 복수의 염기 하위서열에서 선별되는 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계, 및
제2 복수의 염기 하위서열에서 선별되는 제2 유기체 염기 서열을 포함하는 분석물로 N 반복의 N2 반복 동안 염기 호출자를 추가로 훈련시키는 단계를 포함하고,
염기 호출자에 로딩된 신경망 구성의 복잡도는 N 반복에 따라 단조롭게 증가하고,
N 반복의 반복 동안 생성된 표지된 훈련 데이터는 N 반복의 직후 반복 동안 염기 호출자를 훈련시키는 데 사용되는, 컴퓨터 판독가능한 저장 매체.
B1a. 조항 B1에 있어서, 염기 호출자를 초기에 훈련시키는 단계는,
하나 이상의 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 초기에 훈련시키는 것 및 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 것을 포함하는, 컴퓨터 판독가능한 저장 매체.
B2. 조항 B1에 있어서, N1 반복은 N2 반복 이전에 수행되고, 제2 유기체 염기 서열은 제1 유기체 염기 서열보다 더 많은 수의 염기를 갖는, 컴퓨터 판독가능한 저장 매체.
B3. 조항 B1에 있어서, N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는, N1 반복의 1회 반복 동안:
(i) 제1 유기체의 제1 복수의 염기 하위서열 중 제1 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제1 클러스터를 채우고, (ii) 제1 유기체의 제1 복수의 염기 하위서열 중 제2 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제2 클러스터를 채우고, (iii) 제1 유기체의 제1 복수의 염기 하위서열 중 제3 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제3 클러스터를 채우는 단계;
(i) 제1 클러스터에 채워진 염기 하위서열을 나타내는 제1 클러스터로부터의 제1 서열 신호, (ii) 제2 클러스터에 채워진 염기 하위서열을 나타내는 제2 클러스터로부터의 제2 서열 신호, 및 (iii) 제3 클러스터에 채워진 염기 하위서열을 나타내는 제3 클러스터로부터의 제3 서열 신호를 수신하는 단계;
(i) 제1 서열 신호에 기초하여 제1 예측된 염기 하위서열, (ii) 제2 서열 신호에 기초하여 제2 예측된 염기 하위서열, 및 (iii) 제3 서열 신호에 기초하여 제3 예측된 염기 하위서열을 생성하는 단계;
(i) 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하고 (ii) 제2 예측된 염기 하위서열을 제1 유기체 염기 서열의 제2 섹션과 매핑하는 한편, 제3 예측된 염기 하위서열을 제1 유기체 염기 서열의 임의의 섹션과 매핑하지 못하는 단계; 및
(i) 제1 유기체 염기 서열의 제1 섹션에 매핑된 제1 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제1 섹션은 제1 예측된 염기 하위서열에 대한 실측임 -, 및 (ii) 제1 유기체 염기 서열의 제2 섹션에 매핑된 제2 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제2 섹션은 제2 예측된 염기 하위서열에 대한 실측임 -을 포함하는 표지된 훈련 데이터를 생성하는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
B3a. 조항 B3에 있어서, N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는, N1 반복의 1회 반복 동안:
제1, 제2 및 제3의 예측된 염기 하위서열을 생성하기 전에, 염기 호출자를 처음 훈련시키는 동안 생성되는 표지된 훈련 데이터를 사용하여 염기 호출자를 훈련시키는 것을 포함하는, 컴퓨터 판독가능한 저장 매체.
B4. 조항 B3에 있어서,
제1 예측된 염기 하위서열은 L1 개수의 염기를 갖고;
제1 예측된 염기 하위서열의 L1 염기 중 하나 이상의 염기는 염기 호출자에 의한 염기 호출 예측의 오류로 인해 제1 유기체 염기 서열의 제1 섹션의 대응 염기와 일치하지 않는, 컴퓨터 판독가능한 저장 매체.
B5. 조항 B3에 있어서, 제1 예측된 염기 하위서열은 L1 개수의 염기를 갖고, 제1 예측된 염기 하위서열의 L1 개수의 염기는 초기 L2 염기 및 이어서 후속 L3 염기를 포함하며, 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하는 단계는,
제1 예측된 염기 서열의 초기 L2 염기를 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 그리고 고유하게 일치시키는 단계;
제1 유기체 염기 서열의 제1 섹션을, 제1 섹션이 (i) 초기 염기로서 연속 L2 염기를 포함하고 (ii) L1 개수의 염기를 포함하도록 식별하는 단계; 및
제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 식별된 제1 섹션과 매핑하는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
B6. 조항 B5에 있어서,
제1 예측된 염기 서열의 초기 L2 염기를 실질적으로 그리고 고유하게 일치시키는 동안, 제1 예측된 염기 서열의 후속 L3 염기를 제1 유기체 염기 서열의 임의의 염기와 일치시키는 것을 목표로 하는 것을 억제하는 단계를 추가로 포함하는, 컴퓨터 판독가능한 저장 매체.
B7. B5에 있어서, 제1 예측된 염기 서열의 초기 L2 염기는 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 일치하여, 제1 예측된 염기 서열의 초기 L2 염기 중 적어도 임계값 수의 염기가 제1 유기체 염기 서열의 연속 L2 염기와 일치하는, 컴퓨터 판독가능한 저장 매체.
B8. B5에 있어서, 제1 예측된 염기 서열의 초기 L2 염기는 제1 유기체 염기 서열의 연속 L2 염기와 고유하게 일치하여, 제1 예측된 염기 서열의 초기 L2 염기가 제1 유기체 염기 서열의 연속 L2 염기와만 실질적으로 일치하고, 제1 유기체 염기 서열의 다른 연속 L2 염기와는 일치하지 않는, 컴퓨터 판독가능한 저장 매체.
B9. 조항 B3에 있어서, 제3 예측된 염기 하위서열은 L1 개수의 염기를 갖고, 제3 예측된 염기 하위서열을 제1 복수의 염기 하위서열 중 임의의 염기 하위서열과 매핑하지 못하는 단계는,
(i) 제3 예측된 염기 서열의 L1 염기 중 초기 L2 염기를 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 그리고 고유하게 일치시키지 못하는 것을 포함하는, 컴퓨터 판독가능한 저장 매체.
B10. 조항 B3에 있어서, N1 반복의 1회 반복은 N1 반복의 제1 반복이고, N1 반복의 제2 반복 동안 염기 호출자를 추가로 훈련시키는 단계는,
N1 반복의 제1 반복 동안 생성되는 표지된 훈련 데이터를 사용하여 염기 호출자를 훈련시키는 단계;
N1 반복의 제1 반복 동안 생성되는 표지된 훈련 데이터로 훈련된 염기 호출자를 사용하여, (i) 제1 서열 신호에 기초하여 추가의 제1 예측된 염기 하위서열, (ii) 제2 서열 신호에 기초하여 추가의 제2 예측된 염기 하위서열, 및 (iii) 제3 서열 신호에 기초하여 추가의 제3 예측된 염기 하위서열을 생성하는 단계;
(i) 추가의 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하고, (ii) 추가의 제2 예측된 염기 하위서열을 제1 유기체 염기 서열의 제2 섹션과 매핑하고, (iii) 추가의 제3 예측된 염기 하위서열을 제1 유기체 염기 서열의 제3 섹션과 매핑하는 단계; 및
(i) 제1 유기체 염기 서열의 제1 섹션에 매핑된 추가의 제1 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제1 섹션은 추가의 제1 예측된 염기 하위서열에 대한 실측임 -, (ii) 제1 유기체 염기 서열의 제2 섹션에 매핑된 추가의 제2 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 추가의 제2 섹션은 추가의 제2 예측된 염기 하위서열에 대한 실측임 -, 및 (iii) 제1 유기체 염기 서열의 제3 섹션에 매핑된 추가의 제3 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 추가의 제3 섹션은 추가의 제3 예측된 염기 하위서열에 대한 실측임 -을 포함하는 추가의 표지된 훈련 데이터를 생성하는 단계를 포함하는, 컴퓨터 판독가능한 저장 매체.
B11. 조항 B10에 있어서,
(i) N1 반복의 제1 반복 동안 생성된 제1 예측된 염기 하위서열과 (ii) 제1 유기체 염기 서열의 제1 섹션 사이에 제1 오류를 생성하는 단계; 및
(i) N1 반복의 제2 반복 동안 생성된 추가의 제1 예측된 염기 하위서열과 (ii) 제1 유기체 염기 서열의 제1 섹션 사이에 제2 오류를 생성하는 단계를 추가로 포함하며,
염기 호출자가 제1 반복에 비해 제2 반복 동안에 더 잘 훈련되기 때문에 제2 오류는 제1 오류보다 작은, 컴퓨터 판독가능한 저장 매체.
B12. 조항 B10에 있어서,
제1 반복 동안 생성된 제1, 제2 및 제3 서열 신호는 제2 반복에서 재사용되어 각각 추가의 제1 예측된 염기 하위서열, 추가의 제2 예측된 염기 하위서열 및 추가의 제3 예측된 염기 하위서열을 생성하는, 컴퓨터 판독가능한 저장 매체.
B13. 조항 B10에 있어서,
염기 호출자의 신경망 구성은 N1 반복의 제1 반복과 N1 반복의 제2 반복 동안 동일한, 컴퓨터 판독가능한 저장 매체.
B13a. 조항 B13에 있어서,
염기 호출자의 신경망 구성은 수렴 조건이 충족될 때까지 여러 반복에 재사용되는, 컴퓨터 판독가능한 저장 매체.
B14. 조항 B10에 있어서,
N1 반복의 제1 반복 동안 염기 호출자의 신경망 구성은 N1 반복의 제2 반복 동안 염기 호출자의 신경망 구성과 상이하고 그보다 더 복잡한, 컴퓨터 판독가능한 저장 매체.
B15. 조항 B1에 있어서, 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는,
N1 반복의 제1 서브세트에 대해, 염기 호출자에 로딩된 제1 신경망 구성으로 염기 호출자를 추가로 훈련시키는 단계;
N1 반복의 제2 서브세트에 대해, 염기 호출자에 로딩된 제2 신경망 구성으로 염기 호출자를 추가로 훈련시키는 단계를 포함하며, 제2 신경망 구성은 제1 신경망 구성과 상이한, 컴퓨터 판독가능한 저장 매체.
B16. 조항 B15에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 층을 갖는, 컴퓨터 판독가능한 저장 매체.
B17. 조항 B15에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 가중치를 갖는, 컴퓨터 판독가능한 저장 매체.
B18. 조항 B15에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 파라미터를 갖는, 컴퓨터 판독가능한 저장 매체.
B19. 조항 B1에 있어서, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
제1 유기체 염기 서열을 포함하는 분석물을 갖는 N1 반복의 1회 이상의 반복에 대해, 염기 호출자에 제1 신경망 구성을 로딩하는 단계; 및
제2 유기체 염기 서열을 포함하는 분석물을 갖는 N2 반복의 1회 이상의 반복에 대해, 염기 호출자에 제2 신경망 구성을 로딩하는 단계를 포함하며, 제2 신경망 구성은 제1 신경망 구성과 상이한, 컴퓨터 판독가능한 저장 매체.
B20. 조항 B19에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 층을 갖는, 컴퓨터 판독가능한 저장 매체.
B21. 조항 B19에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 가중치를 갖는, 컴퓨터 판독가능한 저장 매체.
B22. 조항 B19에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 파라미터를 갖는, 컴퓨터 판독가능한 저장 매체.
B23. 조항 B1에 있어서, 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는,
N1 반복 후 수렴 조건이 충족될 때까지 제1 유기체 염기 서열을 사용하여 추가 훈련을 반복하는 것을 포함하는, 컴퓨터 판독가능한 저장 매체.
B24. 조항 B23에 있어서, 수렴 조건은, N1 반복의 2회 연속 반복들 사이에서, 생성된 오류 신호의 감소가 임계값보다 작은 경우 충족되는, 컴퓨터 판독가능한 저장 매체.
B25. 조항 B23에 있어서, 수렴 조건은 N1 반복의 완료 후에 충족되는, 컴퓨터 판독가능한 저장 매체.
1. 염기 호출자를 점진적으로 훈련시키는 컴퓨터 구현 방법으로서,
(i) 염기 호출자를 사용하여 알려진 올리고 서열을 갖도록 서열분석된 단일-올리고 미지 분석물(즉, 미지 표적 서열) 집단에 대한 단일-올리고 염기 호출 서열을 예측하고, (ii) 알려진 서열과 일치하는 단일-올리고 실측 서열을 사용하여 단일 올리고 미지 분석물 집단에서 각각의 단일-올리고 미지 분석물을 표지하고, (iii) 표지된 단일-올리고 미지 분석물 집단을 사용하여 염기 호출자를 훈련시키는, 단일-올리고 훈련 스테이지를 시작하는 단계;
(i) 염기 호출자를 사용하여 2개 이상의 올리고의 2개 이상의 알려진 서열을 갖도록 서열분석된 다중-올리고 미지 분석물 집단에 대한 다중-올리고 염기 호출 서열을 예측하고, (ii) 선별된 다중-올리고 미지 분석물의 다중 올리고 염기 호출 서열을 알려진 서열로 분류하는 것에 기초하여 다중-올리고 미지 분석물 집단으로부터 다중-올리고 미지 분석물을 선별하고, (iii) 분류에 기초하여, 알려진 서열과 각각 일치하는 각각의 다중-올리고 실측 서열을 사용하여 선별된 다중-올리고 미지 분석물의 각각의 서브세트를 표지하며, (iv) 선별된 다중-올리고 미지 분석물의 표지된 각각의 서브세트를 사용하여 염기 호출자를 추가로 훈련시키는, 하나 이상의 다중-올리고 훈련 스테이지를 계속하는 단계; 및
(i) 염기 호출자를 사용하여 유기체의 참조 서열의 하나 이상의 알려진 하위서열을 갖도록 서열분석된 유기체-특이적 미지 분석물 집단에 대한 유기체-특이적 염기 호출 서열을 예측하고, (ii) 선별된 유기체-특이적 미지 분석물의 유기체-특이적 염기 호출 서열을 알려진 하위서열을 포함하는 참조 서열의 섹션에 매핑하는 것에 기초하여 유기체-특이적 미지 분석물 집단으로부터 유기체-특이적 미지 분석물을 선별하고, (iii) 매핑에 기초하여, 알려진 하위서열과 각각 일치하는 각각의 유기체-특이적 실측 서열을 사용하여 선별된 유기체-특이적 미지 분석물의 각각의 서브세트를 표지하며, (iv) 선별된 유기체-특이적 미지 분석물의 표지된 각각의 서브세트를 사용하여 염기 호출자를 추가로 훈련시키는, 하나 이상의 유기체-특이적 훈련 스테이지를 계속하는 단계를 포함하는, 컴퓨터 구현 방법.
2. 조항 1에 있어서, 수렴 조건이 충족될 때까지 다중-올리고 훈련 스테이지로 진행하기 전에 단일-올리고 훈련 스테이지의 다수 반복을 실행하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
3. 조항 1에 있어서, 수렴 조건이 충족될 때까지 유기체-특이적 훈련 스테이지로 진행하기 전에 단일-올리고 훈련 스테이지 각각의 다수 반복을 실행하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
4. 조항 3에 있어서, 대상체 다중-올리고 훈련 스테이지의 각 반복에서, 선별된 다중-올리고 미지 분석물은 교체를 통해 다중-올리고 미지 분석물 집단으로부터 선별되고, 따라서 선별된 다중-올리고 미지 분석물의 표지된 각각의 서브세트의 각 크기는 대상체 다중-올리고 훈련 스테이지의 연속적인 반복들 사이에서 증가하는, 컴퓨터 구현 방법.
5. 조항 1에 있어서, 수렴 조건이 충족될 때까지 유기체-특이적 훈련 스테이지 각각의 다수 반복을 실행하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
6. 조항 5에 있어서, 대상체 유기체-특이적 훈련 스테이지의 각 반복에서, 선별된 유기체-특이적 미지 분석물은 교체를 통해 유기체-특이적 미지 분석물 집단으로부터 선별되고, 따라서 선별된 유기체-특이적 미지 분석물의 표지된 각각의 서브세트의 각 크기는 대상체 유기체-특이적 훈련 스테이지의 연속적인 반복들 사이에서 증가하는, 컴퓨터 구현 방법.
7. 조항 1에 있어서, 분류는 다중-올리고 염기 호출 서열과 알려진 서열 사이의 중첩에 기초하는, 컴퓨터 구현 방법.
8. 조항 7에 있어서, 중첩은 편집 거리 및 최소 유사도 임계값에 기초하여 결정되는, 컴퓨터 구현 방법.
9. 조항 1에 있어서, 매핑은 유기체-특이적 염기 호출 서열의 시작 부분이 참조 서열의 섹션의 시작 부분과 일치하는지 여부에 기초하는, 컴퓨터 구현 방법.
10. 조항 2에 있어서, 수렴 조건은 염기 호출자의 목표 정확도인, 컴퓨터 구현 방법.
11. 조항 3에 있어서, 수렴 조건은 염기 호출자의 목표 정확도인, 컴퓨터 구현 방법.
12. 조항 5에 있어서, 수렴 조건은 염기 호출자의 목표 정확도인, 컴퓨터 구현 방법.
13. 조항 3에 있어서, 수렴 조건은 선별된 다중-올리고 미지 분석물의 표지된 각각의 서브세트의 목표 누적 크기인, 컴퓨터 구현 방법.
14. 조항 5에 있어서, 수렴 조건은 선별된 유기체-특이적 미지 분석물의 표지된 각각의 서브세트의 목표 누적 크기인, 컴퓨터 구현 방법.
15. 조항 2에 있어서, 단일-올리고 훈련 스테이지의 연속적인 반복들 사이에 염기 호출자의 구성을 변경하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
16. 조항 3에 있어서, 대상체 다중-올리고 훈련 스테이지의 연속적인 반복들 사이에 염기 호출자의 구성을 변경하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
17. 조항 5에 있어서, 대상체 유기체-특이적 훈련 스테이지의 연속적인 반복들 사이에 염기 호출자의 구성을 변경하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
18. 조항 2에 있어서, 단일-올리고 훈련 스테이지의 연속적인 반복들 사이에 고정된 상태로 염기 호출자의 구성을 유지하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
19. 조항 3에 있어서, 대상체 다중-올리고 훈련 스테이지의 연속적인 반복들 사이에 고정된 상태로 염기 호출자의 구성을 유지하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
20. 조항 5에 있어서, 대상체 유기체-특이적 훈련 스테이지의 연속적인 반복들 사이에 고정된 상태로 염기 호출자의 구성을 유지하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
21. 조항 1에 있어서, 단일-올리고 훈련 스테이지로부터 다중-올리고 훈련 스테이지로 진행할 때 염기 호출자의 구성을 변경하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
22. 조항 1에 있어서, 다중-올리고 훈련 스테이지로부터 유기체-특이적 훈련 스테이지로 진행할 때 염기 호출자의 구성을 변경하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
23. 조항 1에 있어서, 단일-올리고 훈련 스테이지로부터 다중-올리고 훈련 스테이지로 진행할 때 염기 호출자의 구성을 고정된 상태로 유지하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
24. 조항 1에 있어서, 다중-올리고 훈련 스테이지로부터 유기체-특이적 훈련 스테이지로 진행할 때 염기 호출자의 구성을 고정된 상태로 유지하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
25. 조항 1에 있어서, 염기 호출자는 신경망인, 컴퓨터 구현 방법.
26. 조항 25에 있어서, 구성은 신경망의 파라미터의 수에 의해 정의되는, 컴퓨터 구현 방법.
27. 조항 25에 있어서, 구성은 신경망의 층의 수에 의해 정의되는, 컴퓨터 구현 방법.
28. 조항 25에 있어서, 구성은 순방향 전달 인스턴스(예를 들어, 측면 이미지의 점진적으로 더 큰 슬라이딩 윈도우)에서 신경망에 의해 처리되는 입력의 수에 의해 정의되는, 컴퓨터 구현 방법.
29. 조항 25에 있어서, 신경망은 컨볼루션 신경망인, 컴퓨터 구현 방법.
30. 조항 29에 있어서, 구성은 컨볼루션 신경망에서의 컨볼루션 필터의 수에 의해 정의되는, 컴퓨터 구현 방법.
31. 조항 29에 있어서, 구성은 컨볼루션 신경망에서의 컨볼루션 층의 수에 의해 정의되는, 컴퓨터 구현 방법.
31A. 조항 1에 있어서,
염기 호출자의 제1 구성을 사용하여 단일-올리고 훈련 스테이지의 적어도 1회의 반복을 구현하는 단계; 및
염기 호출자의 제2 구성을 사용하여 다중-올리고 훈련 스테이지의 적어도 1회의 반복을 구현하는 단계를 추가로 포함하고,
염기 호출자의 제1 구성은 염기 호출자의 제2 구성의 제2 신경망보다 더 적은 수의 파라미터를 갖는 제1 신경망을 포함하는, 컴퓨터 구현 방법.
31B. 조항 31A에 있어서,
염기 호출자의 제3 구성을 사용하여 유기체-특이적 훈련 스테이지의 적어도 1회의 반복을 구현하는 단계를 추가로 포함하고,
염기 호출자의 제2 구성은 염기 호출자의 제3 구성의 제3 신경망보다 더 적은 수의 파라미터를 갖는 제2 신경망을 포함하는, 컴퓨터 구현 방법.
32. 조항 4에 있어서, 대상체 다중-올리고 훈련 스테이지의 각 반복에서, 다중-올리고 염기 호출 서열의 적어도 일부는 알려진 서열로 분류되지 않는, 컴퓨터 구현 방법.
33. 조항 32에 있어서, 분류되지 않은 다중-올리고 염기 호출 서열의 수는 대상체 다중-올리고 훈련 스테이지의 연속적인 반복들 사이에서 감소하는, 컴퓨터 구현 방법.
34. 조항 6에 있어서, 대상체 다중-올리고 훈련 스테이지의 각 반복에서, 유기체-특이적 염기 호출 서열의 적어도 일부는 알려진 하위서열로 분류되지 않는, 컴퓨터 구현 방법.
35. 조항 34에 있어서, 분류되지 않은 유기체-특이적 염기 호출 서열의 수는 대상체 유기체-특이적 훈련 스테이지의 연속적인 반복들 사이에서 감소하는, 컴퓨터 구현 방법.
36. 조항 4에 있어서, 대상체 다중-올리고 훈련 스테이지의 각 반복에서, 다중-올리고 염기 호출 서열의 적어도 일부는 알려진 서열로 오분류되는, 컴퓨터 구현 방법.
37. 조항 36에 있어서, 오분류된 다중-올리고 염기 호출 서열의 수는 대상체 다중-올리고 훈련 스테이지의 연속적인 반복들 사이에서 감소하는, 컴퓨터 구현 방법.
38. 조항 6에 있어서, 대상체 다중-올리고 훈련 스테이지의 각 반복에서, 유기체-특이적 염기 호출 서열의 적어도 일부는 알려진 하위서열로 오분류되는, 컴퓨터 구현 방법.
39. 조항 38에 있어서, 오분류된 유기체-특이적 염기 호출 서열의 수는 대상체 유기체-특이적 훈련 스테이지의 연속적인 반복들 사이에서 감소하는, 컴퓨터 구현 방법.
40. 조항 1에 있어서, 단일-올리고 훈련 스테이지, 다중-올리고 훈련 스테이지, 및 유기체-특이적 훈련 스테이지로부터 훈련이 진행됨에 따라 염기 호출자의 정확도가 증가하는, 컴퓨터 구현 방법.
41. 조항 1에 있어서, 올리고의 알려진 서열은 1 내지 100개의 염기를 갖고, 2개 이상의 올리고의 알려진 서열의 각각은 1 내지 100개의 염기를 갖고, 참조 서열의 알려진 하위서열의 각각은 1 내지 1000개의 염기를 갖는, 컴퓨터 구현 방법.
42. 조항 41에 있어서, 염기 호출자를 훈련시키는 데 사용되는 표지된 훈련 예의 염기 다양성은 단일-올리고 훈련 스테이지, 다중-올리고 훈련 스테이지, 및 유기체-특이적 훈련 스테이지로부터 훈련이 진행됨에 따라 증가하는, 컴퓨터 구현 방법.
43. 조항 1에 있어서, 단일-올리고 훈련 스테이지는 단일-올리고 염기 호출 서열과 단일-올리고 실측 서열 사이의 불일치에 기초하여 염기 호출자의 가중치를 업데이트함으로써 염기 호출자를 훈련시키는, 컴퓨터 구현 방법.
44. 조항 1에 있어서, 다중-올리고 훈련 스테이지는 분류된 다중-올리고 염기 호출 서열과 각각의 다중-올리고 실측 서열 사이의 불일치에 기초하여 염기 호출자의 가중치를 업데이트함으로써 염기 호출자를 훈련시키는, 컴퓨터 구현 방법.
45. 조항 1에 있어서, 유기체-특이적 훈련 스테이지는 매핑된 유기체-특이적 염기 호출 서열과 각각의 유기체-특이적 실측 서열 사이의 불일치에 기초하여 염기 호출자의 가중치를 업데이트함으로써 염기 호출자를 훈련시키는, 컴퓨터 구현 방법.
46. 조항 1에 있어서, 유기체-특이적 훈련 스테이지는 참조 서열의 낮은 매핑 임계값 섹션 및/또는 알려진 변이체 섹션에 매핑되는 유기체-특이적 염기 호출 예측을 분류하지 않는, 컴퓨터 구현 방법.
47. 조항 1에 있어서, 단일-올리고 훈련 스테이지에 의해 생성된 훈련된 염기 호출자를 사용하여 추론 스테이지에서 미지 분석물을 염기 호출하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
48. 조항 47에 있어서, 다중-올리고 훈련 스테이지 중 임의의 것에 의해 생성된 훈련된 염기 호출자를 사용하여 추론 스테이지에서 미지 분석물을 염기 호출하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
49. 조항 48에 있어서, 유기체-특이적 훈련 스테이지 중 임의의 것에 의해 생성된 추가로 훈련된 염기 호출자를 사용하여 추론 스테이지에서 미지 분석물을 염기 호출하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
50. 조항 1에 있어서, 다중-올리고 훈련 스테이지는 2-올리고 훈련 스테이지, 3-올리고 훈련 스테이지, 4-올리고 훈련 스테이지 및 후속 다중-올리고 훈련 스테이지를 포함하는, 컴퓨터 구현 방법.
51. 조항 50에 있어서, 2-올리고 훈련 스테이지는 (i) 염기 호출자를 사용하여 2개의 올리고의 2개의 알려진 서열을 갖도록 서열분석된 2-올리고 미지 분석물 집단에 대한 2-올리고 염기 호출 서열을 예측하고, (ii) 선별된 2-올리고 미지 분석물의 2-올리고 염기 호출 서열을 2개의 알려진 서열로 분류하는 것에 기초하여 2-올리고 미지 분석물 집단으로부터 2-올리고 미지 분석물을 선별하고, (iii) 2개의 알려진 서열과 각각 일치하는 각각의 2-올리고 실측 서열을 사용하여 선별된 2-올리고 미지 분석물의 각각의 서브세트를 표지하며, (iv) 선별된 2-올리고 미지 분석물의 표지된 각각의 서브세트를 사용하여 염기 호출자를 추가로 훈련시키는, 컴퓨터 구현 방법.
52. 조항 50에 있어서, 3-올리고 훈련 스테이지는 (i) 염기 호출자를 사용하여 3개의 올리고의 3개의 알려진 서열을 갖도록 서열분석된 3-올리고 미지 분석물 집단에 대한 3-올리고 염기 호출 서열을 예측하고, (ii) 선별된 3-올리고 미지 분석물의 3-올리고 염기 호출 서열을 3개의 알려진 서열로 분류하는 것에 기초하여 3-올리고 미지 분석물 집단으로부터 3-올리고 미지 분석물을 선별하고, (iii) 3개의 알려진 서열과 각각 일치하는 각각의 3-올리고 실측 서열을 사용하여 선별된 3-올리고 미지 분석물의 각각의 서브세트를 표지하며, (iv) 선별된 3-올리고 미지 분석물의 표지된 각각의 서브세트를 사용하여 염기 호출자를 추가로 훈련시키는, 컴퓨터 구현 방법.
53. 조항 50에 있어서, 4-올리고 훈련 스테이지는 (i) 염기 호출자를 사용하여 4개의 올리고의 4개의 알려진 서열을 갖도록 서열분석된 4-올리고 미지 분석물 집단에 대한 4-올리고 염기 호출 서열을 예측하고, (ii) 선별된 4-올리고 미지 분석물의 4-올리고 염기 호출 서열을 4개의 알려진 서열로 분류하는 것에 기초하여 4-올리고 미지 분석물 집단으로부터 4-올리고 미지 분석물을 선별하고, (iii) 4개의 알려진 서열과 각각 일치하는 각각의 4-올리고 실측 서열을 사용하여 선별된 4-올리고 미지 분석물의 각각의 서브세트를 표지하며, (iv) 선별된 4-올리고 미지 분석물의 표지된 각각의 서브세트를 사용하여 염기 호출자를 추가로 훈련시키는, 컴퓨터 구현 방법.
54. 조항 1에 있어서, 유기체는 박테리아(예를 들어, PhiX, E. coli)인, 컴퓨터 구현 방법.
55. 조항 1에 있어서, 유기체는 영장류(예를 들어, 인간)인, 컴퓨터 구현 방법.
56. 조항 1에 있어서, 단일-올리고 미지 분석물은 단일-올리고 염기 호출 서열을 예측하기 위해 염기 호출자에 의해 처리되는 단일-올리고 신호 서열을 특징으로 하며, 단일-올리고 실측 서열은 염기 호출자를 훈련시키기 위해 단일-올리고 신호 서열에 할당되는, 컴퓨터 구현 방법.
57. 조항 56에 있어서, 다중-올리고 미지 분석물은 다중-올리고 염기 호출 서열을 예측하기 위해 염기 호출자에 의해 처리되는 다중-올리고 신호 서열을 특징으로 하며, 다중-올리고 실측 서열은 염기 호출자를 훈련시키기 위해 다중-올리고 신호 서열에 할당되는, 컴퓨터 구현 방법.
58. 조항 57에 있어서, 유기체-특이적 미지 분석물은 유기체-특이적 염기 호출 서열을 예측하기 위해 염기 호출자에 의해 처리되는 유기체-특이적 신호 서열을 특징으로 하며, 유기체-특이적 실측 서열은 염기 호출자를 훈련시키기 위해 유기체-특이적 신호 서열에 할당되는, 컴퓨터 구현 방법.
59. 조항 58에 있어서, 단일-올리고 신호 서열, 다중-올리고 신호 서열, 및 유기체-특이적 신호 서열은 이미지 서열인, 컴퓨터 구현 방법.
60. 조항 58에 있어서, 단일-올리고 신호 서열, 다중-올리고 신호 서열, 및 유기체-특이적 신호 서열은 전압 판독 서열인, 컴퓨터 구현 방법.
61. 조항 58에 있어서, 단일-올리고 신호 서열, 다중-올리고 신호 서열, 및 유기체-특이적 신호 서열은 전류 판독 서열인, 컴퓨터 구현 방법.
62. 조항 1에 있어서, 단일-올리고 미지 분석물, 다중-올리고 미지 분석물 및 유기체-특이적 미지 분석물은 단일 분자인, 컴퓨터 구현 방법.
63. 조항 1에 있어서, 단일-올리고 미지 분석물, 다중-올리고 미지 분석물 및 유기체-특이적 미지 분석물은 증폭된 단일 분자(즉, 클러스터)인, 컴퓨터 구현 방법.
64. 조항 1에 있어서, 단일-올리고 미지 분석물, 다중-올리고 미지 분석물 및 유기체-특이적 미지 분석물은 분자를 포함하는 비드인, 컴퓨터 구현 방법.
65. 컴퓨터 구현 방법으로서,
염기 호출자를 사용하여 유기체의 참조 서열의 하나 이상의 알려진 하위서열을 갖도록 서열분석된 미지 분석물 집단에 대한 염기 호출 서열을 예측하는 단계;
알려진 하위서열을 포함하는 참조 서열의 섹션에 대한 선별된 미지 분석물의 염기 호출 서열의 매핑에 기초하여 미지 분석물 집단으로부터 미지 분석물을 선별하는 단계;
매핑에 기초하여, 알려진 하위서열과 각각 일치하는 각각의 실측 서열로 선별된 미지 분석물의 각각의 서브세트를 표지하는 단계; 및
선별된 미지 분석물의 표지된 각각의 서브세트를 사용하여 염기 호출자를 훈련시키는 단계를 포함하는, 컴퓨터 구현 방법.
66. 조항 65에 있어서, 수렴이 충족될 때까지 사용, 선별, 표지화 및 훈련을 반복하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
67. 컴퓨터 구현 방법으로서,
미지의 염기 서열의 점진적으로 더 복잡한 훈련 예에 대해 점진적으로 더 복잡한 염기 호출자의 구성을 훈련하는 단계 - 이는 훈련 예를 알려진 염기 조성으로 처리하고 그 후 미지 염기 서열이 서열분석되는 것에 응답하여 염기 호출자에 의해 생성된 염기 호출 서열의 매핑에 기초하여 훈련 예에 대해 증가하는 양의 실측 표지를 반복적으로 생성하는 것을 포함함 -를 포함하는, 컴퓨터 구현 방법.
68. 조항 67에 있어서, 염기 호출자의 더 복잡한 구성은 염기 호출자의 파라미터의 점진적으로 증가하는 수에 의해 정의되는, 컴퓨터 구현 방법.
69. 조항 68에 있어서, 염기 호출자는 신경망인, 컴퓨터 구현 방법.
70. 조항 69에 있어서, 신경망의 더 복잡한 구성은 신경망의 층의 점진적으로 증가하는 수에 의해 정의되는, 컴퓨터 구현 방법.
71. 조항 68에 있어서, 신경망의 더 복잡한 구성은 순방향 전달 인스턴스에서 신경망에 의해 처리되는 입력의 점진적으로 증가하는 수에 의해 정의되는, 컴퓨터 구현 방법.
72. 조항 69에 있어서, 신경망은 컨볼루션 신경망인, 컴퓨터 구현 방법.
73. 조항 72에 있어서, 컨볼루션 신경망의 더 복잡한 구성은 컨볼루션 신경망의 컨볼루션 필터의 점진적으로 증가하는 수에 의해 정의되는, 컴퓨터 구현 방법.
74. 조항 72에 있어서, 컨볼루션 신경망의 더 복잡한 구성은 컨볼루션 신경망의 컨볼루션 층의 점진적으로 증가하는 수에 의해 정의되는, 컴퓨터 구현 방법.
75. 조항 67에 있어서, 미지 염기 서열의 더 복잡한 훈련 예는 미지 염기 서열의 점진적으로 증가하는 길이에 의해 정의되는, 컴퓨터 구현 방법.
76. 조항 67에 있어서, 미지 염기 서열의 더 복잡한 훈련 예는 미지 염기 서열의 점진적으로 증가하는 염기 다양성에 의해 정의되는, 컴퓨터 구현 방법.
77. 조항 67에 있어서, 미지 염기 서열의 더 복잡한 훈련 예는 미지 염기 서열이 서열분석되는 샘플의 점진적으로 증가하는 수에 의해 정의되는, 컴퓨터 구현 방법.
78. 조항 67에 있어서, 미지 염기 서열의 더 복잡한 훈련 예는 미지 염기 서열의 더 복잡한 훈련 예는 올리고 샘플로부터 박테리아 샘플, 영장류 샘플로 진행하는 것에 의해 정의되는, 컴퓨터 구현 방법.
C1. 염기 호출자를 점진적으로 훈련시키는 컴퓨터 구현 방법으로서,
단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키고, 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계;
(i) 특정 길이를 갖고/갖거나 그 내에 특정 개수의 염기 서열 또는 염기 하위서열을 포함하는 분석물로 염기 호출자를 추가로 훈련시키고, 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계; 및
각 반복에서 (a) 분석물 내의 염기 서열 또는 염기 하위서열의 길이 및/또는 수를 단조롭게 증가시키고, (b)염기 호출자 내에 로딩된 신경망 구성의 복잡도를 단조롭게 증가시키면서, 단계 (i)을 반복함으로써 염기 호출자를 반복적으로 추가 훈련시키는 단계 - 여기서 반복 동안 생성된 표지된 훈련 데이터는 직후 반복 동안에 염기 호출자를 훈련시키는 데 사용됨 -를 포함하는, 컴퓨터 구현 방법.
C2. 조항 C1에 있어서, 단일-올리고 염기 서열을 포함하는 분석물로 염기 호출자를 반복적으로 초기에 훈련시키는 단계는,
염기 호출자의 초기 훈련의 반복 동안:
알려진 단일-올리고 염기 서열을 플로우 셀의 복수의 클러스터에 로딩하는 단계;
복수의 클러스터 중 각각의 클러스터에 대해, 알려진 단일 올리고 염기 서열에 대한 대응하는 염기 호출을 예측하는 단계;
복수의 클러스터 중 각각의 클러스터에 대해, 대응하는 예측된 염기 호출과 알려진 단일 올리고 염기 서열의 염기를 비교하여 대응 오류 신호를 생성하고, 이에 의해 복수의 클러스터에 대응하는 복수의 오류 신호를 생성하는 단계; 및
복수의 오류 신호에 기초하여 염기 호출자를 초기에 훈련시키는 단계를 포함하는, 컴퓨터 구현 방법.
C3. 조항 C1에 있어서, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
2개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 N1 반복 동안 추가로 훈련시키는 단계;
제1 복수의 염기 하위서열에서 선별되는 제1 유기체 염기 서열을 포함하는 분석물로 N2 반복 동안 염기 호출자를 추가로 훈련시키는 단계; 및
제2 복수의 염기 하위서열에서 선별되는 제2 유기체 염기 서열을 포함하는 분석물로 N3 반복 동안 염기 호출자를 추가로 훈련시키는 단계를 포함하고,
N1 반복은 N3 반복 이전에 수행되는 N2 반복 이전에 수행되고,
제2 유기체 염기 서열은 제1 유기체 염기 서열보다 더 많은 수의 염기를 갖는, 컴퓨터 구현 방법.
C4. 조항 C3에 있어서, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
3개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 N4 반복 동안 추가로 훈련시키는 단계를 포함하며,
N4 반복은 N1 반복과 N2 반복을 수행하는 사이에 수행되는, 컴퓨터 구현 방법.
C5. 조항 C3에 있어서, 2개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는,
염기 호출자 내에 로딩된 제1 신경망 구성을 사용하여 N1 반복의 제1 서브세트 동안 염기 호출자를 추가로 훈련시키는 단계; 및
염기 호출자 내에 로딩된 제2 신경망 구성을 사용하여 N1 반복의 제2 서브세트 동안 염기 호출자를 추가로 훈련시키는 단계 - 제2 신경망 구성은 제1 신경망 구성보다 더 복잡하며, N1 반복의 제2 서브세트는 N1 반복 발생의 제1 서브세트 이후에 발생함 -를 포함하는, 컴퓨터 구현 방법.
C6. 조항 C5에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 높은 수의 층을 갖는, 컴퓨터 구현 방법.
C7. 조항 C5에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 높은 수의 가중치를 갖는, 컴퓨터 구현 방법.
C8. 조항 C5에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 높은 수의 파라미터를 갖는, 컴퓨터 구현 방법.
C9. 조항 C3에 있어서, 2개의 알려진 고유한 올리고 염기 서열을 포함하는 분석물로 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는, N1 반복의 1회 반복에 대해:
(i) 2개의 알려진 고유한 올리고 염기 서열 중 제1의 알려진 올리고 염기 서열로 플로우 셀의 제1 복수의 클러스터를 채우고 (ii) 2개의 알려진 고유한 올리고 염기 서열 중 제2의 알려진 올리고 염기 서열로 플로우 셀의 제2 복수의 클러스터를 채우는 단계;
복수의 예측된 염기 호출이 생성되도록, 제1 및 제2 복수의 클러스터 중 각 클러스터에 대해 대응하는 염기 호출을 예측하는 단계;
복수의 예측된 염기 호출 중 제3 예측된 염기 호출을 제1 또는 제2의 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하면서, (i) 복수의 예측된 염기 호출 중 제1 예측된 염기 호출을 제1의 알려진 올리고 염기 서열에 매핑하고 (ii) 복수의 예측된 염기 호출의 제2 예측된 염기 호출을 제2의 알려진 올리고 염기 서열에 매핑하는 단계;
(i) 제1 예측된 염기 호출을 제1 알려진 올리고 염기 서열과 비교하는 것에 기초하여 제1 오류 신호를 생성하고, (ii) 제2 예측된 염기 호출을 제2 알려진 올리고 염기 서열과 비교하는 것에 기초하여 제2 오류 신호를 생성하는 단계; 및
제1 및 제2 오류 신호에 기초하여 염기 호출자를 추가로 훈련시키는 단계를 포함하는, 컴퓨터 구현 방법.
C10. 조항 C9에 있어서, 2개의 알려진 고유한 올리고 염기 서열 중 제1의 알려진 올리고 염기 서열에 제1 예측된 염기 호출을 매핑하는 단계는,
제1 예측된 염기 호출의 각 염기를 제1 및 제2 알려진 올리고 염기 서열의 대응하는 염기와 비교하는 단계;
제1 예측된 염기 호출이 제1 알려진 올리고 염기 서열과 적어도 임계값 수의 염기 유사도를 갖고, 제2 알려진 올리고 염기 서열과 임계값 수 미만의 염기 유사도를 갖는 것을 결정하는 단계; 및
제1 예측된 염기 호출이 제1 알려진 올리고 염기 서열과 적어도 임계값 수의 염기 유사도를 갖는 것을 결정한 것에 기초하여, 제1 예측된 염기 호출을 제1 알려진 올리고 염기 서열에 매핑하는 단계를 포함하는, 컴퓨터 구현 방법.
C11. 조항 C9에 있어서, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하는 단계는,
제1 예측된 염기 호출의 각 염기를 제1 및 제2 알려진 올리고 염기 서열의 대응하는 염기와 비교하는 단계;
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열 각각과 임계값 수 미만의 염기 유사도를 갖는 것을 결정하는 단계; 및
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열의 각각과 임계값 수 미만의 염기 유사도를 갖는 것을 결정한 것에 기초하여, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열에 매핑하는 것을 억제하는 단계를 포함하는, 컴퓨터 구현 방법.
C12. 조항 C9에 있어서, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하는 단계는,
제1 예측된 염기 호출의 각 염기를 제1 및 제2 알려진 올리고 염기 서열의 대응하는 염기와 비교하는 단계;
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열 각각과 임계값 수 초과의 염기 유사도를 갖는 것을 결정하는 단계; 및
제1 예측된 염기 호출이 제1 및 제2 알려진 올리고 염기 서열의 각각과 임계값 수 초과의 염기 유사도를 갖는 것을 결정한 것에 기초하여, 제3 예측된 염기 호출을 제1 또는 제2 알려진 올리고 염기 서열에 매핑하는 것을 억제하는 단계를 포함하는, 컴퓨터 구현 방법.
C13. 조항 C9에 있어서, N1 반복의 1회 반복 동안 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계는,
N1 반복의 1회 반복 동안 염기 호출자를 추가로 훈련한 후에, 다른 복수의 예측된 염기 호출이 생성되도록, 염기 호출에 대응하는 제1 및 제2 복수의 클러스터의 각 클러스터에 대해 재예측하는 단계;
다른 복수의 예측된 염기 호출 중 제3 서브세트를 제1 또는 제2의 알려진 올리고 염기 서열 중 임의의 것에 매핑하는 것을 억제하면서, (i) 다른 복수의 예측된 염기 호출 중 제1 서브세트를 제1의 알려진 올리고 염기 서열에 재매핑하고 (ii) 다른 복수의 예측된 염기 호출의 제2 서브세트를 제2의 알려진 올리고 염기 서열에 재매핑하는 단계; 및
표지된 훈련 데이터가 (i) 다른 복수의 예측된 염기 호출의 제1 서브세트 - 제1 알려진 올리고 염기 서열은 다른 복수의 예측된 염기 호출의 제1 서브세트에 대한 실측 데이터를 형성함 -, 및 (ii) 다른 복수의 예측된 염기 호출의 제2 서브세트 - 제2의 알려진 올리고 염기 서열은 다른 복수의 예측된 염기 호출의 제2 서브세트에 대한 실측 데이터를 형성함 -를 포함하도록, 재매핑에 기초하여 표지된 훈련 데이터를 생성하는 단계를 포함하는, 컴퓨터 구현 방법.
C14. 조항 C13에 있어서,
N1 반복의 1회 반복 동안 생성된 표지된 훈련 데이터는 N1 반복의 직후 반복 동안 염기 호출자를 훈련시키는 데 사용되는, 컴퓨터 구현 방법.
C15. 조항 C14에 있어서,
염기 호출자의 신경망 구성은 N1 반복의 1회 반복과 N1 반복의 직후 반복 동안 동일한, 컴퓨터 구현 방법.
C16. 조항 C14에 있어서,
N1 반복의 직후 반복 동안 염기 호출자의 신경망 구성은 N1 반복의 1회 반복 동안 염기 호출자의 신경망 구성과 상이하고 그보다 더 복잡한, 컴퓨터 구현 방법.
C17. 조항 C3에 있어서, 염기 호출자를 N2 반복 동안 추가로 훈련시키는 단계는,
(i) 제1 유기체의 제1 복수의 염기 하위서열 중 제1 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제1 클러스터를 채우고, (ii) 제1 유기체의 제1 복수의 염기 하위서열 중 제2 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제2 클러스터를 채우고, (iii) 제1 유기체의 제1 복수의 염기 하위서열 중 제3 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제3 클러스터를 채우는 단계;
(i) 제1 클러스터에 채워진 염기 하위서열을 나타내는 제1 클러스터로부터의 제1 서열 신호, (ii) 제2 클러스터에 채워진 염기 하위서열을 나타내는 제2 클러스터로부터의 제2 서열 신호, 및 (iii) 제3 클러스터에 채워진 염기 하위서열을 나타내는 제3 클러스터로부터의 제3 서열 신호를 수신하는 단계;
(i) 제1 서열 신호에 기초하여 제1 예측된 염기 하위서열, (ii) 제2 서열 신호에 기초하여 제2 예측된 염기 하위서열, 및 (iii) 제3 서열 신호에 기초하여 제3 예측된 염기 하위서열을 생성하는 단계;
(i) 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하고 (ii) 제2 예측된 염기 하위서열을 제1 유기체 염기 서열의 제2 섹션과 매핑하는 한편, 제3 예측된 염기 하위서열을 제1 유기체 염기 서열의 임의의 섹션과 매핑하지 못하는 단계; 및
(i) 제1 유기체 염기 서열의 제1 섹션에 매핑된 제1 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제1 섹션은 제1 예측된 염기 하위서열에 대한 실측임 -, 및 (ii) 제1 유기체 염기 서열의 제2 섹션에 매핑된 제2 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제2 섹션은 제2 예측된 염기 하위서열에 대한 실측임 -을 포함하는 표지된 훈련 데이터를 생성하는 단계를 포함하는, 컴퓨터 구현 방법.
C18. 조항 C17에 있어서,
제1 예측된 염기 하위서열은 L1 개수의 염기를 갖고;
제1 예측된 염기 하위서열의 L1 염기 중 하나 이상의 염기는 염기 호출자에 의한 염기 호출 예측의 오류로 인해 제1 유기체 염기 서열의 제1 섹션의 대응 염기와 일치하지 않는, 컴퓨터 구현 방법.
C19. 조항 C18에 있어서, 제1 예측된 염기 하위서열은 L1 개수의 염기를 갖고, 제1 예측된 염기 하위서열의 L1 개수의 염기는 초기 L2 염기 및 이어서 후속 L3 염기를 포함하며, 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하는 단계는,
(i) 제1 예측된 염기 서열의 초기 L2 염기를 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 그리고 고유하게 일치시키는 단계;
제1 유기체 염기 서열의 제1 섹션을, 제1 섹션이 (i) 초기 염기로서 연속 L2 염기를 포함하고 (ii) L1 개수의 염기를 포함하도록 식별하는 단계; 및
제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하는 단계를 포함하는, 컴퓨터 구현 방법.
C20. C19에 있어서,
제1 예측된 염기 서열의 초기 L2 염기를 실질적으로 그리고 고유하게 일치시키는 동안, 제1 예측된 염기 서열의 후속 L3 염기를 제1 유기체 염기 서열의 임의의 염기와 일치시키는 것을 목표로 하는 것을 억제하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
C21. C19에 있어서, 제1 예측된 염기 서열의 초기 L2 염기는 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 일치하여, 제1 예측된 염기 서열의 초기 L2 염기 중 적어도 임계값 수의 염기가 제1 유기체 염기 서열의 연속 L2 염기와 일치하는, 컴퓨터 구현 방법.
C22. C19에 있어서, 제1 예측된 염기 서열의 초기 L2 염기는 제1 유기체 염기 서열의 연속 L2 염기와 고유하게 일치하여, 제1 예측된 염기 서열의 초기 L2 염기가 제1 유기체 염기 서열의 연속 L2 염기와만 실질적으로 일치하고, 제1 유기체 염기 서열의 다른 연속 L2 염기와는 일치하지 않는, 컴퓨터 구현 방법.
C23. 조항 C17에 있어서, 제3 예측된 염기 하위서열은 L1 개수의 염기를 갖고, 제3 예측된 염기 하위서열을 제1 복수의 염기 하위서열 중 임의의 염기 하위서열과 매핑하지 못하는 단계는,
(i) 제3 예측된 염기 서열의 L1 염기 중 초기 L2 염기를 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 그리고 고유하게 일치시키지 못하는 것을 포함하는, 컴퓨터 구현 방법.

Claims (32)

  1. 염기 호출자를 점진적으로 훈련시키는 컴퓨터 구현 방법으로서,
    염기 호출자를 초기에 훈련시키고, 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계;
    (i) 유기체 염기 서열을 포함하는 분석물로 염기 호출자를 추가로 훈련시키고, 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계; 및
    N 반복 동안 단계 (i)을 반복함으로써 염기 호출자를 반복적으로 추가 훈련시키는 단계를 포함하고, 이 추가 훈련 단계는,
    제1 복수의 염기 하위서열에서 선별되는 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계, 및
    제2 복수의 염기 하위서열에서 선별되는 제2 유기체 염기 서열을 포함하는 분석물로 N 반복의 N2 반복 동안 염기 호출자를 추가로 훈련시키는 단계를 포함하고,
    염기 호출자에 로딩된 신경망 구성의 복잡도는 N 반복에 따라 단조롭게 증가하고,
    N 반복의 반복 동안 생성된 표지된 훈련 데이터는 N 반복의 직후 반복(immediate subsequent iteration) 동안 염기 호출자를 훈련시키는 데 사용되는, 컴퓨터 구현 방법.
  2. 제1항에 있어서, 염기 호출자를 초기에 훈련시키는 단계는,
    하나 이상의 올리고 염기 서열을 포함하는 분석물로 염기 호출자를 초기에 훈련시키는 것 및 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 것을 포함하는, 컴퓨터 구현 방법.
  3. 제1항 또는 제2항에 있어서, N1 반복은 N2 반복 이전에 수행되고, 제2 유기체 염기 서열은 제1 유기체 염기 서열보다 더 많은 수의 염기를 갖는, 컴퓨터 구현 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는, N1 반복의 1회 반복 동안:
    (i) 제1 유기체의 제1 복수의 염기 하위서열 중 제1 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제1 클러스터를 채우고, (ii) 제1 유기체의 제1 복수의 염기 하위서열 중 제2 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제2 클러스터를 채우고, (iii) 제1 유기체의 제1 복수의 염기 하위서열 중 제3 염기 하위서열로 플로우 셀의 복수의 클러스터 중 제3 클러스터를 채우는 단계;
    (i) 제1 클러스터에 채워진 염기 하위서열을 나타내는 제1 클러스터로부터의 제1 서열 신호, (ii) 제2 클러스터에 채워진 염기 하위서열을 나타내는 제2 클러스터로부터의 제2 서열 신호, 및 (iii) 제3 클러스터에 채워진 염기 하위서열을 나타내는 제3 클러스터로부터의 제3 서열 신호를 수신하는 단계;
    (i) 제1 서열 신호에 기초하여 제1 예측된 염기 하위서열, (ii) 제2 서열 신호에 기초하여 제2 예측된 염기 하위서열, 및 (iii) 제3 서열 신호에 기초하여 제3 예측된 염기 하위서열을 생성하는 단계;
    (i) 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하고 (ii) 제2 예측된 염기 하위서열을 제1 유기체 염기 서열의 제2 섹션과 매핑하는 한편, 제3 예측된 염기 하위서열을 제1 유기체 염기 서열의 임의의 섹션과 매핑하지 못하는 단계; 및
    (i) 제1 유기체 염기 서열의 제1 섹션에 매핑된 제1 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제1 섹션은 제1 예측된 염기 하위서열에 대한 실측(ground truth)임 -, 및 (ii) 제1 유기체 염기 서열의 제2 섹션에 매핑된 제2 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제2 섹션은 제2 예측된 염기 하위서열에 대한 실측임 -을 포함하는 표지된 훈련 데이터를 생성하는 단계를 포함하는, 컴퓨터 구현 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는, N1 반복의 1회 반복 동안:
    제1, 제2 및 제3의 예측된 염기 하위서열을 생성하기 전에, 염기 호출자를 처음 훈련시키는 동안 생성되는 표지된 훈련 데이터를 사용하여 염기 호출자를 훈련시키는 것을 포함하는, 컴퓨터 구현 방법.
  6. 제4항 또는 제5항에 있어서,
    제1 예측된 염기 하위서열은 L1 개수의 염기를 갖고;
    제1 예측된 염기 하위서열의 L1 염기 중 하나 이상의 염기는 염기 호출자에 의한 염기 호출 예측의 오류로 인해 제1 유기체 염기 서열의 제1 섹션의 대응 염기와 일치하지 않는, 컴퓨터 구현 방법.
  7. 제4항 내지 제6항 중 어느 한 항에 있어서, 제1 예측된 염기 하위서열은 L1 개수의 염기를 갖고, 제1 예측된 염기 하위서열의 L1 개수의 염기는 초기 L2 염기 및 이어서 후속 L3 염기를 포함하며, 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하는 단계는,
    제1 예측된 염기 서열의 초기 L2 염기를 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 그리고 고유하게 일치시키는 단계;
    제1 유기체 염기 서열의 제1 섹션을, 제1 섹션이 (i) 초기 염기로서 연속 L2 염기를 포함하고 (ii) L1 개수의 염기를 포함하도록 식별하는 단계; 및
    제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 식별된 제1 섹션과 매핑하는 단계를 포함하는, 컴퓨터 구현 방법.
  8. 제7항에 있어서,
    제1 예측된 염기 서열의 초기 L2 염기를 실질적으로 그리고 고유하게 일치시키는 동안, 제1 예측된 염기 서열의 후속 L3 염기를 제1 유기체 염기 서열의 임의의 염기와 일치시키는 것을 목표로 하는 것을 억제하는 단계를 추가로 포함하는, 컴퓨터 구현 방법.
  9. 제7항 또는 제8항에 있어서, 제1 예측된 염기 서열의 초기 L2 염기는 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 일치하여, 제1 예측된 염기 서열의 초기 L2 염기 중 적어도 임계값 수의 염기가 제1 유기체 염기 서열의 연속 L2 염기와 일치하는, 컴퓨터 구현 방법.
  10. 제7항 내지 제9항 중 어느 한 항에 있어서, 제1 예측된 염기 서열의 초기 L2 염기는 제1 유기체 염기 서열의 연속 L2 염기와 고유하게 일치하여, 제1 예측된 염기 서열의 초기 L2 염기가 제1 유기체 염기 서열의 연속 L2 염기와만 실질적으로 일치하고, 제1 유기체 염기 서열의 다른 연속 L2 염기와는 일치하지 않는, 컴퓨터 구현 방법.
  11. 제4항 내지 제10항 중 어느 한 항에 있어서, 제3 예측된 염기 하위서열은 L1 개수의 염기를 갖고, 제3 예측된 염기 하위서열을 제1 복수의 염기 하위서열 중 임의의 염기 하위서열과 매핑하지 못하는 단계는,
    (i) 제3 예측된 염기 서열의 L1 염기 중 초기 L2 염기를 제1 유기체 염기 서열의 연속 L2 염기와 실질적으로 그리고 고유하게 일치시키지 못하는 것을 포함하는, 컴퓨터 구현 방법.
  12. 제4항 내지 제11항 중 어느 한 항에 있어서, N1 반복의 1회 반복은 N1 반복의 제1 반복이고, N1 반복의 제2 반복 동안 염기 호출자를 추가로 훈련시키는 단계는,
    N1 반복의 제1 반복 동안 생성되는 표지된 훈련 데이터를 사용하여 염기 호출자를 훈련시키는 단계;
    N1 반복의 제1 반복 동안 생성되는 표지된 훈련 데이터로 훈련된 염기 호출자를 사용하여, (i) 제1 서열 신호에 기초하여 추가의 제1 예측된 염기 하위서열, (ii) 제2 서열 신호에 기초하여 추가의 제2 예측된 염기 하위서열, 및 (iii) 제3 서열 신호에 기초하여 추가의 제3 예측된 염기 하위서열을 생성하는 단계;
    (i) 추가의 제1 예측된 염기 하위서열을 제1 유기체 염기 서열의 제1 섹션과 매핑하고, (ii) 추가의 제2 예측된 염기 하위서열을 제1 유기체 염기 서열의 제2 섹션과 매핑하고, (iii) 추가의 제3 예측된 염기 하위서열을 제1 유기체 염기 서열의 제3 섹션과 매핑하는 단계; 및
    (i) 제1 유기체 염기 서열의 제1 섹션에 매핑된 추가의 제1 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 제1 섹션은 추가의 제1 예측된 염기 하위서열에 대한 실측임 -, (ii) 제1 유기체 염기 서열의 제2 섹션에 매핑된 추가의 제2 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 추가의 제2 섹션은 추가의 제2 예측된 염기 하위서열에 대한 실측임 -, 및 (iii) 제1 유기체 염기 서열의 제3 섹션에 매핑된 추가의 제3 예측된 염기 하위서열 - 여기서 제1 유기체 염기 서열의 추가의 제3 섹션은 추가의 제3 예측된 염기 하위서열에 대한 실측임 -을 포함하는 추가의 표지된 훈련 데이터를 생성하는 단계를 포함하는, 컴퓨터 구현 방법.
  13. 제12항에 있어서,
    (i) N1 반복의 제1 반복 동안 생성된 제1 예측된 염기 하위서열과 (ii) 제1 유기체 염기 서열의 제1 섹션 사이에 제1 오류를 생성하는 단계; 및
    (i) N1 반복의 제2 반복 동안 생성된 추가의 제1 예측된 염기 하위서열과 (ii) 제1 유기체 염기 서열의 제1 섹션 사이에 제2 오류를 생성하는 단계를 추가로 포함하며,
    염기 호출자가 제1 반복에 비해 제2 반복 동안에 더 잘 훈련되기 때문에 제2 오류는 제1 오류보다 작은, 컴퓨터 구현 방법.
  14. 제12항 또는 제13항에 있어서,
    제1 반복 동안 생성된 제1, 제2 및 제3 서열 신호는 제2 반복에서 재사용되어 각각 추가의 제1 예측된 염기 하위서열, 추가의 제2 예측된 염기 하위서열 및 추가의 제3 예측된 염기 하위서열을 생성하는, 컴퓨터 구현 방법.
  15. 제12항 내지 제14항 중 어느 한 항에 있어서,
    염기 호출자의 신경망 구성은 N1 반복의 제1 반복과 N1 반복의 제2 반복 동안 동일한, 컴퓨터 구현 방법.
  16. 제15항에 있어서,
    염기 호출자의 신경망 구성은 수렴 조건이 충족될 때까지 여러 반복에 재사용되는, 컴퓨터 구현 방법.
  17. 제12항 내지 제16항 중 어느 한 항에 있어서,
    N1 반복의 제1 반복 동안 염기 호출자의 신경망 구성은 N1 반복의 제2 반복 동안 염기 호출자의 신경망 구성과 상이하고 그보다 더 복잡한, 컴퓨터 구현 방법.
  18. 제1항 내지 제17항 중 어느 한 항에 있어서, 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는,
    N1 반복의 제1 서브세트에 대해, 염기 호출자에 로딩된 제1 신경망 구성으로 염기 호출자를 추가로 훈련시키는 단계; 및
    N1 반복의 제2 서브세트에 대해, 염기 호출자에 로딩된 제2 신경망 구성으로 염기 호출자를 추가로 훈련시키는 단계를 포함하며, 제2 신경망 구성은 제1 신경망 구성과 상이한, 컴퓨터 구현 방법.
  19. 제18항에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 층을 갖는, 컴퓨터 구현 방법.
  20. 제18항 또는 제19항에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 가중치를 갖는, 컴퓨터 구현 방법.
  21. 제18항 내지 제20항 중 어느 한 항에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 파라미터를 갖는, 컴퓨터 구현 방법.
  22. 제1항 내지 제21항 중 어느 한 항에 있어서, 염기 호출자를 반복적으로 추가 훈련시키는 단계는,
    제1 유기체 염기 서열을 포함하는 분석물을 갖는 N1 반복의 1회 이상의 반복에 대해, 염기 호출자에 제1 신경망 구성을 로딩하는 단계; 및
    제2 유기체 염기 서열을 포함하는 분석물을 갖는 N2 반복의 1회 이상의 반복에 대해, 염기 호출자에 제2 신경망 구성을 로딩하는 단계를 포함하며, 제2 신경망 구성은 제1 신경망 구성과 상이한, 컴퓨터 구현 방법.
  23. 제22항에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 층을 갖는, 컴퓨터 구현 방법.
  24. 제22항 또는 제23항에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 가중치를 갖는, 컴퓨터 구현 방법.
  25. 제22항 내지 제24항 중 어느 한 항에 있어서, 제2 신경망 구성은 제1 신경망 구성보다 더 많은 수의 파라미터를 갖는, 컴퓨터 구현 방법.
  26. 제1항 내지 제25항 중 어느 한 항에 있어서, 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계는,
    N1 반복 후 수렴 조건이 충족될 때까지 제1 유기체 염기 서열을 사용하여 추가 훈련을 반복하는 것을 포함하는, 컴퓨터 구현 방법.
  27. 제26항에 있어서, 수렴 조건은, N1 반복의 2회 연속 반복들 사이에서, 생성된 오류 신호의 감소가 임계값보다 작은 경우 충족되는, 컴퓨터 구현 방법.
  28. 제26항 또는 제27항에 있어서, 수렴 조건은 N1 반복의 완료 후에 충족되는, 컴퓨터 구현 방법.
  29. 염기 호출자를 점진적으로 훈련시키기 위한 컴퓨터 프로그램 명령이 기록된 비일시적 컴퓨터 판독가능한 저장 매체로서, 명령은 프로세서 상에서 실행될 때 방법을 구현하고, 방법은,
    염기 호출자를 초기에 훈련시키고, 초기에 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계;
    (i) 유기체 염기 서열을 포함하는 분석물로 염기 호출자를 추가로 훈련시키고, 추가로 훈련된 염기 호출자를 사용하여 표지된 훈련 데이터를 생성하는 단계; 및
    N 반복 동안 단계 (i)을 반복함으로써 염기 호출자를 반복적으로 추가 훈련시키는 단계를 포함하고, 이 추가 훈련 단계는,
    제1 복수의 염기 하위서열에서 선별되는 제1 유기체 염기 서열을 포함하는 분석물로 N 반복의 N1 반복 동안 염기 호출자를 추가로 훈련시키는 단계, 및
    제2 복수의 염기 하위서열에서 선별되는 제2 유기체 염기 서열을 포함하는 분석물로 N 반복의 N2 반복 동안 염기 호출자를 추가로 훈련시키는 단계를 포함하고,
    염기 호출자에 로딩된 신경망 구성의 복잡도는 N 반복에 따라 단조롭게 증가하고,
    N 반복의 반복 동안 생성된 표지된 훈련 데이터는 N 반복의 직후 반복 동안 염기 호출자를 훈련시키는 데 사용되는, 비일시적 컴퓨터 판독가능한 저장 매체.
  30. 염기 호출자를 점진적으로 훈련시키는 컴퓨터 구현 방법으로서,
    (i) 염기 호출자를 사용하여 알려진 올리고 서열을 갖도록 서열분석된 단일-올리고 미지 분석물(즉, 미지 표적 서열) 집단에 대한 단일-올리고 염기 호출 서열을 예측하고, (ii) 알려진 서열과 일치하는 단일-올리고 실측 서열을 사용하여 단일 올리고 미지 분석물 집단에서 각각의 단일-올리고 미지 분석물을 표지하고, (iii) 표지된 단일-올리고 미지 분석물 집단을 사용하여 염기 호출자를 훈련시키는, 단일-올리고 훈련 스테이지를 시작하는 단계;
    (i) 염기 호출자를 사용하여 2개 이상의 올리고의 2개 이상의 알려진 서열을 갖도록 서열분석된 다중-올리고 미지 분석물 집단에 대한 다중-올리고 염기 호출 서열을 예측하고, (ii) 선별된 다중-올리고 미지 분석물의 다중 올리고 염기 호출 서열을 알려진 서열로 분류하는 것에 기초하여 다중-올리고 미지 분석물 집단으로부터 다중-올리고 미지 분석물을 선별하고, (iii) 분류에 기초하여, 알려진 서열과 각각 일치하는 각각의 다중-올리고 실측 서열을 사용하여 선별된 다중-올리고 미지 분석물의 각각의 서브세트를 표지하며, (iv) 선별된 다중-올리고 미지 분석물의 표지된 각각의 서브세트를 사용하여 염기 호출자를 추가로 훈련시키는, 하나 이상의 다중-올리고 훈련 스테이지를 계속하는 단계; 및
    (i) 염기 호출자를 사용하여 유기체의 참조 서열의 하나 이상의 알려진 하위서열을 갖도록 서열분석된 유기체-특이적 미지 분석물 집단에 대한 유기체-특이적 염기 호출 서열을 예측하고, (ii) 선별된 유기체-특이적 미지 분석물의 유기체-특이적 염기 호출 서열을 알려진 하위서열을 포함하는 참조 서열의 섹션에 매핑하는 것에 기초하여 유기체-특이적 미지 분석물 집단으로부터 유기체-특이적 미지 분석물을 선별하고, (iii) 매핑에 기초하여, 알려진 하위서열과 각각 일치하는 각각의 유기체-특이적 실측 서열을 사용하여 선별된 유기체-특이적 미지 분석물의 각각의 서브세트를 표지하며, (iv) 선별된 유기체-특이적 미지 분석물의 표지된 각각의 서브세트를 사용하여 염기 호출자를 추가로 훈련시키는, 하나 이상의 유기체-특이적 훈련 스테이지를 계속하는 단계를 포함하는, 컴퓨터 구현 방법.
  31. 컴퓨터 구현 방법으로서,
    염기 호출자를 사용하여 유기체의 참조 서열의 하나 이상의 알려진 하위서열을 갖도록 서열분석된 미지 분석물 집단에 대한 염기 호출 서열을 예측하는 단계;
    알려진 하위서열을 포함하는 참조 서열의 섹션에 대한 선별된 미지 분석물의 염기 호출 서열의 매핑에 기초하여 미지 분석물 집단으로부터 미지 분석물을 선별하는 단계;
    매핑에 기초하여, 알려진 하위서열과 각각 일치하는 각각의 실측 서열로 선별된 미지 분석물의 각각의 서브세트를 표지하는 단계; 및
    선별된 미지 분석물의 표지된 각각의 서브세트를 사용하여 염기 호출자를 훈련시키는 단계를 포함하는, 컴퓨터 구현 방법.
  32. 컴퓨터 구현 방법으로서,
    미지의 염기 서열의 점진적으로 더 복잡한 훈련 예에 대해 점진적으로 더 복잡한 염기 호출자의 구성을 훈련하는 단계 - 이는 훈련 예를 알려진 염기 조성으로 처리하고 그 후 미지 염기 서열이 서열분석되는 것에 응답하여 염기 호출자에 의해 생성된 염기 호출 서열의 매핑에 기초하여 훈련 예에 대해 증가하는 양의 실측 표지를 반복적으로 생성하는 것을 포함함 -를 포함하는, 컴퓨터 구현 방법.
KR1020237044214A 2021-06-29 2022-06-29 유기체 서열을 사용하여 훈련된 자체-학습 염기 호출자 KR20240027608A (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US202163216419P 2021-06-29 2021-06-29
US202163216404P 2021-06-29 2021-06-29
US63/216,419 2021-06-29
US63/216,404 2021-06-29
US17/830,316 2022-06-01
US17/830,287 2022-06-01
US17/830,316 US20230026084A1 (en) 2021-06-29 2022-06-01 Self-learned base caller, trained using organism sequences
US17/830,287 US20220415445A1 (en) 2021-06-29 2022-06-01 Self-learned base caller, trained using oligo sequences
PCT/US2022/035567 WO2023278609A1 (en) 2021-06-29 2022-06-29 Self-learned base caller, trained using organism sequences

Publications (1)

Publication Number Publication Date
KR20240027608A true KR20240027608A (ko) 2024-03-04

Family

ID=82748504

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020237043352A KR20240027599A (ko) 2021-06-29 2022-06-29 올리고 서열을 사용하여 훈련된 자체-학습 염기 호출자
KR1020237044214A KR20240027608A (ko) 2021-06-29 2022-06-29 유기체 서열을 사용하여 훈련된 자체-학습 염기 호출자

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020237043352A KR20240027599A (ko) 2021-06-29 2022-06-29 올리고 서열을 사용하여 훈련된 자체-학습 염기 호출자

Country Status (5)

Country Link
EP (2) EP4364155A1 (ko)
KR (2) KR20240027599A (ko)
AU (2) AU2022300970A1 (ko)
CA (2) CA3224382A1 (ko)
WO (2) WO2023278608A1 (ko)

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0450060A1 (en) 1989-10-26 1991-10-09 Sri International Dna sequencing
US6090592A (en) 1994-08-03 2000-07-18 Mosaic Technologies, Inc. Method for performing amplification of nucleic acid on supports
US5641658A (en) 1994-08-03 1997-06-24 Mosaic Technologies, Inc. Method for performing amplification of nucleic acid with two primers bound to a single solid support
ATE269908T1 (de) 1997-04-01 2004-07-15 Manteia S A Methode zur sequenzierung von nukleinsäuren
DE69837913T2 (de) 1997-04-01 2008-02-07 Solexa Ltd., Saffron Walden Verfahren zur vervielfältigung von nukleinsäure
AR021833A1 (es) 1998-09-30 2002-08-07 Applied Research Systems Metodos de amplificacion y secuenciacion de acido nucleico
WO2002004680A2 (en) 2000-07-07 2002-01-17 Visigen Biotechnologies, Inc. Real-time sequence determination
US7211414B2 (en) 2000-12-01 2007-05-01 Visigen Biotechnologies, Inc. Enzymatic nucleic acid synthesis: compositions and methods for altering monomer incorporation fidelity
AR031640A1 (es) 2000-12-08 2003-09-24 Applied Research Systems Amplificacion isotermica de acidos nucleicos en un soporte solido
US7057026B2 (en) 2001-12-04 2006-06-06 Solexa Limited Labelled nucleotides
US20040002090A1 (en) 2002-03-05 2004-01-01 Pascal Mayer Methods for detecting genome-wide sequence variations associated with a phenotype
EP1560838B1 (en) 2002-08-23 2009-05-13 Illumina Cambridge Limited Labelled nucleotides
EP3795577A1 (en) 2002-08-23 2021-03-24 Illumina Cambridge Limited Modified nucleotides
GB0321306D0 (en) 2003-09-11 2003-10-15 Solexa Ltd Modified polymerases for improved incorporation of nucleotide analogues
EP2789383B1 (en) 2004-01-07 2023-05-03 Illumina Cambridge Limited Molecular arrays
JP2008513782A (ja) 2004-09-17 2008-05-01 パシフィック バイオサイエンシーズ オブ カリフォルニア, インコーポレイテッド 分子解析のための装置及び方法
WO2006064199A1 (en) 2004-12-13 2006-06-22 Solexa Limited Improved method of nucleotide detection
JP4990886B2 (ja) 2005-05-10 2012-08-01 ソレックサ リミテッド 改良ポリメラーゼ
US8045998B2 (en) 2005-06-08 2011-10-25 Cisco Technology, Inc. Method and system for communicating using position information
GB0514936D0 (en) 2005-07-20 2005-08-24 Solexa Ltd Preparation of templates for nucleic acid sequencing
GB0517097D0 (en) 2005-08-19 2005-09-28 Solexa Ltd Modified nucleosides and nucleotides and uses thereof
US7405281B2 (en) 2005-09-29 2008-07-29 Pacific Biosciences Of California, Inc. Fluorescent nucleotide analogs and uses therefor
GB0522310D0 (en) 2005-11-01 2005-12-07 Solexa Ltd Methods of preparing libraries of template polynucleotides
EP2021503A1 (en) 2006-03-17 2009-02-11 Solexa Ltd. Isothermal methods for creating clonal single molecule arrays
EP3373174A1 (en) 2006-03-31 2018-09-12 Illumina, Inc. Systems and devices for sequence by synthesis analysis
US20080242560A1 (en) 2006-11-21 2008-10-02 Gunderson Kevin L Methods for generating amplified nucleic acid arrays
US7595882B1 (en) 2008-04-14 2009-09-29 Geneal Electric Company Hollow-core waveguide-based raman systems and methods
US8965076B2 (en) 2010-01-13 2015-02-24 Illumina, Inc. Data processing system and methods
HRP20211523T1 (hr) 2011-09-23 2021-12-24 Illumina, Inc. Pripravci za sekvenciranje nukleinske kiseline
CN105980578B (zh) * 2013-12-16 2020-02-14 深圳华大智造科技有限公司 用于使用机器学习进行dna测序的碱基判定器

Also Published As

Publication number Publication date
CA3224387A1 (en) 2023-01-05
EP4364155A1 (en) 2024-05-08
AU2022300970A1 (en) 2024-01-18
AU2022302056A1 (en) 2024-01-18
CA3224382A1 (en) 2023-01-05
EP4364150A1 (en) 2024-05-08
WO2023278608A1 (en) 2023-01-05
KR20240027599A (ko) 2024-03-04
WO2023278609A1 (en) 2023-01-05

Similar Documents

Publication Publication Date Title
US20210265018A1 (en) Knowledge Distillation and Gradient Pruning-Based Compression of Artificial Intelligence-Based Base Caller
US20220301657A1 (en) Tile location and/or cycle based weight set selection for base calling
KR20220143854A (ko) 인공 지능 기반 다-대-다 염기 호출
US20230041989A1 (en) Base calling using multiple base caller models
KR20240027608A (ko) 유기체 서열을 사용하여 훈련된 자체-학습 염기 호출자
US20230026084A1 (en) Self-learned base caller, trained using organism sequences
US20220415445A1 (en) Self-learned base caller, trained using oligo sequences
US20230029970A1 (en) Quality score calibration of basecalling systems
CN117501372A (zh) 使用生物体序列训练的自学碱基检出器
KR20240037882A (ko) 염기 호출 시스템의 품질 점수 보정
KR20230157230A (ko) 염기 호출을 위한 타일 위치 및/또는 사이클 기반 가중치 세트 선택
US20230343414A1 (en) Sequence-to-sequence base calling
KR20240035413A (ko) 다중 염기 호출자 모델을 사용한 염기 호출
US20230087698A1 (en) Compressed state-based base calling
US20230298339A1 (en) State-based base calling
CN117529780A (zh) 碱基检出系统的质量分数校准
WO2022197752A1 (en) Tile location and/or cycle based weight set selection for base calling
WO2023049215A1 (en) Compressed state-based base calling
KR20240031968A (ko) 염기 호출에 대한 보간 및 적응을 갖는 강도 추출
CN117546248A (zh) 使用多个碱基检出器模型的碱基检出