KR20240062635A - 표현형 분석를 위한 광스캐너 및 이를 이용한 표현형 분석 방법 - Google Patents

표현형 분석를 위한 광스캐너 및 이를 이용한 표현형 분석 방법 Download PDF

Info

Publication number
KR20240062635A
KR20240062635A KR1020220144375A KR20220144375A KR20240062635A KR 20240062635 A KR20240062635 A KR 20240062635A KR 1020220144375 A KR1020220144375 A KR 1020220144375A KR 20220144375 A KR20220144375 A KR 20220144375A KR 20240062635 A KR20240062635 A KR 20240062635A
Authority
KR
South Korea
Prior art keywords
phenotypic
image
optical scanner
organism
phenotype
Prior art date
Application number
KR1020220144375A
Other languages
English (en)
Inventor
정웅규
권태준
아스카룰리 산자르
양현모
윤성민
나거성
Original Assignee
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산과학기술원 filed Critical 울산과학기술원
Priority to KR1020220144375A priority Critical patent/KR20240062635A/ko
Publication of KR20240062635A publication Critical patent/KR20240062635A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing
    • G01N2201/129Using chemometrical methods
    • G01N2201/1296Using chemometrical methods using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • Biomedical Technology (AREA)
  • Analytical Chemistry (AREA)
  • Molecular Biology (AREA)
  • Medicinal Chemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Urology & Nephrology (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Food Science & Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Hematology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)

Abstract

본 발명은 마이크로 웰에서 배양되는 생물의 이미지를 생성하는 광스캐너와, 상기 이미지를 인공 신경망에 적용하여 배양중인 생물의 표현형을 분석하는 방법에 관한 것이다.
본 발명의 일 실시예에 따른 광스캐너는 개구된 상면을 포함하는 하우징, 상기 개구된 상면에 배치되고, 격자 형태로 배열되는 복수의 마이크로 웰을 포함하는 플레이트, 상기 플레이트의 상면을 덮는 커버 및 상기 하우징 내부에 구비되고, 상기 플레이트에 대한 광 스캔 동작을 수행하여 상기 마이크로 웰에 수납된 생물의 표현형 이미지를 생성하는 광스캔 모듈을 포함하는 것을 특징으로 한다.
또한, 본 발명의 일 실시예에 따른 표현형 분석 방법은 광스캐너를 통해 표현형 이미지를 수집하는 단계, 상기 표현형 이미지를 생물의 변태 과정에 따라 그룹핑하는 단계, 상기 그룹핑된 표현형 이미지에 대한 라벨데이터를 생성하는 단계, 상기 표현형 이미지와 상기 라벨데이터로 구성되는 훈련 데이터셋을 그룹별로 데이터베이스화 하는 단계 및 상기 훈련 데이터셋을 이용하여 상기 그룹별 인공 신경망을 학습시키는 단계를 포함하는 것을 특징으로 한다.

Description

표현형 분석를 위한 광스캐너 및 이를 이용한 표현형 분석 방법{OPTICAL SCANNER FOR ANALYSIS OF PHENOTYPE AND METHOD FOR ANALYZING PHENOTYPE USING THE SAME}
본 발명은 마이크로 웰에서 배양되는 생물의 이미지를 생성하는 광스캐너와, 상기 이미지를 인공 신경망에 적용하여 배양중인 생물의 표현형을 분석하는 방법에 관한 것이다.
생물의 표현형(phenotype)을 분석하기 위한 가장 전통적인 도구는 현미경이며, 가장 전통적인 표현형 분석 방법은 관찰자가 직접 현미경을 통해 생물을 관찰하는 것이다.
그런데, 현미경, 특히 생물의 스크리닝(screening)을 위한 현미경은 매우 고가이며, 현미경을 통한 표현형 분석 방식은 관찰자의 시간과 노동력을 요구하므로 시시각각 변화하는 표현형을 정량적으로 해석하는데 한계가 있다.
이에 따라, 상대적으로 저렴한 장비를 이용하여, 관찰자의 노동력 없이 시간에 따라 변화하는 표현형을 분석할 수 있는 방법이 요구되고 있다.
대한민국 공개특허공보 제10-2013-0136608호
본 발명은 실험군과 대조군으로 이용되는 다수의 생물을 함께 배양함과 동시에 이들의 표현형 이미지를 한꺼번에 시계열적으로 스캐닝할 수 있는 광스캐너를 제공하는 것을 목적으로 한다.
또한, 본 발명은 실험군과 대조군으로 이용되는 다수 생물의 표현형 이미지를 이용하여 생물의 변태 과정별로 인공 신경망을 학습시키는 것을 목적으로 한다.
또한, 본 발명은 대상 생물의 표현형 이미지에 기초하여 대상 생물의 상태를 식별하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 광스캐너는 개구된 상면을 포함하는 하우징, 상기 개구된 상면에 배치되고, 격자 형태로 배열되는 복수의 마이크로 웰을 포함하는 플레이트, 상기 플레이트의 상면을 덮는 커버 및 상기 하우징 내부에 구비되고, 상기 플레이트에 대한 광 스캔 동작을 수행하여 상기 마이크로 웰에 수납된 생물의 표현형 이미지를 생성하는 광스캔 모듈을 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 복수의 마이크로 웰은 함몰 형성되는 투명한 바닥면을 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 복수의 마이크로 웰은 개구된 바닥면을 포함하고, 상기 플레이트의 하면은 투명 플레이트에 의해 지지되는 것을 특징으로 한다.
일 실시예에서, 상기 플레이트의 상부에 구비되는 커버글라스, 상기 플레이트의 하부에 구비되는 컬러시트 및 상기 컬러시트 하부에 구비되는 편광 필터를 더 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 커버는 상기 하우징의 일측에 힌지 결합되어 회동하는 것을 특징으로 한다.
일 실시예에서, 상기 커버는 상기 플레이트의 상면에 광을 조사하는 LED 모듈과, 상기 LED 모듈 하면에 배치되어 상기 광의 색을 변화시키는 셀로판을 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 LED 모듈은 상기 광스캔 모듈이 움직일 때 광을 조사하는 것을 특징으로 한다.
일 실시예에서, 상기 커버는 상기 광스캔 모듈의 움직임을 감지하는 센서를 포함하고, 상기 LED 모듈은 상기 센서에서 출력되는 감지신호에 따라 발광하는 것을 특징으로 한다.
일 실시예에서, 상기 광스캔 모듈은 하우징 내부에서 슬라이드 이동하면서 광 스캔 동작을 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 광스캔 모듈은 스캔광을 조사하는 광원과, 상기 플레이트의 바닥면에서 반사된 상기 스캔광을 수광하는 수광부와, 상기 수광된 스캔광을 이용하여 상기 표현형 이미지를 생성하는 이미지 센서를 포함하는 것을 특징으로 한다.
또한, 전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 표현형 분석 방법은 광스캐너를 통해 표현형 이미지를 수집하는 단계, 상기 표현형 이미지를 생물의 변태 과정에 따라 그룹핑하는 단계, 상기 그룹핑된 표현형 이미지에 대한 라벨데이터를 생성하는 단계, 상기 표현형 이미지와 상기 라벨데이터로 구성되는 훈련 데이터셋을 그룹별로 데이터베이스화 하는 단계 및 상기 훈련 데이터셋을 이용하여 상기 그룹별 인공 신경망을 학습시키는 단계를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 광스캐너를 통해 표현형 이미지를 수집하는 단계는 처리약물별로 상기 표현형 이미지를 수집하는 단계를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 수집된 표현형 이미지의 콘스타스트(contrast), 밝기, 위치, 회전, 색 중 적어도 하나를 제어하여 데이터 증강(augmentation)을 수행하는 단계를 더 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 표현형 이미지를 생물의 변태 과정에 따라 그룹핑하는 단계는 상기 생물의 배양 시간에 따라 상기 표현형 이미지를 그룹핑하는 단계를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 표현형 이미지를 생물의 변태 과정에 따라 그룹핑하는 단계는 상기 표현형 이미지에 촬영된 생물의 형태적 파라미터에 따라 상기 표현형 이미지를 그룹핑하는 단계를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 형태적 파라미터에 따라 상기 표현형 이미지를 그룹핑하는 단계는 상기 표현형 이미지 내 생물의 원형도(circularity)에 따라 상기 표현형 이미지를 그룹핑하는 단계를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 광스캐너를 통해 대상 생물의 타겟 표현형 이미지를 수집하는 단계, 상기 대상 생물의 변태 과정을 식별하는 단계, 상기 식별된 변태 과정에 대응하는 데이터베이스로부터 인공 신경망을 로드하는 단계 및 상기 타겟 표현형 이미지를 상기 로드된 인공 신경망에 입력하고, 상기 인공 신경망의 출력값에 따라 상기 대상 생물의 상태를 결정하는 단계를 더 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 광스캐너는 제1항 내지 제10항 중 어느 한 항에 따르는 것을 특징으로 한다.
본 발명은 실험군과 대조군으로 이용되는 다수의 생물을 함께 배양함과 동시에 이들의 표현형 이미지를 한꺼번에 시계열적으로 스캐닝함으로써, 관찰자가 생물을 하나하나 관찰하지 않더라도 각 생물의 선명한 표현형 이미지를 얻을 수 있다는 장점이 있다.
또한, 본 발명은 실험군과 대조군으로 이용되는 다수 생물의 표현형 이미지를 이용하여 생물의 변태 과정별로 인공 신경망을 학습시킴으로써, 변태 과정에 따라 급격히 변화하는 생물의 특징을 학습에 반영할 수 있고 이에 따라 인공 신경망의 데이터 정확도(data accuracy)를 상승시킬 수 있다.
또한, 본 발명은 대상 생물의 표현형 이미지에 기초하여 대상 생물의 상태를 식별함으로써, 경험이나 노하우가 충분하지 않은 관찰자도 생물의 상태를 식별 및 진단할 수 있도록 하는 효과가 있다.
상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 발명의 일 실시예에 따른 표현형 분석을 위한 광스캐너를 도시한 도면.
도 2는 도 1에 도시된 광스캐너의 측단면도.
도 3a 및 도 3b는 본 발명의 각 실시예에 따른 플레이트를 도시한 도면.
도 4는 플레이트 상하부에 구비되는 평판형의 구성요소를 도시한 도면.
도 5는 본 발명의 일 실시예에 따른 광스캐너의 동작을 설명하기 위한 도면.
도 6은 본 발명의 일 실시예에 따른 표현형 분석을 위한 인공 신경망 학습 방법을 도시한 도면.
도 7은 처리약물에 따른 올챙이의 표현형을 도시한 도면.
도 8은 올챙이의 변태 과정을 도시한 도면.
도 9는 올챙이의 변태 과정에 따른 표현형 이미지를 도시한 도면.
도 10a 내지 도 10e는 처리약물에 따른 올챙이의 표현형 이미지를 변태 과정에 따라 순차 도시한 도면.
도 11은 본 발명의 일 실시예에 따른 표현형 분석을 통한 대상 생물의 상태 식별 방법을 도시한 도면.
도 12는 본 발명의 일 실시예에 따른 인공 신경망의 구조를 도시한 도면.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
본 명세서에서 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것으로, 특별히 반대되는 기재가 없는 한, 제1 구성요소는 제2 구성요소일 수도 있음은 물론이다.
또한, 본 명세서에서 "상부 (또는 하부)" 또는 구성요소의 "상 (또는 하)"에 임의의 구성이 배치된다는 것은, 임의의 구성이 상기 구성요소의 상면 (또는 하면)에 접하여 배치되는 것뿐만 아니라, 상기 구성요소와 상기 구성요소 상에 (또는 하에) 배치된 임의의 구성 사이에 다른 구성이 개재될 수 있음을 의미할 수 있다.
또한, 본 명세서에서 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 상기 구성요소들은 서로 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 다른 구성요소가 "개재"되거나, 각 구성요소가 다른 구성요소를 통해 "연결", "결합" 또는 "접속"될 수도 있는 것으로 이해되어야 할 것이다.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에서, "A 및/또는 B" 라고 할 때, 이는 특별한 반대되는 기재가 없는 한, A, B 또는 A 및 B 를 의미하며, "C 내지 D" 라고 할 때, 이는 특별한 반대되는 기재가 없는 한, C 이상이고 D 이하인 것을 의미한다
본 발명은 마이크로 웰에서 배양되는 생물의 이미지를 생성하는 광스캐너와, 상기 이미지를 인공 신경망에 적용하여 배양중인 생물의 표현형을 분석하는 방법에 관한 것이다.
먼저, 도 1 내지 도 5를 참조하여 본 발명의 일 실시예에 따른 광스캐너를 구체적으로 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 표현형 분석을 위한 광스캐너를 도시한 도면이고, 도 2는 도 1에 도시된 광스캐너의 측단면도이다.
도 3a 및 도 3b는 본 발명의 각 실시예에 따른 플레이트를 도시한 도면이고, 도 4는 플레이트 상하부에 구비되는 평판형의 구성요소를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 광스캐너의 동작을 설명하기 위한 도면이다.
도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 표현형 분석을 위한 광스캐너(이하 광스캐너, 1)는 생물의 표현형 이미지(100)를 생성하기 위한 장치로서, 하우징(10), 플레이트(20), 커버(30) 및 광스캔 모듈(40)을 포함할 수 있다. 여기서 커버(30)는 LED 모듈(31) 및 셀로판(32)을 포함할 수 있고, 광스캔 모듈(40)은 광원(41), 수광부(42) 및 이미지 센서(43)를 포함할 수 있다.
다만, 도 1 및 도 2에 도시된 광스캐너(1)는 일 실시예에 따른 것이고, 그 구성요소들이 도 1 및 도 2에 도시된 실시예에 한정되는 것은 아니며 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.
광스캐너(1)는 전체적으로 직육면체의 형상을 갖되, 상면(11)이 개구된 하우징(10)과 그 상면(11)을 덮는 커버(30)로 구성될 수 있다. 구체적으로는, 하우징(10)은 개구된 상면(11)을 갖고, 개구된 상면(11)에는 플레이트(20)가 배치될 수 있으며, 플레이트(20)의 상면은 커버(30)에 의해 덮어질 수 있다.
여기서 플레이트(20)는 광 스캔의 대상이 되는 생물이 배양되는 곳일 수 있다. 플레이트(20)는 다수의 생물 샘플에 대한 광 스캔이 동시에 이루어질 수 있도록 격자 형태로 배열되는 복수의 마이크로 웰(microwell, 21)을 포함할 수 있고, 이 때 각각의 마이크로 웰(21)에는 생물이 배양될 수 있다.
도 3a 및 도 3b를 참조하면, 플레이트(20)는 가로 및/또는 세로로 배열된 복수의 직사각형 형태의 마이크로 웰(21)을 포함할 수 있다. 이 때, 마이크로 웰(21)의 모양은 내부에 배양되는 생물이 구조적 장애 없이 성장하되, 과잉 행동(hyperactivity)을 제한할 수 있도록 설계될 수 있다. 후술하는 바와 같이, 마이크로 웰(21)에서 올챙이(tabpole)가 배양되는 경우 각 마이크로 웰(21)은 8.5mm 3mm의 크기로 구현될 수 있다.
한편, 후술하는 바와 같이 광 스캔은 마이크로 웰(21)의 배면에 대해 수행되므로, 광 스캔을 통해 마이크로 웰(21) 내부 생물의 이미지를 얻기 위해 마이크로 웰(21)의 바닥면은 투명할 필요가 있다.
일 예에서, 복수의 마이크로 웰(21)은 함몰 형성되는 투명한 바닥면(21b)을 포함할 수 있다. 도 3a를 참조하면, 각각의 마이크로 웰(21)은 함몰 형성되되 그 바닥면(21b)이 투명한 재질로 이루어질 수 있다. 예를 들어, 마이크로 웰(21)은 기본적으로 PDMS(polydimethylsiloxane)로 이루어지되, 그 바닥면(21b)은 투명한 유리로 이루어질 수 있다.
다른 예에서, 복수의 마이크로 웰(21)은 개구된 바닥면(22)을 포함하되, 플레이트(20)의 하면, 즉 각 마이크로 웰(21)의 하면은 투명 플레이트(22)에 의해 지지될 수 있다. 도 3b를 참조하면, 각각의 마이크로 웰(21)은 함몰 형성되되 그 바닥면(22)이 개구될 수 있다. 이러한 구조 하에서 마이크로 웰(21) 내부에 생물을 배양해야 하므로 플레이트(20)의 하면은 투명 플레이트(22), 예컨대 유리판(22)에 의해 지지될 수 있고, 이에 따라, 각 마이크로 웰(21)의 바닥면(22)이 밀폐될 수 있다.
한편, 전술한 바와 같이 마이크로 웰(21)이 함몰 형성될 때, 후술하는 광 스캔 동작 시 마이크로 웰(21)의 바닥면으로 입사하는 광이 마이크로 웰(21) 내부에서 반사되는 것을 최소화 하기 위하여, 마이크로 웰(21)의 측벽은 광의 조사 각도에 따라 비스듬하게 형성될 수 있다.
본 발명은 플레이트(20)에 배양되는 생물을 보호하고, 광 스캔 시 이미지의 선명도를 향상시키기 위하여, 플레이트(20)의 상부에 구비되는 커버글라스(50), 플레이트(20)의 하부에 구비되는 컬러시트(60) 및 컬러시트(60) 하부에 구비되는 편광 필터(70)를 더 포함할 수 있다.
도 4를 참조하면, 커버글라스(50)는 플레이트(20)의 상면을 덮음으로써 마이크로 웰(21)에 생물을 배양할 때 외부 오염물질이 침투하는 것을 방지할 수 있다. 컬러시트(60)는 플레이트(20)의 배면에 대한 광 스캔 시 투명한 바닥면과 배경이 극명하게 대비될 수 있도록 하며, 이를 위해 검은 색으로 구현될 수 있다. 또한, 마이크로 웰(21)에 물을 채우고 해당 물 속에서 생물을 배양하는 경우, 편광 필터(70)는 수면에서 발생하는 반사 아티펙트(artifact)를 제거할 수 있다.
다시 도 1 및 도 2를 참조하면, 커버(30)는 하우징(10)의 일측에 힌지 결합되어 회동할 수 있고, 회동에 따라 플레이트(20)의 상면을 개폐할 수 있다.
커버(30)는 광 스캔 동작 시 이미지의 밝기와 선명도를 향상시키기 위하여, 플레이트(20)의 상면에 광을 조사하는 LED 모듈(31) 및 LED 모듈(31) 하면에 배치되어 광의 색을 변화시키는 셀로판(32)을 포함할 수 있다.
LED 모듈(31)은 플레이트(20) 상면에 광을 조사하여 마이크로 웰(21) 내부의 밝기를 증가시킬 수 있고, 셀로판(32)은 LED 모듈(31)에서 출력된 광의 색을 변화시킴으로써 마이크로 웰(21) 내부 색상과 생물의 색이 대비되도록 할 수 있다. 예를 들어, 마이크로 웰(21)에 배양되는 생물이 올챙이인 경우, 올챙이의 색은 노란색이므로 파란색 셀로판(32)을 이용하는 경우 표현형 이미지(100) 상에서 올챙이의 선명도가 향상될 수 있다.
광스캔 모듈(40)은 하우징(10) 내부에 구비될 수 있고, 플레이트(20)에 대한 광 스캔 동작을 수행하여 마이크로 웰(21)에 수납된 생물의 표현형 이미지(100)를 생성할 수 있다. 구체적으로, 광스캔 모듈(40)은 플레이트(20)의 바닥면에 대한 광 스캔 동작을 수행함으로써, 마이크로 웰(21) 바닥면을 통해 관찰되는 생물의 표현형에 대한 이미지를 생성할 수 있다.
다시 도 2를 참조하면, 전술한 동작을 위해 광스캔 모듈(40)은 스캔광을 조사하는 광원(41)과, 플레이트(20)의 바닥면에서 반사된 스캔광을 수광하는 수광부(42) 및 수광된 스캔광을 이용하여 표현형 이미지(100)를 생성하는 이미지 센서(43)를 포함할 수 있다.
광스캔 모듈(40)은 하우징(10) 내부에서 플레이트(20)가 배열된 방향에 따라 이동하면서 광스캔 동작을 수행할 수 있다. 구체적으로, 하우징(10) 내부에는 광스캔 모듈(40)의 이동을 가이드하는 가이드레일(12)이 구비될 수 있고, 광스캔 모듈(40)은 가이드레일(12)을 따라 슬라이드 이동하면서 스캔광을 조사하고, 반사된 스캔광을 수광하여 표현형 이미지(100)를 생성할 수 있다.
한편, 커버(30)에 포함되는 LED 모듈(31)은 표현형 이미지(100)의 밝기를 향상시키기 위한 구성으로서, 전력 소비를 줄이기 위하여 광 스캔 동작이 수행될 때에만 플레이트(20) 상부에 광을 조사할 필요가 있다.
이를 위해, LED 모듈(31)은 광스캔 모듈(40)이 움직일 때에 한해 광을 조사할 수 있다. 구체적으로, LED 모듈(31)은 광스캔 모듈(40)이 움직일 때에 발생하는 임의의 신호를 트리거 신호로 수신하여 동작할 수 있다.
일 예에서, 커버(30)는 광스캔 모듈(40)의 움직임을 감지하는 센서(33)를 포함할 수 있고, LED 모듈(31)은 센서(33)에서 출력되는 감지신호에 따라 발광할 수 있다. 도 2를 참조하면, 커버(30) 내, 하우징(10)의 개구된 상면(11) 상에는 초음파 센서(33)가 구비될 수 있다. 광 스캔 동작이 시작되면 초음파 센서(33)는 하우징(10) 내에서 움직이는 광스캔 모듈(40)을 감지하여 감지신호를 생성할 수 있다. LED 모듈(31)은 초음파 센서(33)에서 생성된 감지신호를 트리거 신호로서 수신하고 플레이트(20) 상부에 광을 조사할 수 있다.
이상 광스캔 모듈(40)의 움직임을 감지하는 센서(33)로 초음파 센서(33)를 예로 들었으나 이 외에도 움직임을 감지할 수 있는 다양한 센서가 이용될 수 있다.
이하, 도 5를 참조하여 본 발명의 일 실시예에 따른 광스캐너(1)의 동작을 예시적으로 설명하도록 한다.
플레이트(20)는 정상 상태에서 배양되는 올챙이(제어 샘플(control sample))를 포함하는 복수의 마이크로 웰(21)과, 제1 약물이 처리된 올챙이(Drug 1)를 포함하는 복수의 마이크로 웰(21)과, 제2 약물이 처리된 올챙이(Drug 2)를 포함하는 복수의 마이크로 웰(21)을 포함할 수 있다.
커버(30)가 닫힌 상태에서 광 스캔 동작을 개시하면, 광스캔 모듈(40)은 하우징(10) 내부에서 마이크로 웰(21)의 하부를 따라 이동하면서 광 스캔 동작을 수행할 수 있다. 이 때, 초음파 센서가 광스캔 모듈(40)의 움직임을 감지하면 LED 모듈(31)은 플레이트(20) 상부에 광을 조사할 수 있다.
LED 모듈(31)에서 조사되는 광은 파란색의 셀로판(32)을 통과하면서 파란 빛으로 바뀔 수 있고, 파란 빛은 마이크로 웰(21)의 내부에 조사될 수 있다.
광스캔 모듈(40)은 광원(41)을 통해 스캔광을 각 마이크로 웰(21)의 바닥면에 조사할 수 있고, 바닥면에서 반사된 스캔광을 수광부(42)를 통해 수광할 수 있다. 이 때, 수광부(42)는 반사되는 스캔광을 이미지 센서(43)로 전달하기 위하여 스캔광의 경로를 변경하는 적어도 하나의 미러를 포함할 수 있고, 스캔광을 이미지 센서(43)에 모아주는 적어도 하나의 렌즈를 포함할 수 있다.
이미지 센서(43)는 수광된 스캔광을 이용하여 각 마이크로 웰(21)에 배양되고 있는 올챙이의 표현형 이미지(100)를 생성할 수 있다. 예컨대, 이미지 센서(43)는 CCD(Charge Coupled Device) 센서일 수 있다.
전술한 과정을 통해 생성된 표현형 이미지(100)는 도 9, 도 10a 내지 도 10e에 도시된 것과 같으며, 해당 도면들에 대해서는 표현형 분석 방법에 대해 기술하면서 자세히 설명하도록 한다.
전술한 바와 같이, 본 발명은 실험군과 대조군으로 이용되는 다수의 생물을 함께 배양함과 동시에 이들의 표현형 이미지(100)를 한꺼번에 시계열적으로 스캐닝함으로써, 관찰자가 생물을 하나하나 관찰하지 않더라도 각 생물의 선명한 표현형 이미지(100)를 얻을 수 있다는 장점이 있다.
이하, 도 6 내지 도 12를 참조하여 본 발명의 일 실시예에 따른 광스캐너(1)를 이용한 표현형 분석 방법을 구체적으로 설명하도록 한다.
도 6은 본 발명의 일 실시예에 따른 표현형 분석을 위한 인공 신경망 학습 방법을 도시한 도면이다.
도 7은 처리약물에 따른 올챙이의 표현형을 도시한 도면이다. 도 8은 올챙이의 변태 과정을 도시한 도면이고, 도 9는 올챙이의 변태 과정에 따른 표현형 이미지를 도시한 도면이다.
도 10a 내지 도 10e는 처리약물에 따른 올챙이의 표현형 이미지를 변태 과정에 따라 순차 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 표현형 분석을 통한 대상 생물의 상태 식별 방법을 도시한 도면이다.
도 12는 본 발명의 일 실시예에 따른 인공 신경망의 구조를 도시한 도면이다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 표현형 분석 방법은 표현형 이미지(100)를 수집하는 단계(S1), 생물의 변태 과정에 따라 표현형 이미지(100)를 그룹핑(grouping)하는 단계(S2), 표현형 이미지(100)에 대한 라벨데이터를 생성하는 단계(S3), 그룹별로 훈련 데이터를 데이터베이스화하는 단계(S4) 및 그룹별 인공 신경망(AI neural network)을 학습시키는 단계(S5)를 포함할 수 있다.
다만, 도 6에 도시된 표현형 분석 방법은 일 실시예에 따른 것이고, 발명을 이루는 각 단계들이 도 6에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 단계가 부가, 변경 또는 삭제될 수 있다.
후술하는 표현형 분석 방법은 프로세서(미도시)에 의해 수행될 수 있으며, 프로세서는 발명의 동작을 수행하기 위하여 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controller), 마이크로 컨트롤러(micro-controllers) 중 적어도 하나의 물리적인 요소를 포함할 수 있다.
프로세서는 전술한 광스캐너(1) 내부에 구비되어 동작할 수도 있고, 광스캐너(1) 외부에서 광스캐너(1)와 데이터 통신을 통해 동작할 수도 있다.
프로세서는 다양한 약물이 처리된 생물의 표현형 이미지(100)와 그렇지 않은 생물의 표현형 이미지(100)를 이용하여 인공 신경망을 학습시키고, 학습된 인공 신경망을 이용하여 타겟 생물의 상태를 식별할 수 있다.
도 7을 예로 들면, BIO 약물이 처리된 올챙이는 낭배형성 과정에서 파열(burst at gastrulation)된 표현형을 갖고, Wnt-C59(이하, C59) 약물이 처리된 올챙이는 휜 꼬리(tail bending), 짧은 꼬리(short tail)의 표현형을 갖고, Wnt-Agnoist1(이하, AG1) 약물이 처리된 올챙이는 머리 미형성(head deformation), 짧은 몸(short body)의 표현형을 가지며, IWR-1(이하, IWR) 약물이 처리된 올챙이는 휜 허리(waist bending)의 표현형을 가질 수 있다.
프로세서는 후술하는 과정에 따라 각각의 약물이 처리된 생물의 표현형 이미지(100)를 인공 신경망의 학습에 이용하고, 학습된 인공 신경망을 이용하여 타겟 생물의 상태, 예컨대 약물 적용 상태를 식별할 수 있다.
이를 위한 동작 과정으로서, 이하 도 6에 순차 도시된 각 단계들을 구체적으로 설명하도록 한다.
프로세서는 광스캐너(1)에서 촬영된 표현형 이미지(100)를 수집하고(S1), 이를 생물의 변태 과정에 따라 그룹핑할 수 있다(S2). 여기서 광스캐너(1)는 도 1 내지 도 5를 참조하여 설명한 광스캐너(1)일 수 있다.
마이크로 웰(21)에 배양되는 생물은 변태 과정을 거쳐 성장할 수 있고, 배영되는 생물의 표현형 이미지(100)는 각 변태 과정에 따라 달리 생성될 수 있다.
도 8을 참조하면, 배양되는 생물이 올챙이인 경우, 올챙이는 알(egg)에서 낭배(gastrula)로, 낭배(gastrula)에서 신경배(neurula)로, 신경배(neurula)에서 꼬리싹(tailbud)으로, 꼬리싹(tailbud)에서 늦은 꼬리싹(late tailbud)으로, 늦은 꼬리싹(late tailbud)에서 올챙이(tadpole)로 이어지는 변태 과정을 거쳐 성장할 수 있다.
프로세서는 전체 변태 과정을 복수의 구간으로 분류하고, 각 구간에 따라 표현형 이미지(100)를 그룹핑할 수 있다. 여기서 복수의 구간은 학술적으로 분류된 구간(도 8에 도시된 과정)일 수도 있고, 사용자가 임의로 설정한 구간일 수도 있다.
도 9를 예로 들어 설명하면, 사용자는 올챙이의 변태 과정을 그 표현형에 따라 (A) 내지 (E)의 다섯 구간으로 분류할 수 있고, 프로세서는 구간별로 표현형 이미지(100)를 그룹핑할 수 있다.
일 예에서, 전술한 변태 과정은 시간에 따라 구분될 수 있고, 각 과정을 정의하는 시간은 사용자가 미리 설정할 수 있다. 이에 따라, 프로세서는 생물의 배양 시간에 따라 표현형 이미지(100)를 그룹핑할 수 있다.
다시 도 9를 참조하면, (A) 구간의 배양 시간은 2시간에서 18시간일 수 있고, (B) 구간의 배양 시간은 18시간에서 22시간일 수 있으며, (C) 구간의 배양 시간은 22시간에서 52시간일 수 있고, (D) 구간의 배양 시간은 52시간에서 72시간일 수 있으며, (E) 구간의 배양 시간은 72시간 이상일 수 있다.
프로세서는 마이크로 웰(21)에 최초로 생물이 배양된 시점으로부터 배양 시간을 카운팅할 수 있고, 2시간에서 18시간 사이에 수집된 표현형 이미지(100)를 A 그룹으로, 18시간에서 22시간 사이에 수집된 표현형 이미지(100)를 B 그룹으로, 22시간에서 52시간 사이에 수집된 표현형 이미지(100)를 C 그룹으로, 52시간에서 72시간 사이에 수집된 표현형 이미지(100)를 D 그룹으로, 72시간 이후에 수집된 표현형 이미지(100)를 E 그룹으로 그룹핑할 수 있다.
다른 예에서, 전술한 변태 과정은 표현형에 따라 구분될 수 있고, 각 표현형에 대한 형태적 파라미터(morphological parameter)는 미리 정의될 수 있다. 여기서 형태적 파라미터는 생물의 외형이 형성하는 영역(area), 생물의 외형이 형성하는 둘레(perimeter), 생물의 길이, 원형도(circularity) 등을 포함할 수 있다.
이에 따라, 프로세서는 표현형 이미지(100)에 촬영된 생물의 형태적 파라미터에 따라 표현형 이미지(100)를 그룹핑할 수 있다.
도 9에 도시된 바와 같이, 변태 과정에 따른 생물의 길이는 다를 수 있고, (A) 내지 (E) 구간에서 생물이 갖는 길이 범위는 미리 설정될 수 있다. 이 경우, 프로세서는 표현형 이미지(100)에 촬영된 생물의 길이와 구간별로 설정된 길이 범위를 비교하여, 각 표현형 이미지(100)를 그룹핑할 수 있다.
한편, 생물은 변태과정에 따라 원형도(circularity)가 극명하게 달라질 수 있다. 원형도는 생물의 외형이 형성하는 영역이 원형에 가까운 정도를 나타내는 파라미터로서 하기 [수학식 1]에 따라 정의될 수 있다.
다시 도 9를 참조하면, 변태 과정에 따른 생물의 원형도는 극명하게 다를 수 있고, (A) 내지 (E) 구간에서 생물이 갖는 원형도의 범위는 미리 설정될 수 있다. 이 때, 프로세서는 표현형 이미지(100)에 촬영된 생물이 형성하는 영역(area)과 생물의 둘레(perimeter)를 측정하고, 이를 통해 원형도를 산출한 뒤, 산출된 원형도와 구간별로 설정된 원형도의 범위를 비교하여 각 표현형 이미지(100)를 그룹핑할 수 있다.
한편, 전술한 그룹핑 동작을 위해 프로세서는 표현형 이미지(100)에 촬영된 생물을 식별할 수 있고 이를 위해 객체 추출(object detection) 알고리즘, 객체 추적(object tracking) 등 다양한 컴퓨터 비전 기법을 활용할 수 있다.
앞서 설명한 그룹핑 동작은 처리약물별로 수행될 수 있다.
보다 구체적으로, 프로세서는 약물이 처리되지 않은 제어 생물군과, 각 약물이 처리된 생물군 각각에 대해 전술한 그룹핑 동작을 수행할 수 있다. 이를 위해, 광스캐너(1)는 처리약물별로 표현형 이미지(100)를 수집할 수 있다.
도 10a 내지 도 10e를 참조하면, 단일 플레이트(20)에는 약물이 처리되지 않는 제어 생물군과, BIO 약물, C59 약물, AG1 약물, IWR 약물이 처리된 생물군이 한꺼번에 배양될 수 있다. 이에 따라, 광 스캐너는 약물이 처리되지 않은 제어 생물군에 대한 표현형 이미지(100)뿐만 아니라, 각 약물이 처리된 생물군에 대한 표현형 이미지(100)를 동시에 생성할 수 있다.
프로세서는 처리약물별로 수집된 표현형 이미지(100)를 전술한 방법에 따라 그룹핑할 수 있다.
도면을 참조하여 구체적으로 설명하면, 프로세서는 수집된 표현형 이미지(100) 중 도 9에 도시된 (A) 구간에 대한 이미지를 도 10a에 도시된 A 표현형 이미지(100A)로 그룹핑할 수 있고, 도 9에 도시된 (B) 구간에 대한 이미지를 도 10b에 도시된 B 표현형 이미지(100B)로 그룹핑할 수 있다. 마찬가지의 방법으로 프로세서는 도 9에 도시된 (C) 내지 (E) 구간에 대한 이미지를 각각 도 10c 내지 도 10e에 순차 도시된 C 내지 E 표현형 이미지(100C, 100D, 100E)로 그룹핑할 수 있다.
그룹핑이 완료되면 프로세서는 그룹핑된 각 표현형 이미지(100)에 대한 라벨데이터를 생성할 수 있다(S3). 여기서, 라벨데이터는 생물의 상태에 대응하는 데이터로서, 인공 신경망의 학습을 위해 임의의 숫자로 설정될 수 있다.
도 10a 내지 도 10e를 참조하여 설명하면, 프로세서는 플레이트(20)의 1행에서 촬영된 20개의 표현형 이미지(100)에 대하여 정상 상태를 나타내는 '0'의 라벨데이터를 생성할 수 있다. 또한, 프로세서는 플레이트(20)의 2행에서 촬영된 20개의 표현형 이미지(100)에 대하여 AG1 약물 처리 상태를 나타내는 '1'의 라벨데이터를 생성할 수 있다. 같은 방법으로, 프로세서는 플레이트(20)의 3행 내지 5행에서 촬영된 20개씩의 표현형 이미지(100)에 대하여 BIO, C59, IWR 약물 처리 상태를 각각 나타내는 '2', '3', '4'의 라벨데이터를 생성할 수 있다.
이어서, 프로세서는 표현형 이미지(100)와 라벨데이터로 구성되는 훈련 데이터셋을 그룹별로 데이터베이스화 할 수 있다(S4).
상기 예에서, 프로세서는 앞서 (A) 구간에 대해 그룹핑된 100개의 A 표현형 이미지(100A)와 0 내지 4로 생성된 라벨데이터를 각각 매칭시키고 이를 훈련 데이터셋으로 생성할 수 있다. 구체적으로, 프로세서는 A 표현형 이미지(100A)의 1행 1열에 위치한 표현형 이미지와 '0'의 라벨데이터를 매칭하여 하나의 훈련 데이터셋을 생성할 수 있다. 마찬가지의 방법으로 프로세서는 A 표현형 이미지(100A)의 2행 내지 5행 및 2열 내지 20열에 위치한 99개의 표현형 이미지와 각 이미지에 대해 생성된 라벨데이터를 매칭하여 99개의 훈련 데이터셋을 생성할 수 있다.
프로세서는 (A) 구간에 대해 생성된 훈련 데이터셋을 데이터베이스화할 수 있다. 구체적으로, 프로세서는 (A) 구간에 대해 생성된 100개의 훈련 데이터셋을 독립된 A 데이터베이스에 저장할 수 있다.
(A) 구간에 대한 데이터베이스화 방법과 마찬가지로, 프로세서는 (B) 내지 (E) 구간에 대해 그룹핑된 B 내지 E 표현형 이미지(100B, 100C, 100D, 100E)에 대해서도, 각 표현형 이미지(100)와 라벨데이터로 구성하는 훈련 데이터셋을 생성하고, 이들을 각각 B 내지 E 데이터베이스에 저장할 수 있다.
이렇게 A 내지 E 데이터베이스가 구축되면, 프로세서는 각 데이터베이스에 저장된 훈련 데이터셋을 이용하여 그룹별 인공 신경망을 학습시킬 수 있다(S5). 여기서 인공 신경망은 표현형 이미지(100)를 입력받고, 이미지 내 생물의 상태에 대한 라벨데이터를 출력하는 신경망으로서, 합성곱 신경망(Convolutional Neural Network; CNN)일 수 있다.
구체적으로, 프로세서는 A 데이터베이스에 저장된 훈련 데이터셋을 이용하여 A 그룹의 인공 신경망을 학습시킬 수 있고, B 데이터베이스에 저장된 훈련 데이터셋을 이용하여 B 그룹의 인공 신경망을 학습시킬 수 있다. 마찬가지로, 프로세서는 C 내지 E 데이터베이스에 저장된 훈련 데이터셋을 이용하여 C 내지 E 그룹의 인공 신경망을 학습시킬 수 있다. 이에 따라, 그룹이 A 내지 E로 총 5개인 경우 학습되는 인경 신경망의 개수도 5개일 수 있다.
한편, 전술한 인공 신경망 학습 시 프로세서는 학습 데이터 양을 증강(augmentation)하기 위하여, 프로세서는 표현형 이미지(100)의 콘스타스트(contrast), 밝기, 위치, 회전, 색 중 적어도 하나를 제어하여 데이터 증강을 수행할 수 있다.
예컨대, 프로세서는 A 표현형 이미지(100A)의 1행 1열에 위치한 표현형 이미지의 콘스타스트(contrast), 밝기, 위치, 회전, 색을 각각 제어하여 5개의 증강 이미지를 생성하고, 이들을 모두 '0'의 라벨데이터에 매칭함으로써 인공 신경망의 학습에 이용되는 데이터의 양을 증가시킬 수 있다.
전술한 바와 같이, 본 발명은 실험군과 대조군으로 이용되는 다수 생물의 표현형 이미지(100)를 이용하여 생물의 변태 과정별로 인공 신경망을 학습시킴으로써, 변태 과정에 따라 급격히 변화하는 생물의 특징을 학습에 반영할 수 있고 이에 따라 인공 신경망의 데이터 정확도(data accuracy)를 상승시킬 수 있다.
이하에서는 도 11 및 도 12를 참조하여, 인공 신경망을 이용한 생물의 상태 식별 방법을 구체적으로 설명하도록 한다.
인공 신경망의 학습 이후, 프로세서는 광스캐너(1)를 통해 대상 생물의 타겟 표현형 이미지(100t)를 수집할 수 있다(S6). 여기서 대상 생물은 상태 식별이 요구되는 생물일 수 있고, 타겟 표현형 이미지(100t)는 광스캐너(1)에 의해 촬영된 대상 생물의 표현형 이미지를 의미할 수 있다.
이어서, 프로세서는 대상 생물의 변태 과정을 식별할 수 있다(S7).
변태 과정은 전술한 바와 같이 배양 시간에 따라 결정될 수 있으므로, 프로세서는 대상 생물이 배양된 시간에 기초하여 대상 생물의 변태 과정을 식별할 수 있다.
또한, 변태 과정은 대상 생물의 표현형에 기초하여 식별될 수 있다. 구체적으로, 변태 과정은 타겟 표현형 이미지(100t)에 촬영된 대상 생물의 형태적 파라미터에 따라 식별할 수 있다. 형태적 파라미터를 통해 변태 과정을 식별하는 방법에 대해서는 전술한 바 있으므로 여기서는 자세한 설명을 생략하도록 한다.
이어서, 프로세서는 앞서 식별된 변태 과정에 대응하는 데이터베이스로부터 인공 신경망을 로드할 수 있다(S8).
앞선 예에 이어서 설명하면, 대상 생물의 변태 과정이 도 9에 도시된 (D) 구간으로 식별된 경우, 프로세서는 D 데이터베이스에 엑세스하여 기 저장된 D 그룹의 인경 신경망을 로드할 수 있다.
이어서, 프로세서는 타겟 표현형 이미지(100t)를 앞서 로드한 인공 신경망에 입력하고(S9), 인공 신경망의 출력값에 따라 대상 생물의 상태를 결정할 수 있다(S10).
도 12를 참조하면, 프로세서가 로드한 인공 신경망은 여러 쌍의 합성곱 레이어, 배치 정규화(batch-normal) 레이어, 풀링(pooling) 레이어를 포함할 수 있고, 한 쌍의 합성곱 레이어, 배치 정규화 레이어 및 풀링 레이어의 출력이 다음 쌍의 합성곱 레이어, 배치 정규화 레이어 및 풀링 레이어에 입력되는 구조를 가질 수 있다.
타겟 표현형 이미지(100t)는 인공 신경망에 입력되고, 이를 위해 프로세서는 타겟 표현형 이미지(100t)의 규격(이미지 사이즈, 픽셀 등)을 변경할 수 있다. 인공 신경망은 앞서 학습 데이터셋을 통해 학습된 가중치(weight)와 바이어스(bias)에 기초하여 타겟 표현형 이미지(100t) 내 대상 생물의 상태에 대한 라벨데이터를 출력할 수 있다.
예를 들어, 대상 생물에 AG1 약물이 처리된 경우 인공 신경망은 해당 약물에 대한 라벨데이터인 '1'을 출력할 수 있다. 다른 예에서, 대상 생물이 C59 약물이 처리된 경우 인경 신경망은 해당 약물에 대한 라벨데이터인 '3'을 출력할 수 있다.
프로세서는 인공 신경망의 출력값에 따라 대상 생물에 적용된 약물을 식별할 수 있다. 앞서서는 처리약물에 따라 라벨데이터가 달리 출력되는 것으로 가정하여 설명하였으나, 처리약물 외에도 대상 생물의 상태를 나타낼 수 있는 다양한 요소에 따라 라벨데이터가 달리 출력될 수 있음은 당연하다.
전술한 바와 같이, 본 발명은 대상 생물의 표현형 이미지(100t)에 기초하여 대상 생물의 상태를 식별함으로써, 경험이나 노하우가 충분하지 않은 관찰자도 생물의 상태를 식별 및 진단할 수 있도록 하는 효과가 있다.
이상과 같이 본 발명에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시 예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 통상의 기술자에 의해 다양한 변형이 이루어질 수 있음은 자명하다. 아울러 앞서 본 발명의 실시 예를 설명하면서 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을 지라도, 해당 구성에 의해 예측 가능한 효과 또한 인정되어야 함은 당연하다.

Claims (18)

  1. 개구된 상면을 포함하는 하우징;
    상기 개구된 상면에 배치되고, 격자 형태로 배열되는 복수의 마이크로 웰을 포함하는 플레이트;
    상기 플레이트의 상면을 덮는 커버; 및
    상기 하우징 내부에 구비되고, 상기 플레이트에 대한 광 스캔 동작을 수행하여 상기 마이크로 웰에 수납된 생물의 표현형 이미지를 생성하는 광스캔 모듈을 포함하는
    광스캐너.
  2. 제1항에 있어서,
    상기 복수의 마이크로 웰은 함몰 형성되는 투명한 바닥면을 포함하는
    광스캐너.
  3. 제1항에 있어서,
    상기 복수의 마이크로 웰은 개구된 바닥면을 포함하고,
    상기 플레이트의 하면은 투명 플레이트에 의해 지지되는
    광스캐너.
  4. 제1항에 있어서,
    상기 플레이트의 상부에 구비되는 커버글라스;
    상기 플레이트의 하부에 구비되는 컬러시트; 및
    상기 컬러시트 하부에 구비되는 편광 필터를 더 포함하는
    광스캐너.
  5. 제1항에 있어서,
    상기 커버는 상기 하우징의 일측에 힌지 결합되어 회동하는
    광스캐너.
  6. 제1항에 있어서,
    상기 커버는
    상기 플레이트의 상면에 광을 조사하는 LED 모듈과,
    상기 LED 모듈 하면에 배치되어 상기 광의 색을 변화시키는 셀로판을 포함하는
    광스캐너.
  7. 제6항에 있어서,
    상기 LED 모듈은 상기 광스캔 모듈이 움직일 때 광을 조사하는
    광스캐너.
  8. 제7항에 있어서,
    상기 커버는 상기 광스캔 모듈의 움직임을 감지하는 센서를 포함하고,
    상기 LED 모듈은 상기 센서에서 출력되는 감지신호에 따라 발광하는
    광스캐너.
  9. 제1항에 있어서,
    상기 광스캔 모듈은 하우징 내부에서 슬라이드 이동하면서 광 스캔 동작을 수행하는
    광스캐너.
  10. 제1항에 있어서,
    상기 광스캔 모듈은
    스캔광을 조사하는 광원과,
    상기 플레이트의 바닥면에서 반사된 상기 스캔광을 수광하는 수광부와,
    상기 수광된 스캔광을 이용하여 상기 표현형 이미지를 생성하는 이미지 센서를 포함하는
    광스캐너.
  11. 광스캐너를 통해 표현형 이미지를 수집하는 단계;
    상기 표현형 이미지를 생물의 변태 과정에 따라 그룹핑하는 단계;
    상기 그룹핑된 표현형 이미지에 대한 라벨데이터를 생성하는 단계;
    상기 표현형 이미지와 상기 라벨데이터로 구성되는 훈련 데이터셋을 그룹별로 데이터베이스화 하는 단계; 및
    상기 훈련 데이터셋을 이용하여 상기 그룹별 인공 신경망을 학습시키는 단계를 포함하는
    표현형 분석 방법.
  12. 제11항에 있어서,
    상기 광스캐너를 통해 표현형 이미지를 수집하는 단계는
    처리약물별로 상기 표현형 이미지를 수집하는 단계를 포함하는
    표현형 분석 방법.
  13. 제11항에 있어서,
    상기 수집된 표현형 이미지의 콘스타스트(contrast), 밝기, 위치, 회전, 색 중 적어도 하나를 제어하여 데이터 증강(augmentation)을 수행하는 단계를 더 포함하는
    표현형 분석 방법.
  14. 제11항에 있어서,
    상기 표현형 이미지를 생물의 변태 과정에 따라 그룹핑하는 단계는
    상기 생물의 배양 시간에 따라 상기 표현형 이미지를 그룹핑하는 단계를 포함하는
    표현형 분석 방법.
  15. 제11항에 있어서,
    상기 표현형 이미지를 생물의 변태 과정에 따라 그룹핑하는 단계는
    상기 표현형 이미지에 촬영된 생물의 형태적 파라미터에 따라 상기 표현형 이미지를 그룹핑하는 단계를 포함하는
    표현형 분석 방법.
  16. 제15항에 있어서,
    상기 형태적 파라미터에 따라 상기 표현형 이미지를 그룹핑하는 단계는
    상기 표현형 이미지 내 생물의 원형도(circularity)에 따라 상기 표현형 이미지를 그룹핑하는 단계를 포함하는
    표현형 분석 방법.
  17. 제11항에 있어서,
    상기 광스캐너를 통해 대상 생물의 타겟 표현형 이미지를 수집하는 단계;
    상기 대상 생물의 변태 과정을 식별하는 단계;
    상기 식별된 변태 과정에 대응하는 데이터베이스로부터 인공 신경망을 로드하는 단계; 및
    상기 타겟 표현형 이미지를 상기 로드된 인공 신경망에 입력하고, 상기 인공 신경망의 출력값에 따라 상기 대상 생물의 상태를 결정하는 단계를 더 포함하는
    표현형 분석 방법.
  18. 제11항에 있어서,
    상기 광스캐너는 제1항 내지 제10항 중 어느 한 항에 따른 것인
    표현형 분석 방법.
KR1020220144375A 2022-11-02 2022-11-02 표현형 분석를 위한 광스캐너 및 이를 이용한 표현형 분석 방법 KR20240062635A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220144375A KR20240062635A (ko) 2022-11-02 2022-11-02 표현형 분석를 위한 광스캐너 및 이를 이용한 표현형 분석 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220144375A KR20240062635A (ko) 2022-11-02 2022-11-02 표현형 분석를 위한 광스캐너 및 이를 이용한 표현형 분석 방법

Publications (1)

Publication Number Publication Date
KR20240062635A true KR20240062635A (ko) 2024-05-09

Family

ID=91075787

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220144375A KR20240062635A (ko) 2022-11-02 2022-11-02 표현형 분석를 위한 광스캐너 및 이를 이용한 표현형 분석 방법

Country Status (1)

Country Link
KR (1) KR20240062635A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130136608A (ko) 2012-06-05 2013-12-13 한국과학기술원 산알의 배양 및 관찰 일체형 현미경 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130136608A (ko) 2012-06-05 2013-12-13 한국과학기술원 산알의 배양 및 관찰 일체형 현미경 장치

Similar Documents

Publication Publication Date Title
JP6091489B2 (ja) バイオ画像化方法
CN104903914B (zh) 用于定义细胞培养皿中感兴趣的对象周围的隔离区的方法
WO2019090149A1 (en) Parallel digital imaging acquisition and restoration methods and systems
CN110476101A (zh) 用于病理学的增强现实显微镜
CN107003245A (zh) 阵列级傅立叶重叠关联成像
CN102334422A (zh) 基于机器视觉的蔬菜叶部病害实时诊断方法与系统
WO2021150973A1 (en) Intelligent automated imaging system
Banus et al. A deep-learning based solution to automatically control closure and seal of pizza packages
KR20240062635A (ko) 표현형 분석를 위한 광스캐너 및 이를 이용한 표현형 분석 방법
JP7148776B2 (ja) コロニー識別システム、コロニー識別方法およびコロニー識別プログラム
KR101907563B1 (ko) 초분광 영상을 이용한 유정란 내부 배아 생존유무 판별방법
Grigoryeva Self-fluorescence of photosynthetic system-a powerful tool for investigation of microalgal biological diversity
CN112529916B (zh) 一种基于太赫兹视频成像技术的蚕卵发育程度检测方法
Hallström et al. Label-free deep learning-based species classification of bacteria imaged by phase-contrast microscopy
AU2015255243B2 (en) Bio-Imaging Method And System
Tran et al. Mobile Fluorescence Imaging and Protein Crystal Recognition
Schramma et al. Morphodynamics of chloroplast network control light-avoidance response in the non-motile dinoflagellate Pyrocystis lunula
CA3186239A1 (en) Method and system for event-based imaging
Balomenos Bacterial image analysis based on time-lapse microscopy
Bae et al. Development and optimization of two-dimensional centering algorithm for bacterial rapid detection system using forward scattering