KR20120004991A - 향상된 예측 오토포커싱을 위한 시스템 및 방법 - Google Patents
향상된 예측 오토포커싱을 위한 시스템 및 방법 Download PDFInfo
- Publication number
- KR20120004991A KR20120004991A KR1020117024008A KR20117024008A KR20120004991A KR 20120004991 A KR20120004991 A KR 20120004991A KR 1020117024008 A KR1020117024008 A KR 1020117024008A KR 20117024008 A KR20117024008 A KR 20117024008A KR 20120004991 A KR20120004991 A KR 20120004991A
- Authority
- KR
- South Korea
- Prior art keywords
- sample
- focus value
- image
- logical
- focus
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000003384 imaging method Methods 0.000 claims abstract description 75
- 238000005259 measurement Methods 0.000 claims abstract description 59
- 230000003287 optical effect Effects 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 4
- 230000003247 decreasing effect Effects 0.000 claims 1
- 239000000523 sample Substances 0.000 description 128
- 230000006870 function Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 13
- 238000009826 distribution Methods 0.000 description 11
- 230000003252 repetitive effect Effects 0.000 description 9
- 241001156002 Anthonomus pomorum Species 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 239000012472 biological sample Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004962 physiological condition Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 208000035473 Communicable disease Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012632 fluorescent imaging Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000003292 kidney cell Anatomy 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 210000005229 liver cell Anatomy 0.000 description 1
- 238000007431 microscopic evaluation Methods 0.000 description 1
- 238000000386 microscopy Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/0004—Microscopes specially adapted for specific applications
- G02B21/002—Scanning microscopes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/18—Arrangements with more than one light path, e.g. for comparing two specimens
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/24—Base structure
- G02B21/241—Devices for focusing
- G02B21/242—Devices for focusing with coarse and fine adjustment mechanism
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/24—Base structure
- G02B21/241—Devices for focusing
- G02B21/244—Devices for focusing using image analysis techniques
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/24—Base structure
- G02B21/241—Devices for focusing
- G02B21/245—Devices for focusing using auxiliary sources, detectors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
- G02B21/365—Control or image processing arrangements for digital or video microscopes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Microscoopes, Condenser (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
본 발명은 대물 렌즈와 촬상 대상 샘플을 유지하기 위한 스테이지를 가지는 촬상 장치에서, 오토포커싱 방법에 관한 것이다. 본 방법은 복수의 논리 화상 세그먼트 중 적어도 제1 논리 화상 세그먼트에 해당하는 측정 포커스 값을 판정하는 것을 포함한다. 또한, 본 방법은 측정 포커스 값을 이용하여 제1 논리 화상 세그먼트를 촬상하는 것을 포함한다. 또한, 본 방법은 측정 포커스 값과 저장된 포커스 변동 파라미터를 이용하여 복수의 논리 화상 세그먼트 중 제2 논리 화상 세그먼트에 대한 예측 포커스 값을 판정하는 것을 포함한다. 또한, 본 방법은 예측 포커스 값을 이용하여 제2 논리 화상 세그먼트를 촬상하는 것을 포함한다.
Description
본 출원은 미국 특허 출원 제11/843,754호 "PREDICTIVE AUTOFOCUSING"(2007년 8월 23일자)의 일부 계속출원으로서, 그 전체를 본 명세서의 참조로서 원용한다.
본 발명의 실시예들은 촬상(imaging)에 관한 것으로서, 더 구체적으로 촬상 장치의 예측 오토포커싱(predictive autofocusing)에 관한 것이다.
암, 감염성 질환, 및 기타의 질환 등의 생리적 상태의 예방, 모니터링, 및 치료는 이러한 생리적인 상태의 적시 진단을 요구한다. 일반적으로, 환자로부터 채취한 생물학적 시료는 질병의 분석과 식별에 사용되어진다. 현미경 분석은 이러한 샘플을 분석하고 평가하는데 널리 쓰이는 기술이다. 더 구체적으로, 이러한 샘플들은 질병의 상태를 나타낼 수 있는 비정상적인 유형이나 숫자의 세포 및/또는 유기체의 존재를 감지하는데 이용되어 진다. 이러한 샘플들의 빠른 분석을 용이하게 하기 위하여 자동화된 현미경 분석 시스템이 개발되었으며, 기술자의 피로 누적에 의한 부정확한 샘플 판독을 초래하는 수동 분석 방법에 비해 정확하다는 장점을 가진다. 통상, 슬라이드 상의 샘플이 현미경에 로딩된다. 현미경의 렌즈 또는 대물 렌즈는 샘플의 특정 영역에 포커싱된다. 그 후, 하나 이상의 관심 물체에 대하여 샘플이 스캔되어진다. 여기서, 높은 품질의 화상 획득을 용이하게 하기 위해서는 샘플/대물 렌즈를 적절히 포커싱하는 것이 가장 중요하다.
디지털 광학 현미경은 다양한 종류의 샘플을 관찰하기 위해 사용되어 진다. 빠른 오토포커싱은 대량 처리를 요하는 제약 스크리닝 및 대규모 자율 마이크로로봇 세포 조작과 같은 자동화된 생물학적 및 생의학적 적용예에 있어서 중요하다. 또한, 빠른 오토포커싱은 집적회로 칩 검사 및 하이브리드 MEMS(microelectromechanical systems)의 마이크로어셈블리와 같은 다른 어플리케이션에서도 중요하다. 따라서, 빠른 오토포커싱은 샘플의 스냅샷(snapshot) 사이의 포커스 거리를 조절하는 데에 있어서 상당한 시간 지연을 감당할 수 없는 실시간 화상 획득 어플리케이션에서는 매우 바람직하다.
종래의 촬상 장치는, 샘플에 레이저 빔을 지향시키고, 하나의 기준점을 제공하기 위해 샘플로부터 반사되는 레이저 빔을 측정하고, 피드백 루프를 사용하여 초점 거리를 조절함으로써 오토포커싱을 수행한다. 비록 이러한 접근법은 고속의 오토포커싱을 제공할 수도 있지만, 하나의 기준점은 정확한 오토포커싱을 위한 정보로는 충분하지 못할 수 있다. 현재 다른 이용 가능한 특정 기술들 또한, 다수의 초점 거리에서 고정 샘플의 다수의 화상을 획득하고, 각 화상의 최적 초점 거리를 판정하고, 피드백 루프를 이용하여 초점 거리를 조절함으로써 오토포커싱 기능을 수행한다. 비록 이러한 접근법은 레이저 빔을 이용한 것보다 좀 더 정확한 오토포커싱 기능을 제공할 수 있지만, 다수의 화상 획득은 종종 고속의 오토포커싱을 방해하는 시간 지연을 만든다.
또한, 디지털 슬라이드 스캐너를 위한 스캔 속도 요구조건을 만족시키기 위해, 스테이지가 연속 동작에 있는 상태에서 오토포커스 계산과 조절이 수행될 수도 있다. 이러한 경우에, 이에 한하지 않지만, 스캐닝 스테이지 및/또는 샘플과 관련한 반복적인 변동 등의 특정한 요소들이 포커스 예측에 악영향을 주어, 포커스가 맞지 않는 화상을 가져올 수도 있다.
따라서, 실시간 화상 획득 어플리케이션들에서 정확한 고속의 오토포커싱을 수행하도록 구성되는 견고한 기법과 시스템을 개발하는 것이 요구되는데, 이런 실시간 화상 획득 어플리케이션들은 화상의 품질을 유지하는 동시에 스캐닝 속도의 증대를 용이하게 하는 장점을 가질 것이다. 또한, 실시간 화상 획득 어플리케이션들에서 정확한 고속의 오토포커싱을 수행하는 한편 기계적 변동에 대처하도록 구성되는 시스템에 대한 요구가 있다.
본 발명의 양태에 따르면, 대물 렌즈와 이미지 대상 샘플을 유지하는 스테이지를 가지는 촬상 장치에서, 오토포커싱 방법이 제공된다. 본 방법은 복수의 논리 화상 세그먼트 중 적어도 제1 논리 화상 세그먼트에 해당하는 측정 포커스 값을 판정하는 것을 포함한다. 본 방법은 또한 측정 포커스 값을 이용하여 제1 논리 화상 세그먼트를 촬상하는 것을 포함한다. 본 방법은 또한 측정 포커스 값과 저장된 포커스 변동 파라미터를 이용하여 복수의 논리 화상 세그먼트 중 제2 논리 화상 세그먼트에 대한 예측 포커스 값을 판정하는 것을 포함한다. 또한, 본 방법은 예측 포커스 값을 이용하여 제2 논리 화상 세그먼트를 촬상하는 것을 포함한다.
본 발명의 또 다른 양태에 따르면, 촬상 장치가 제공된다. 본 장치는 대물 렌즈를 포함한다. 또한, 본 장치는 주 프레임 속도에서 샘플의 주 화상을 생성하도록 구성되는 주 화상 센서를 포함한다. 또한, 본 장치는 주 프레임 속도보다 빠른 보조 프레임 속도에서 샘플의 하나 이상의 보조 화상을 생성하도록 구성되는 보조 화상 센서를 포함한다. 또한, 본 장치는 샘플의 화상을 오토포커싱하기 위해 광축을 따라 대물 렌즈와 샘플과의 사이의 포커스 값을 조절하도록 구성되는 컨트롤러를 포함한다. 또한, 본 장치는 샘플을 지지하며, 광축에 실질적으로 직교하는 적어도 측면 방향으로 샘플을 이동시키기 위한 스캐닝 스테이지를 포함한다. 본 촬상 장치에서, 컨트롤러는 복수의 논리 화상 세그먼트 중 적어도 제1 논리 화상 세그먼트에 해당하는 측정 포커스 값을 판정하고, 측정 포커스 값을 이용하여 제1 논리 화상 세그먼트를 촬상하고, 측정 포커스 값과 저장된 포커스 변동 파라미터를 이용하여 복수의 논리 화상 세그먼트 중 제2 논리 화상 세그먼트를 위한 예측 포커스 값을 판정하고, 예측 포커스 값을 이용하여 제2 논리 화상 세그먼트를 촬상하도록 구성된다.
본 발명의 또 다른 양태에 따르면, 촬상 장치가 제공된다. 본 장치는 대물 렌즈, 주 프레임 속도에서 샘플의 주 화상을 생성하도록 구성되는 주 화상 센서, 주 프레임 속도보다 빠른 보조 프레임 속도에서 샘플의 하나 이상의 보조 화상을 생성하도록 구성되는 보조 센서, 샘플 화상을 오토포커싱하기 위해 광축을 따라 대물 렌즈와 샘플과의 사이의 포커스 값을 조절하도록 구성되는 컨트롤러, 샘플을 지지하고 광축에 실질적으로 직교하는 적어도 측면 방향으로 샘플을 이동시키기 위한 스캐닝 스테이지를 포함한다. 본 촬상 장치에 있어서, 컨트롤러는 매크로 화상, 샘플의 스캔 계획을 판정하기 위한 스캔 계획 성분, 보조 화상을 획득하고 처리하기 위한 오토포커싱 성분, 대물 렌즈에 대하여 샘플의 움직임을 제어하기 위한 움직임 제어 성분, 및 보조 화상, 주 화상, 또는 그 양측 모두를 획득하기 위한 타이밍을 동기화하기 위한 타이밍 성분을 포함한다.
본 발명의 이러한 특징, 양태, 및 장점들 및 기타의 특징, 양태, 및 장점들은, 도면 전체를 통해서 유사한 부호가 유사한 구성요소를 지칭하는 첨부 도면들을 참조하여 이하의 상세한 설명을 탐독하는 것으로 더 잘 이해될 것이다.
도 1은 본 발명의 양태에 따른 디지털 광학 현미경 등의 촬상 장치의 블럭도이다.
도 2는 본 발명의 양태에 따른 샘플을 오토포커싱하기 위해 거친 포커스 값을 판정하는 일례의 프로세스를 설명하는 플로우차트이다.
도 3은 본 발명의 양태에 따른 샘플을 오토포커싱하는 일례의 프로세스를 설명하는 플로우차트이다.
도 4a 내지 도 4b는 본 발명의 양태에 따른 샘플을 오토포커싱하기 위한 예측 포커스 값을 판정하기 위한 일례의 프로세스를 나타내는 플로우차트이다.
도 5는 본 발명의 양태에 따른 공통 픽셀의 부분 집합을 선택하는 방법을 나타내는 도해적 예시이다.
도 6은 본 발명의 양태에 따른 샘플을 오토포커싱 하는 방법을 나타내는 도해적 예시이다.
도 7은 본 발명의 양태에 따른 예측 포커스 값을 판정하는 방법을 나타내는 도해적 예시이다.
도 8은 본 발명의 양태에 따른 예측 포커스 값을 판정하는 또 다른 방법을 나타내는 블럭도이다.
도 9는 본 발명의 양태에 따른 도 1의 촬상 장치에 사용하기 위한 컨트롤러의 일 실시예를 나타내는 블럭도이다.
도 10은 본 발명의 양태에 따른 도 1의 촬상 장치의 작동 양태를 나타내는 타이밍 도이다.
도 1은 본 발명의 양태에 따른 디지털 광학 현미경 등의 촬상 장치의 블럭도이다.
도 2는 본 발명의 양태에 따른 샘플을 오토포커싱하기 위해 거친 포커스 값을 판정하는 일례의 프로세스를 설명하는 플로우차트이다.
도 3은 본 발명의 양태에 따른 샘플을 오토포커싱하는 일례의 프로세스를 설명하는 플로우차트이다.
도 4a 내지 도 4b는 본 발명의 양태에 따른 샘플을 오토포커싱하기 위한 예측 포커스 값을 판정하기 위한 일례의 프로세스를 나타내는 플로우차트이다.
도 5는 본 발명의 양태에 따른 공통 픽셀의 부분 집합을 선택하는 방법을 나타내는 도해적 예시이다.
도 6은 본 발명의 양태에 따른 샘플을 오토포커싱 하는 방법을 나타내는 도해적 예시이다.
도 7은 본 발명의 양태에 따른 예측 포커스 값을 판정하는 방법을 나타내는 도해적 예시이다.
도 8은 본 발명의 양태에 따른 예측 포커스 값을 판정하는 또 다른 방법을 나타내는 블럭도이다.
도 9는 본 발명의 양태에 따른 도 1의 촬상 장치에 사용하기 위한 컨트롤러의 일 실시예를 나타내는 블럭도이다.
도 10은 본 발명의 양태에 따른 도 1의 촬상 장치의 작동 양태를 나타내는 타이밍 도이다.
이하에서 상세하게 설명하는 바와 같이, 스캐닝 속도를 최적화하고 화상의 품질을 유지하면서 샘플을 오토포커싱하는 방법 및 시스템이 제공된다. 이하 설명된 방법과 장치를 채용함으로써, 샘플 스캐닝의 임상 작업 흐름을 간략화하는 한편 실질적으로도 증가된 스캔 속도와 화상 품질이 얻어질 수 있다.
비록 이하 예시되는 일례의 실시예는 의료 촬상 시스템의 맥락에서 설명되지만, 산업용 적용에서의 촬상 장치의 사용 역시 본 발명과 연계하여 상정될 수 있다는 것을 이해할 수 있을 것이다.
도 1은 본 발명의 양태들을 포함하는 촬상 장치(10)의 일 실시예를 나타낸다. 일 실시예에 있어서, 촬상 장치(10)는 디지털 광학 현미경을 나타낼 수 있다. 도 1의 예시된 실시예에서, 촬상 장치(10)는 대물 렌즈(12), 빔 스플리터(14), 주 화상 센서(16), 보조 화상 센서(18), 컨트롤러(20) 및 스캐닝 스테이지(22)를 포함한다. 또한, 도 1에 도시된 바와 같이, 샘플(24)은 커버 슬립(26)과 슬라이드(28)와의 사이에 배치되며, 샘플(24), 커버 슬립(26), 슬라이드(28)는 스캐닝 스테이지(22)에 의해 지지된다. 샘플(24)은 다양한 종류의 물체 또는 샘플을 나타낼 수 있는 한편, 커버 슬립(26)과 슬라이드(28)는 유리와 같은 투명한 물질로 만들어질 수 있다. 예를 들어, 샘플(24)은 집적 회로 칩 또는 MEMS와 같은 산업용 물체 및 간 또는 신장 세포를 포함하는 생검 조직과 같은 생물학적 샘플일 수 있다.
빔 스플리터(14)는 광(30)을 샘플(24)로부터 주 광경로(32)와 보조 광경로(34)로 분할하도록 구성된다. 주 광경로(32)는 주 화상 센서(16)에 지향되고, 보조 광경로(34)는 보조 화상 센서(18)에 지향된다. 일 실시예에 있어서, 빔 스플리터(14)는 명시야 촬상이 사용되어 질 때 광(30)의 절반은 주 광경로(32)로 전송하고 광(30)의 나머지 절반은 보조 광경로(34)로 반사하는 부분 반사 필터(또는 부분적으로 투명한 미러)일 수 있다. 또한, 일 실시예에 있어서, 빔 스플리터(14)는 형광 촬상이 사용되어질 때 형광 여기 파장을 포함하는 광을 주 광경로(32)로 투과시키고, 형광 여기 파장을 제외한 광을 보조 광경로(34)에 반사하는 파장 판별 필터(또는 다이크로익 미러)일 수 있다.
일 실시예에 있어서, 주 화상 센서(16)는 보조 광경로(34)를 이용하지 않고 주 광경로(32)를 이용하여 특정 시야각에서 샘플(24)의 주 화상을 생성할 수 있다. 또한, 보조 화상 센서(18)는 주 광경로(32)를 이용하지 않고 보조 광경로(34)를 이용하여 동일 시야각에서 또는 시야각 내의 관심 영역 또는 영역들에서 샘플(24)의 보조 화상을 생성할 수 있다. 일 실시예에 있어서, 주 화상 센서(16)는 주 프레임 속도에서 주 픽셀 수로 주 화상을 생성하고, 보조 화상 센서(18)는 보조 프레임 속도에서 보조 픽셀 수로 보조 화상을 생성한다. 일 실시예에 있어서, 보조 픽셀 수는 주 픽셀 수보다 실질적으로 작고, 그 결과, 보조 프레임 속도는 주 프레임 속도보다 실질적으로 빠르다.
주 화상 센서(16)는 상용의 CCD(charge-coupled device) 기반 화상 센서와 같은 임의의 디지털 촬상 장치를 나타낼 수 있다. 마찬가지로, 보조 화상 센서(18) 역시 상용의 CCD 기반 화상 센서일 수 있다. 일 실시예에 있어서, 주 픽셀 수는 보조 픽셀 수 보다 적어도 4배 클 수 있으며, 보조 프레임 속도는 주 프레임 속도보다 적어도 4배 빠를 수 있다. 또한, 일 실시예에 있어서, 주 픽셀 수는 보조 픽셀 수 보다 적어도 10배 클 수 있으며, 보조 프레임 속도는 주 프레임 속도보다 적어도 10배 빠를 수 있다.
본 발명의 일례의 양태에 따르면, 향후의 논리 화상 세그먼트를 위한 포커스 값의 예측은, 촬상 장치(10)와 관련되는 예측가능한 변동 정보와 연계하여 최근접 측정 포커스 값들에 기초할 수 있다. 보조 화상 센서(18)는 보조 화상의 획득을 돕기 위해 구성될 수 있는데, 여기서, 다수의 보조 화상은 향후의 논리 화상 세그먼트를 위한 포커스 값을 예측하는데 사용될 수 있다. 그 후, 주 화상 센서(16)는 예측 포커스 값에서 향후의 논리 화상 세그먼트에 해당하는 주 화상을 획득할 수 있다.
대물 렌즈(12)는 Z(수직)방향으로 광축을 따라 연장된 거리만큼 샘플(24)로부터 떨어져 있으며, 대물 렌즈(12)는 Z 또는 수직 방향에 실질적으로 직교하는 X-Y 평면(측면 또는 수평 방향)에 초점면을 가진다. 또한, 대물 렌즈(12)는 특정 시야각에서 샘플(24)로부터 방출되는 광(30)을 집광하고, 광(30)을 확대하고, 광(30)을 빔 스플리터(14)에 지향시킨다. 예를 들어, 대물 렌즈(12)는 촬상 대상 샘플 형상의 크기 및 적용예에 따라 배율(magnification power)을 변경할 수 있다.
또한, 일 실시예에 있어서, 대물 렌즈(12)는 20배 또는 더 큰 배율과 0.5 개구율(작은 포커스 심도)을 제공하는 고배율 대물 렌즈일 수 있다. 대물 렌즈(12)는 샘플(24)로부터 수 밀리미터의 포커스 거리(작동 거리(working distance)라고도 함)만큼 떨어질 수 있으며, 초점면에서 750x750 마이크론 시야각으로부터 빛(30)을 집광할 수 있다. 그러나, 작동 거리, 시야각, 및 초점면 또한 현미경의 구성이나 촬상 대상 샘플(24)의 특성에 따라 변경될 수 있다. 일 실시예에 있어서, 대물 렌즈(12)는 미세한 모터 제어와 대물 렌즈(12)에 대한 빠르고 좁은 시야각 조절을 제공하기 위해 압전 엑추에이터와 같은 위치 컨트롤러에 결합될 수 있다.
일 실시예에 따르면, 촬상 장치(10)는 샘플(24)의 다수의 주 디지털 화상을 빠르게 캡쳐하도록 구성되는 고속 촬상 장치 일 수 있으며, 여기서, 각각의 주 화상은 전체 샘플의 단지 일부만을 대표하는 특정 시야각에서의 샘플(24)의 스냅샷을 나타낸다. 그 후, 각각의 주 디지털 화상은 디지털적으로 조합 또는 결합되어 전체 샘플(24)의 디지털 표현을 형성할 수 있다. 이미지 스캐닝에 앞서, 프로세서는 샘플(24)을 캡쳐 대상 주 디지털 화상을 나타내는 다수의 논리 화상 세그먼트로 세분화(subdivide)하기 위해 사용될 수 있다. 프로세서는 그 후 논리 화상 세그먼트들의 관계와 상대적인 위치에 기초하여 주 디지털 화상을 캡쳐하기 위한 가장 효과적인 순서를 판정할 수 있다. 이 샘플 스캐닝 순서를 판정하는 처리를 종종 "스캔 계획(scan planning)"이라고 지칭한다.
일 실시예에 따르면, 촬상 장치(10)는 샘플(24)이 각각 제1, 제2, 및 제3 샘플 거리에서 제1, 제2, 및 제3 측면 및/또는 수평 위치에 있는 동안에 보조 화상 센서(18)를 이용하여 샘플(24)의 제1, 제2, 및 제3 보조 화상들을 캡쳐할 수 있다. "샘플 거리"라는 용어는, 이하, 대물 렌즈와 촬상 대상 샘플과의 사이의 분리 거리를 지칭하기 위하여 사용된다. 컨트롤러(20)는 다수의 샘플 거리에서 다수의 보조 화상을 획득하기 위해 샘플(24)에 대해 대물 렌즈(12)를 Z 방향으로 수직 이동시킬 수 있다. 예를 들어, 컨트롤러(20)는 스캐닝 스테이지(22)와 샘플(24)이 고정된 수직 위치에 있는 동안에 대물 렌즈(12)를 수직 이동시킬 수 있다. 다르게는, 컨트롤러(20)는 대물 렌즈(12)가 고정된 수직 위치에 있는 동안에 스캐닝 스테이지(22) 및 샘플(24)을 수직 이동시키거나, 또는 컨트롤러(20)는 스캐닝 스테이지(22)(및 샘플(24)) 및 대물 렌즈(12) 모두를 수직 이동시킬 수 있다. 일 실시예에 있어서, 촬상 장치(10)는 다수의 샘플 거리에서 캡쳐되는 샘플(24)의 각각의 보조 화상에 대한 정량적인 특성을 판정할 수 있다. 정량적 특성은 화상 품질의 정량적 측정을 나타내며, 정량적 성능 지수(quantitative figure of merit)로 지칭할 수도 있다. 일 실시예에 있어서, 촬상 장치(10)는 적어도 다수의 보조 화상에 대하여 판정되는 정량적 특성들에 기초하여 주 샘플 거리를 판정할 수 있다. 이어서, 컨트롤러(20)는 판정된 주 샘플 거리에 대한 주 화상 센서(16)와 대물 렌즈(12)와의 거리를 조절할 수 있으며, 주 화상 센서(16)는 다음의 주 화상을 캡쳐할 수 있다. 더 상세하게 후술하는 바와 같이, 다음의 주 화상에 대한 주 포커스 값을 판정하기 위하여 예측가능한 포커스 변동 정보가 사용될 수도 있다. 정해진 시야각에서의 샘플의 주 화상은 예측된 주 포커스 값과 제1, 제2, 및 제3 측면 위치로부터 오프셋된 주 측면위치에서 주 화상 센서(16)를 이용해 캡쳐될 수 있다. 주 화상 센서(16)와 더 빠른 프레임 속도를 가지는 보조 화상 센서(18)를 조합하여 사용함으로써, 전체 샘플(24)의 전반적인 캡쳐 속도는 증가될 수 있다. 이렇게 획득된 주 화상은 데이터 저장소(36)에 저장될 수 있다.
일 실시예에 있어서, 촬상 장치(10)는 복수의 논리 화상 세그먼트에 해당하는 측정 포커스 값과 예측가능한 포커스 변동 파라미터에 기초하여 샘플을 오토포커스 하도록 구성될 수 있다. 현재 상정되는 구성에 있어서, 컨트롤러(20)는 제1 논리 화상 세그먼트와 임의의 저장된 포커스 변동 파라미터에 해당하는 측정 포커스 값에 기초하여 복수의 논리 화상 세그먼트 중 적어도 제1 논리 화상 세그먼트에 대한 측정 포커스 값의 판정과 하나 이상의 후속하는 논리 화상 세그먼트에 대한 예측 포커스 값의 판정을 돕도록 구성될 수 있다. 컨트롤러(20)의 작동은 도 2 내지 도 10에 더 자세히 설명되어 있다.
본 발명의 일례의 양태에 따르면, 촬상 장치(10) 또는 슬라이드(28)와 관련된 예측가능한 및/또는 반복적인 포커스 변동 정보는, 스캔 대상의 향후의 논리 화상 세그먼트들에 대한 포커스 값의 예측을 향상시키는 것을 돕도록, 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값과 결합하여 사용될 수 있다. 따라서, 촬상 장치(10), 더 구체적으로 스캐닝 스테이지(22) 및/또는 그 위에 샘플(24)을 배치한 슬라이드(28)에 관련되는 예측가능한 포커스 변동 정보가 얻어질 수 있다. 일 실시예에 있어서, 스캐닝 스테이지(22) 및/또는 슬라이드(28)의 반복적인 변동 정보는 다수의 슬라이드를 스캐닝하고 다양한 위치에서 측정 포커스 값을 기록함으로써 특성화될 수 있다. 여기서, 특정 실시예에서, 반복적인 변동 정보의 특성화는 기술자에 의해 수작업으로 수행될 수 있다. 다른 방법으로서, 컨트롤 소프트웨어가 일반적인 동작하에서 자동적으로 이 정보를 축적하고, 이에 따라 다양한 위치에서 포커스를 정확하게 예측하는 방법을 "학습"하도록 구성될 수 있다. 다른 특정 실시예에 있어서, 스캐닝 스테이지(22) 및/또는 슬라이드(28)와 관련된 반복적인 변동은 조정 슬라이드(calibration slide) 또는 기타의 측정 장치를 이용하여 특성화될 수 있다. 스캐닝 스테이지(22)에 대응하는 흔들림과 기울임 같은 반복적인 포커스 변동 정보가 스캐닝 스테이지(22)의 각각의 측면 및 수직 위치(x, y)에 대하여 얻어질 수 있다. 또한, 슬라이드(28)의 기울기와 같은 슬라이드(28)의 반복되는 변동 정보가 다양한 종류의 슬라이드에 대하여 얻어질 수 있다. 또한, 각각의 측면 및 수직 위치(x,y)에 해당하는 스캐닝 스테이지(22) 및/또는 슬라이드(28)의 반복적인 변동 정보가, 예를 들어, 데이터 저장소(36) 내에 포커스 변동 파라미터의 형태로 저장될 수 있다.
도 2로 돌아가서, 고속 스캐닝을 위하여 샘플을 초기화하는 일례의 방법을 나타내는 플로우차트(40)가 도시되어 있다. 본 방법은 샘플을 포함한 슬라이드를 촬상 장치에 로딩하는 단계(42)에서 시작한다. 예들 들어, 샘플(24)을 포함한 슬라이드(28)는 촬상 장치(10)(도 1 참조)의 스캐닝 스테이지(22)에 로딩될 수 있다. 또한, 슬라이드(28)는 특정 슬라이드 타입의 멤버로 식별되거나 그렇지 않으면 특성화될 수 있다. 슬라이드 식별은 수작업으로 행해질 수 있으나, 식별 마크 또는 슬라이드 특성에 따라 촬상 장치(10)에 의해 자동적으로 판정될 수도 있다. 예를 들어, 슬라이드 타입의 식별은 데이터 저장소로부터의 식별된 슬라이드 타입과 관련되는 임의의 저장된 포커스 변동 파라미터의 추후 검색을 용이하게 할 수 있다.
이어서, 단계(44)에서 전체 샘플(24)의 매크로 화상이 얻어질 수 있으며, 매크로 화상은 그 후 단계(46)에서 복수의 논리 화상 세그먼트(segment)로 세그먼팅될 수 있다. 앞서 언급한 것처럼, 논리 화상 세그먼트는 매크로 화상의 하위 구획(sub-section)을 나타내며, 이는 계산적으로 결합되거나 조합된다면, 실질적으로는 촬상되어야 하는 샘플의 부분에 해당한다. 각각의 논리 화상 세그먼트는 하나 이상의 다른 논리 화상 세그먼트와 인접할 수 있으나, 이것이 요구되는 것은 아니다. 또한, 예를 들어, 논리 화상 세그먼트는 화상 결합(image stitching)을 용이하게 하기 위해 하나 이상의 인접하는 화상 세그먼트와 소량 중첩될 수 있다. 또한, 논리 화상 세그먼트는, 정사각형과 직사각형 화상 세그먼트가 가장 통상적으로 사용되나, 원형과 육각 형상을 포함하는 다양한 형태의 기하학적 형상을 취할 수 있다. 이러한 논리 화상 세그먼트는 보통 화상 타일(image tile)이라 지칭할 수도 있다. 샘플의 매크로 화상을 복수의 논리 화상 세그먼트로 세그먼팅하는 처리는 스캔 계획 프로세스의 일부로서 수행될 수 있다.
또한, 단계(48)에 나타낸 바와 같이, 샘플(24)의 구역에 해당하는 거친 포커스 위치가 획득된 매크로 화상에 기초하여 판정될 수 있다. 이어서, 대물 렌즈(12)와 같은 대물 렌즈가 단계(50)에 도시된 바와 같이 거친 포커스 값에 해당하는 초점 거리에서의 샘플에 대하여 위치될 수 있다. 또한, 단계(50)에서, 그 후 거친 포커스 값이 판정될 수 있다. 일 실시예에 있어서, 샘플 거리를 바꾸면서 복수의 화상을 획득하고, 각 거리에서 정량적 특성(성능 지수)을 계산하고, 정량적 특성을 최적화하도록 최상의 샘플 거리를 판정함으로써 거친 포커스 값이 결정될 수 있다. 또한 일 실시예에 있어서, 샘플 거리를 변화시키면서 약 10에서 약 50까지의 범위에서 다수의 화상이 획득될 수 있다. 각각의 화상에 해당하는 정량적 특성이 계산될 수도 있다. 이어서, 3개의 "최상의" 정량적 특성이 식별될 수 있다. 구체적으로, 일 실시예에 있어서, 최대값의 정량적 특성이 식별될 수 있다. 또한, 최대값의 정량적 특성에 인접하게 배치되는 다른 2개의 정량적 특성도 식별될 수 있다. 일 실시예에 있어서, 최대값을 가지는 정량적 특성의 양측 어디에나 인접하게 위치되는 2개의 정량적 특성이 선택될 수 있다. 단봉 함수는 3개의 식별된 "최선의(best)" 정량적 특성에 일치될 수 있으며 단봉 함수의 모드가 결정될 수 있다. 일 실시예에 있어서, 단봉 함수는 로렌츠 분포 또는 이차 분포를 포함할 수 있다. 또한 일 실시예에 있어서, 함수의 모드는 단봉 함수의 정점을 포함할 수 있다. 단봉 함수의 식별된 모드 또는 정점에 기초하여 거친 포커스 값이 판정될 수 있다. 그러나, 거친 포커스 값을 판정하기 위해 다른 기술들이 사용될 수도 있다. 이러한 거친 포커스 값은 스캐닝 처리를 위한 시작 포커스 값으로서 사용될 수 있다. 이러한 거친 포커스 값은 향후의 사용을 위해 데이터 저장소(36)에 보관될 수 있다.
도 3은 본 발명의 양태에 따른 고속 화상 스캐닝 처리 동안의 오토포커싱 방법의 일례를 나타내는 플로우차트(60)이다. 더 구체적으로, 촬상 장치의 스테이지 상에 지지되는 샘플을 오토포커싱하는 방법이 제공된다. 전술한 바와 같이, 샘플(24)을 포함하는 슬라이드(28)가 촬상 장치(10)(도 1 참조)의 스캐닝 스테이지(22) 상에 로딩될 수 있다. 또한, 대물 렌즈(12)가 샘플(24)의 제1 논리 화상 세그먼트에 대한 판정된 거친 포커스 값에 해당하는 샘플 거리에 위치할 수 있다.
본 방법은 단계(62)에서 시작되어, 스캔 대상인 복수의 논리 화상 세그먼트 중 적어도 제1 논리 화상 세그먼트에 해당하는 측정 거친 포커스 값이 판정된다. 단계(62)는 도 4a 및 도 4b를 참조하여 더 잘 이해될 수 있는 것으로, 도 4a 및 도 4b는 제1 논리 화상 세그먼트에 해당하는 측정 포커스 값을 판정하는 일례의 방법을 나타내는 플로우차트(80)이다. 도 4a 및 도 4b를 참조하면, 본 방법은 단계(82)에서 시작하여, 대물 렌즈가 스캔 대상인 제1 논리 화상 세그먼트에 해당하는 제1 포커스 값에 위치한다. 일 실시예에 있어서, 제1 포커스 값은 도 2의 단계(48)에서 판정된 거친 포커스 값에 해당할 수 있다. 또한, 대물 렌즈(12)가 스캔 대상의 제1 논리 화상 세그먼트에 해당하는 제1 포커스 값에 위치되는 동안에, 화상 데이터가 주 화상 센서(16)(도 1 참조)에 의해 획득될 수 있다.
이어서, 오토포커싱을 용이하게 하기 위해 다른 포커스 값에서 샘플(24)의 복수의 보조 화상이 얻어질 수 있다. 일 실시예에 있어서, 샘플(24)의 적어도 3개의 보조 화상이 얻어질 수 있다. 더 구체적으로, 촬상 장치(10)에서 보조 화상 센서(18)(도 1 참조)는 제1 포커스 값(단계 84)에서 제1 보조 화상, 제2 포커스 값(단계 86)에서 제2 보조 화상, 제3 포커스 값(단계 88)에서 제3 보조 화상을 캡쳐할 수 있다. 일 실시예에 있어서, 샘플(24)과 대물 렌즈(12)와의 초점 거리는 각 보조 화상 사이에서 변할 수 있으며, 그 결과, 그 화상들에 대하여 상이한 포커스 값을 가져올 수 있다.
또한, 본 발명의 일 실시예에 있어서, 컨트롤러(20)(도 1 참조)는 3 개의 보조 화상의 획득을 용이하게 하기 위해 대물 렌즈(12)의 움직임을 Z방향으로 컨트롤할 수 있다. 더 구체적으로, 컨트롤러(20)는 제1, 제2, 및 제3 보조 화상을 각각 획득하기 위해 각각의 제1, 제2, 및 제3 포커스 값으로 대물 렌즈(12)를 Z방향으로 이동시키도록 구성되는 위치 컨트롤 또는 위치 컨트롤러와 통신할 수 있다. 일 실시예에 있어서, 위치 컨트롤러는 대물 렌즈(12)와 결합된 압전 엑츄에이터일 수 있다.
그러나, 대물 렌즈(12)를 통해 제1, 제2, 및 제3 보조 화상이 획득되는 동안, 스캐닝 스테이지(22) 상에 탑재된 슬라이드(28)는 대물 렌즈(12)의 움직임 방향(예를 들어, Z방향)에 실질적으로 수직한 방향(예를 들어, X-Y방향)으로 움직이고 있다. 결과적으로, 촬상 중인 컨텐츠는 슬라이드(28)가 스캐닝 스테이지(22)를 따라 움직임에 따라서 변화한다. 따라서, 대물 렌즈(12)의 시야각 내의 화상 컨텐츠는 3개의 보조 화상 각각이 획득되는 동안에 변화한다. 그러므로, 3개의 보조 화상에 해당하는 시야각 내에서 실질적으로 유사한 화상 컨텐츠를 유지하기 위해 정해진 양만큼 관심 영역을 오프셋시키는 것이 바람직하다. 따라서, 단계(90)에 나타낸 것처럼 3개의 보조 화상과 관련된 관심 영역은 3개의 보조 화상에 공통적인 화상 컨텐츠를 식별하기 위해 정해진 양만큼 오프셋될 수 있다. 일 실시예에 있어서, 오프셋 값은 스캐닝 스테이지(22)의 속도에 기초하여 판정될 수 있다. 3개의 보조 화상과 관련된 관심 영역을 오프셋시킴으로써, 3개의 보조 화상에 공통적인 가장 큰 데이터 세트(화상 컨텐츠)가 선택될 수 있다.
단계(90)는 도 5를 참조하면 더 잘 이해될 수 있다. 도 5로 돌아가서, 3개의 보조 화상과 관련된 관심 영역을 오프셋시키는 방법에 대한 도해(110)가 도시되어 있다. 참조 번호 112는 제1 포커스 값에서 획득되는 제1 보조 화상을 나타낼 수 있는 한편, 제2 포커스 값에서 획득되는 제2 보조 화상은 참조 번호 114로 표현될 수 있다. 또한, 참조 번호 116은 제3 포커스 값에서 얻어진 제3 보조 화상을 일반적으로 나타낼 수 있다.
도 5에 도시된 바와 같이, 3개의 보조 화상(112, 114, 116) 각각의 화상 컨텐츠는 대물 렌즈(12)에 대한 샘플(24)의 상대적인 측면 또는 수평 이동으로 인하여 변화한다. 전술한 바와 같이, 3개의 보조 화상에 해당하는 실질적으로 유사한 화상 데이터의 세트를 처리하기 위해, 3개의 보조 화상(112, 114, 116)의 각각에서 정해진 양만큼의 화상의 관심 영역을 오프셋시키는 것이 바람직할 수도 있다.
본 예에서, 제1 보조 화상(112)에 해당하는 관심 영역은 참조 번호 118로 나타낸다. 또한, 제1 보조 화상(112)과 제2 보조 화상(114)의 획득 사이의 스캐닝 동작 때문에, 관심 영역(118)에 해당하는 제2 보조 화상(114)의 화상 컨텐츠와 동일한 관심 영역(118)에 해당하는 제1 보조 화상(112)의 화상 컨텐츠와는 다르다. 본 발명의 양태에 따르면, 관심 영역(118)은, 관심 영역(118)에 해당하는 제1 보조 화상의 화상 컨텐츠와 실질적으로 마찬가지인, 제2 보조 화상(114)의 화상 컨텐츠 선택을 용이하게 위해 정해진 양만큼 오프셋될 수 있다. 참조 번호(120)는 제2 보조 화상(114)과 관련된 관심의 오프셋 영역을 일반적으로 나타낸다. 마찬가지의 방법으로, 제3 보조 화상(116)에 대해 관심의 오프셋 영역이 생성되어, 관심의 영역(118 및 120)의 화상 콘텐츠와 실질적으로 유사한 화상 컨텐츠의 선택을 가능하게 할 수 있다. 참조 번호 122는 제3 보조 화상(116)과 관련된 관심 영역의 오프셋을 일반적으로 나타낸다. 일 실시예에 있어서, 각 보조 화상의 관심 영역을 오프셋시킴으로써, 3개의 보조 화상(112, 114, 및 116)에 공통적인 화상 데이터의 가장 큰 부분 집합이 선택될 수 있다.
도 4a 및 도 4b를 참조하면, 단계(90)에 이어서, 3개의 보조 화상 각각에 관련된 정량적 특성이 단계(92)에 나타낸 것처럼 계산될 수 있다. 더 구체적으로, 3개의 보조 화상(112, 114, 116) 각각에 해당하는 정량적 특성은 관심 영역(118, 120, 및 122)(도 5 참조)에 해당하는 선택된 화상 컨텐츠를 이용하여 계산될 수 있다. 따라서, 각각의 초점 거리에서 동일한 영역이 평가되도록 스캐닝 움직임과 동기하여 천이하는 영역 상에서 정량적 특성이 계산될 수 있다. 일 실시예에 있어서, 컨트롤러(20)는 3개의 보조 화상(112, 114, 및 116) 각각에 해당하는 정량적 특성을 판정하는 것을 돕도록 구성될 수 있다.
본 발명의 일 실시예에 따르면, 촬상 장치(10)는 샘플(24)의 포커스을 맞추기 위한 기초로서 하나 이상의 포커스 알고리즘의 일부분으로 정량적 특성을 활용할 수 있다. 또한, 정량적 특성은 최적 포커스 값에서 최대값을 가질 수 있고 포커스가 감소하면 값이 감소하거나, 또는 다르게는, 최적 포커스 값에서 최소값을 갖고 포커스가 감소하면 값이 증가할 수 있다. 도함수 기반의 정량적 특성을 이용하는 포커스 알고리즘은, 잘 포커스된 화상이 포커스되지 않은 화상보다 고주파수의 컨텐츠를 가지는 것으로 가정한다. 통계 기반의 정량적 특성을 이용하는 포커스 알고리즘은, 분산(variance)과 상관(correlation)을 이용하여 포커스된 화상과 포커스되지 않은 화상을 구분한다. 또한, 히스토그램 기반의 정량적 특성을 이용하는 포커스 알고리즘은, 히스토그램(화상에서 주어진 강도의 픽셀의 수)을 이용하여 화상 강도의 분포와 주파수를 분석한다. 직관적인 정량적 특성을 이용하는 포커스 알고리즘은 문턱치를 초과하는 픽셀강도를 합계한다. 따라서, 정량적 특성은, 이에 한하지는 않지만, 콘트라스트, 엔트로피, 분산, 공간 주파수 컨텐츠, 자기 상관, 및 총 화상 강도를 포함하는 다양한 화상 특성에 기초할 수 있다. 또한, 최고의 정량적 특성은 촬상 모드에 의존할 수 있다. 예를 들어, 정규화된 분산은 명시야, 위상 콘트라스트, 및 미분 간섭 콘트라스트에서 전반적으로 좋은 성능을 제공할 수 있는 반면, 자기 상관은 형광에서 전반적으로 더 나은 성능을 제공할 수 있다. 마찬가지로, 도함수 기반의 브레너(Brenner) 구배 정량적 특성은, 한 픽셀과 그 이웃 픽셀 사이의 2개의 수평/수직 거리의 1차 미분(first difference)을 계산하는 것이며, 예를 들어, 투과된 명시야 촬상에 매우 적합하다.
일단 3개의 보조 화상(112, 114, 및 116)에 해당하는 정량적 특성이 판정되면, 이러한 정량적 특성은 단계(94)에 나타낸 것처럼 측정 포커스 값을 판정하기 위해 보간될 수 있다. 더 구체적으로, 일 실시예에 있어서, 정량적 특성은 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값의 판정을 용이하게 하기 위해 정량적 특성을 단봉 함수에 맞춤으로써 보간될 수 있다. 단봉 함수는 로렌츠 분포, 포물선 분포, 등을 포함할 수 있다.
일 실시예에 있어서, 촬상 장치(10)는 보조 화상(112, 114, 및 116)과 관련된 정량적 특성에 기초하여 현재의 논리 화상 세그먼트에 해당하는 주 화상을 획득하기 위한 최적의 포커스 값을 판정할 수 있다. 예를 들어, 촬상 장치(10)는 보조 화상의 최대 정량적 특성에 기초하여, 보조 화상의 정량적 특성을 이용한 최대 포커스의 보간에 기초하여, 또는 단봉함수나 분포 함수의 적어도 3개의 정량적 특성을 맞추고 단봉 함수 또는 분포 함수로부터 최대 포커스를 보간함으로써 최적의 포커스 값을 선택할 수 있다. 일 실시예에 있어서, 촬상 장치(10)는 하나 이상의 보조 화상에 대한 각각의 정량적 특성을 판정하기 위해 브레너 구배(Brenner Gradient)(n=2)를 이용한다. 또한, 일 실시예에 있어서서, 촬상 장치(10)는 로렌츠 분포가 적용된 3개의 보조 화상의 정량적 특성을 이용하여 현재의 논리 화상 세그먼트를 위한 최적의 포커스 값을 보간할 수 있다. 또 다른 실시예에 있어서, 촬상 장치(10)는 샘플(24)의 위치의 함수로서의 포커스 값들이 국지적으로 이차인 것을 인식하고 포물선 보간을 이용함으로써, 현재의 논리 화상 세그먼트에 대한 최적의 포커스 값을 보간할 수 있다.
본 발명의 일 양태에 의하면, 일련의 화상들의 브레너 구배와 이러한 화상의 각각의 포커스 심도 사이의 관계는 로렌츠 분포로 근사화될 수 있는 것이 발견되었다. 또한, 본 발명의 일 실시예에 따르면, 이차 분포는 샘플(24)의 각각의 위치에 대한 일련의 화상들의 브레너 기울기의 역수의 그래프로부터 근사화될 수 있는 것으로 판명되었다. 또한, 포커스된 화상을 렌더링하는 최적의 포커스 값은 이러한 이차 분포에서 최소값에 해당하는 것으로 발견되었다. 그 후, 단계(96)에서, 단봉 함수의 모드가 식별될 수 있다. 이 때, 특정 실시예에 있어서, 단봉 함수의 모드는 단봉 함수의 정점을 포함할 수 있다. 또한, 일 실시예에 있어서 곡선의 모드는 최소일 수 있는 한편, 또 다른 실시예에 있어서는 단봉 함수의 모드는 최대 일수 있다.
또한, 본 발명의 양태에 따르면, 최선의 포커스 근처에서의 브레너 구배는 샘플(24) 위치의 2차 함수에 의해 잘 근사화되는 것으로 판명되었다. 포커스된 화상을 렌더링하는 최적의 포커스 값은 이러한 이차 분포에서 최고값에 해당한다. 따라서, 단계(96)에서, 그 결과의 포물선의 정점이 식별될 수 있다. 앞서와 같이, 정점값이 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값을 판정하기 위해 사용될수 있다.
단계(98)에 나타낸 바와 같이, 모드 값은 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값을 판정하는데 사용될 수 있다. 더 구체적으로, 단계(98)에서, 현재의 논리 화상 세그먼트를 위한 측정 포커스 값은 단계(96)에서 식별된 모드값에 기반하여 판정될 수 있다.
본 발명의 일례의 양태에 따르면, 예측가능한 포커스 변동 정보는 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값과 연계하여 후속의 논리 화상 세그먼트를 위한 최적의 포커스 값을 예측하기 위해 사용될 수 있다. 스캔 대상의 후속 논리 화상 세그먼트에 해당하는 예측가능한 포커스 변동 정보가 검색되어지거나 또는 단계(100)에 나타낸 것처럼 판정될 수 있다. 일 실시예에 있어서, 스캐닝 스테이지(22) 및/또는 슬라이드(28)와 관련된 예측가능한 포커스 변동 정보를 나타내는 저장된 포커스 변동 파라미터들은, 예를 들어, 데이터 저장소(36)(도 1 참조)로부터 검색될 수 있다. 일례에 있어서, 스캐닝 스테이지(22) 및/또는 슬라이드(28)의 후속 위치(예를 들어, (x,y) 좌표)와 관련된 저장된 포커스 변동 파라미터들은 데이터 저장소(36)로부터 검색되어 질 수 있다.
또한, 전술한 바와 같이, 스캔 대상의 각각의 논리 화상 세그먼트를 위한 최적의 포커스 값이, 적어도 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값 및 임의의 대응하는 저장된 포커스 변동 파라미터들에 기초하여 예측될 수 있다. 따라서, 단계(102)에서, 남아있는 스캔 대상의 순서상 다음의 논리 화상 세그먼트를 위한 최적의 포커스 값이, 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값 및 임의의 대응하는 저장된 포커스 변동 파라미터들에 기초하여 예측될 수 있다. 예를 들어, 단계(102)에서, 순서상 다음의 논리 화상 세그먼트를 위한 예측 포커스 값은 단계(98)에서 정해진 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값과 단계(100)에서 검색된 임의의 저장된 포커스 변동 파라미터들에 기초하여 판정될 수 있다. 또한, 스캐닝 스테이지(22)와 관련된 저장된 포커스 변동 파라미터는 스캐닝 스테이지(22) 또는 반복적인 슬라이드(28)의 특성과 관련된 앞서 판정된 흔들림(wobble) 및/또는 기울임(tilt) 정보를 포함할 수 있다.
이어서, 단계(104)에서, 대물 렌즈(12)는 순서상 다음의 논리 화상 세그먼트에서 화상 데이터의 획득을 용이하게 하기 위해 예측 포커스 값에 해당하는 샘플 거리에 위치될 수 있다. 또한, 대물 렌즈가 예측 포커스 값에 해당하는 샘플 거리에 위치되는 동안, 화상 데이터 또는 주 화상이 순서상 다음의 논리 화상 세그먼트에서 획득될 수 있다.
도 3을 다시 참조하면, 단계(64)에서, 제1 논리 화상 세그먼트는 제1 논리 화상 세그먼트에 해당하는 측정 거친 포커스 값을 사용하여 촬상될 수 있다. 더 구체적으로, 주 화상 센서(16)(도 1 참조)는, 대물 렌즈(12)가 제1 논리 화상 세그먼트를 위한 측정 포커스 값에 해당하는 샘플 거리에 배치되는 동안, 제1 논리 화상 세그먼트에 해당하는 제1 주 화상을 캡쳐할 수 있다. 또한, 제1 논리 화상 세그먼트에 해당하는 측정 거친 포커스 값은 향후 사용을 위해 데이터 저장소(36)에 저장될 수 있다.
이어서, 단계(66)에서, 대물 렌즈(12)가 제1 논리 화상 세그먼트에서 순서상 다음의 논리 화상 세그먼트로 이동하는 동안에 추가의 측정 포커스 값이 판정될 수 있다. 일 실시예에 있어서, 순서상 다음의 논리 화상 세그먼트는 제2 논리 화상 세그먼트를 포함할 수 있다.
본 발명의 또 다른 양태에 따르면, 제2 논리 화상 세그먼트를 위한 포커스 값은, 제2 논리 화상의 최근접 이웃과 관련되는 측정 포커스 값을 이용하여, 촬상 장치(10)와 관련되는 예측가능한 포커스 변동 정보에 대한 조절로 예측될 수 있다. 더 구체적으로, 스캔 대상의 제2 논리 화상 세그먼트에 해당하는 위치에 샘플(24)을 스캐닝 스테이지(22)에 위치시키기 전에, 제2 논리 화상 세그먼트를 위한 포커스 값이 예측되어질 수 있다. 예를 들어, 스캔 대상의 제2 논리 화상 세그먼트를 위한 포커스 값은, 제1 논리 화상 세그먼트(예를 들어, 단계(66)에서 판정된)를 위한 측정 포커스 값과 단계(68)에 나타낸 것처럼 하나 이상의 저장된 포커스 변동 파라미터에 기초하여 예측되어질 수 있다.
일단 제2 논리 화상 세그먼트를 위한 예측 포커스 값이 판정되면, 대물 렌즈(12)는 제2 논리 화상 세그먼트에서 화상 데이터의 획득을 용이하게 하기 위해 예측 포커스 값에 해당하는 샘플 거리에 위치될 수 있다. 더 구체적으로, 컨트롤러(20)(도 1 참조)는 대물 렌즈(12)와 샘플(24)과의 거리를 제2 논리 화상 세그먼트에 대한 대물 렌즈(12)의 도달 전의 예측 포커스 값으로 조절할 수 있다. 이어서, 단계(70)에서, 제2 논리 화상 세그먼트는 제2 논리 화상 세그먼트에 해당하는 정해진 예측 포커스 값을 이용하여 촬상될 수 있다. 예를 들어, 일 실시예에 있어서, 주 화상 센서(16)(도 1 참조)는, 대물 렌즈(12)가 제2 논리 화상 세그먼트에 해당하는 예측 포커스 값에 해당하는 샘플 거리에 위치하는 동안, 제2 논리 화상 세그먼트에 해당하는 제2 주 화상을 캡쳐할 수 있다. 여기서 다시, 제2 논리 화상 세그먼트에 해당하는 예측 포커스 값이 향후 사용을 위해 데이터 저장소(36)에 저장될 수 있다.
이상 설명한 바와 같이 오토포커싱 방법을 구현함으로써, 샘플(24)이 제1 논리 화상 세그먼트에 해당하는 제1 위치로부터 제2 논리 화상 세그먼트에 해당하는 제2 위치에 재배치되는 동안에 제2 논리 화상 세그먼트를 위한 예측 포커스 값이 판정될 수 있다. 결과적으로, 샘플이 제1 논리 화상 세그먼트에 해당하는 제1 위치에서 제2 논리 화상 세그먼트에 해당하는 제2 위치로 재배치되는 동안에 제2 논리 화상 세그먼트를 위한 예측 포커스 값이 계산되므로, 스캔 속도가 크게 증가될 수 있다. 제2 논리 화상 세그먼트에 도달한 후에 포커스를 조절할 필요가 없어짐으로써 스캐닝 속도가 향상될 수 있다. 또한, 예측가능한 변동을 위한 조절과 함께 측정 포커스 값 부근을 이용하여 예측 포커스 값이 판정되어지므로, 화상 품질을 최소한으로 감소시키면서 포커스 값의 정확한 예측이 성취된다.
이 때, 도 2 내지 도 5를 참조하여 설명한 바와 같이, 각각의 복수의 논리 화상 세그먼트 사이의 포커스를 조절하는 동안에 남아있는 복수의 논리 화상 세그먼트가 스캔될 수 있다. 구체적으로, 순서상 다음의 논리 화상 세그먼트를 위한 예측 포커스 값은, 스캐닝 스테이지(22) 및/또는 슬라이드(28)로 인한 예측된 변동이 조절된 현재의 논리 화상 세그먼트에 대한 측정 포커스 값에 기초하여 판정될 수 있다.
본 발명의 또 다른 양태에 따르면, 후속하거나 또는 순서상 다음의 논리 화상 세그먼트를 위한 예측 포커스 값 또한, 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값 또는 이전 행에 인접하는 논리 화상 세그먼트에 해당하는 측정 포커스 값에 기초하여 판정될 수 있다. 그러나, 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값의 이전 행에 인접하는 논리 화상 세그먼트에 해당하는 측정 포커스 값의 평균이 순서상 다음의 논리 화상 세그먼트를 위한 예측 포커스 값을 판정하는데 사용될 수 있다. 또한, 본 발명의 또 다른 양태에 따르면, 현재의 논리 화상 세그먼트 또는 이전 행에 인접하는 논리 화상 세그먼트에 해당하는 측정 포커스 값을 이용할 수 없다면, "최근접한 이웃의" 논리 화상 세그먼트에 해당하는 측정 포커스 값이 순서상 다음의 논리 화상 세그먼트를 위한 예측 포커스 값을 판정하기 위하여 예측 변동 정보와 연계하여 이용될 수 있다. 따라서, 스캔 대상인 향후의 논리 화상 세그먼트를 위한 최적의 포커스 값은 앞서 판정된 측정 포커스 값과 예측가능한 포커스 변동 정보를 조합하여 예측될 수 있다. 예를 들어, 현재 행과 이전 열로부터의 측정 포커스 값들 또는 현재 열과 이전 행으로부터의 측정 포커스 값들 또는 양측의 평균이 사용될 수 있다. 그러나, 값을 이용할 수 없다면, 최근접한 측정 포커스 값이 식별되고, 예측가능한 포커스 변동 정보와 조합하여 사용되어, 향후의 논리 화상 세그먼트를 위한 최적의 포커스 값을 예측한다.
또한, 제1 영역에 해당하는 복수의 논리 화상 세그먼트는, 이상 설명한 바와 같이, 논리 화상 세그먼트 사이의 포커스를 조절하는 동안, 복수의 논리 화상 세그먼트에 해당하는 주 화상들을 얻도록 스캔될 수 있다. 일단 제1 영역이 스캔되면, 샘플(24)의 다른 영역 또한, 만약 있다면, 이상 설명한 바와 같이 스캔될 수 있다. 특정 실시예에 있어서, 획득된 주 화상은 화상들의 시각화를 용이하게 하기 위해 후처리될 수 있으며 시각화된 화상은 임상의가 질병 상태를 진단하는 것을 도울 수 있다. 예를 들어, 주 화상은 화상 등록 프로세스의 어플리케이션을 통해 처리될 수 있다. 이어서, 등록된 화상은 통합된 화상을 생성하기 위해 결합될 수 있다. 또한, 화상은 저장을 위해 처리되거나 압축될 수 있다. 특정 실시예에 있어서, 처리된 화상은 데이터 저장소(36)에 저장될 수 있다. 샘플(24)의 모든 영역이 일단 스캔되면, 스캐닝 스테이지(22)는 하강될 수 있으며, 슬라이드(28)는 또 다른 슬라이드로 교체될 수 있다.
이상 설명한 오토포커싱 방법은 도 6을 참조하면 더 잘 이해될 수 있다. 도 6을 참조하면, 본 발명의 양태에 따른 고속 스캐닝 처리 동안의 오토포커싱 방법의 도해적 예시(130)가 도시되어 있다. 전술한 바와 같이, 대물 렌즈(12)와 샘플(24)을 유지하기 위한 스캐닝 스테이지(22)를 가지는 촬상 장치(10)(도 1 참조)에 있어서, 오토포커싱 방법은 스캐닝 스테이지(22) 상에 슬라이드(28)를 로딩하고 샘플(24)을 포함한 슬라이드(28)를 식별하는 것을 포함한다. 슬라이드(28)는 데이터 저장소(36)로부터 해당하는 저장된 포커스 변동 파라미터의 검색을 용이하게 하기 위해 식별될 수 있다. 이어서, 샘플(24)의 스캔 계획 준비를 돕기 위해 샘플(24)의 매크로 화상(132)이 획득될 수 있다. 더 구체적으로, 매크로 화상(132)을 이용하여, 샘플(24)이 복수의 영역으로 분할될 수 있으며, 여기서 복수의 영역들 각각은 복수의 논리 화상 세그먼트를 포함할 수 있다. 이 때, 특정 실시예에 있어서, 매크로 화상(132)은 하나를 초과하는 영역이 없는 상태로 그대로 복수의 논리 화상 세그먼트로 세그먼팅될 수 있다. 도 6의 예에서, 매크로 화상(132)은 대개 참조 번호 134로 표시된 복수의 논리 화상 세그먼트에 그대로 세그먼팅된다.
또한, 본 예에 있어서, 참조 번호 136은 주어진 스캔 계획에 기초하여 시작 논리 화상 세그먼트를 일반적으로 나타낼 수 있다. 여기서, 시작 논리 화상 세그먼트와 제1 논리 화상 세그먼트라는 용어는 서로 바꾸어 사용될 수 있다. 또한, 참조 번호 138은 제2 논리 화상 세그먼트를 나타낼 수 있는 한편, 제3 논리 화상 세그먼트는 참조 번호 140으로 표현될 수 있다. 마찬가지로, 참조 번호(142)는 제4 논리 화상 세그먼트를 나타낼 수 있는 한편, 참조 번호(144)는 제5 논리 화상 세그먼트를 나타낼 수 있다. 여기서, 본 예에 있어서 예시를 목적으로, 오토포커싱 방법은 오직 선택된 논리 화상 세그먼트의 부분집합, 즉 제1, 제2, 제3, 제4, 및 제5 논리 화상 세그먼트(136, 138, 140, 142 및 144)를 참조하여 설명한다. 또한, 참조 번호 146는 스캔의 방향을 표시할 수 있다. 또한, 전술한 바와 같이, 매크로 화상(132)은 샘플(24)의 스캐닝을 시작하기 전에 거친 포커스 위치(148)를 판정하기 위해 활용될 수 있다. 본 예에 있어서, 매크로 화상(132)에 해당하는 거친 포커스 위치(148)는 샘플(24)의 논리 화상 세그먼트의 스캐닝 시작에 앞서 판정될 수 있고, 이러한 거친 포커스 위치(148)는 또한 제1 주 화상이 얻어질 시작 논리 화상 세그먼트(136)에 해당한다. 따라서, 본 예에서 예시한 바와 같이, 상이한 샘플 거리에서 복수의 보조 화상을 획득하고 앞서 설명한 바와 같이 최적의 샘플 거리를 계산함으로써 시작 논리 화상 세그먼트(136)에 해당하는 초기의 거친 포커스 위치(148)에서 거친 포커스 값이 판정될 수 있다.
이어서, 샘플(24)의 스캐닝이 초기의 거친 포커스 위치(148)에서 판정된 거친 포커스 값에 기초하여 개시될 수 있다. 그 후, 시작 논리 화상 세그먼트(136)에서의 샘플(24)에 대하여 판정된 거친 포커스 값에 해당하는 샘플 거리에 대물 렌즈(12)가 위치될 수 있다. 더 구체적으로, 시야각이 포커스 내에 있어서 포커스 값이 거친 포커스 값에 조절될 수 있으며, 시작 논리 화상 세그먼트(136)를 위한 화상이 획득될수 있다.
거친 포커스 값의 판정과 시작 논리 화상 세그먼트(136)를 위한 주 화상의 획득에 이어서, 본 발명의 또 다른 양태에 따라서 제1 논리 화상 세그먼트(138)를 위한 측정 포커스 값이 판정될 수 있다. 더 구체적으로, 샘플(24)이 시작 논리 화상 세그먼트(136)로부터 제2 위치, 즉 제2 논리 화상 세그먼트(138)의 중심에 재배치되는 동안, 제1 논리 화상 세그먼트(136)에 해당하는 측정 포커스 값이 판정될 수 있다. 그 후, 제1 논리 화상 세그먼트(136)에 해당하는 이러한 측정 포커스 값은, 예를 들어, 제2 논리 화상 세그먼트(138)와 같은 스캔 대상의 순서상 다음의 논리 화상 세그먼트의 촬상을 대비하여 사용될 수 있다. 전술한 바와 같이, 측정 포커스 값은 해당하는 포커스 값들에서 적어도 3개의 보조 화상을 획득함으로써 판정될 수 있다. 예를 들어, 제1 보조 화상은 실질적으로 거친 포커스 값과 동일한 제1 포커스 값에서 얻어질 수 있으며, 제2 보조 화상은 거친 포커스 값 미만인 제2 거친 포커스 값에서 얻어질 수 있으며, 제3 보조 화상은 거친 포커스 값보다 큰 제3 포커스 값에서 얻어질 수 있다. 또한, 3개의 보조 화상들 내의 관심 영역은 3개의 보조 화상들에 공통적인 화상 컨텐츠를 선택할 수 있도록 오프셋될 수 있다.
또한, 3개의 보조 화상의 선택된 화상 컨텐츠에 해당하는 정량적 특성이 계산될 수 있다. 이 3개의 정량적 특성들은 그 후 제2 논리 화상 세그먼트(138)의 촬상을 대비한 측정 포커스 값을 얻기 위해 보간될 수 있다. 더 구체적으로, 로렌츠 분포와 같은 단봉 함수는 3개의 보조 화상에 해당하는 3개의 정량적 특성에 맞추어 질 수 있다. 단봉 함수의 모드가 식별될 수 있으며, 여기서 곡선의 모드는 제2 논리 화상 세그먼트(138) 촬상을 대비한 측정 포커스 값을 나타낼 수 있다. 한편, 측정 포커스 값은 샘플(24) 내의 다른 논리 화상 세그먼트들을 위한 예측 포커스 값의 계산에 사용하기 위해 데이터 저장소(36)에 저장될 수 있다.
본 발명의 또 다른 양태에 따르면, 샘플(24)의 현재 위치(x, y)와 관련된 임의의 저장된 포커스 변동 파라미터들이 데이터 저장소(36)로부터 검색될 수 있다. 이어서, 예측 포커스 값은 가능하다면 측정 포커스 값과 저장된 포커스 변동 파라미터에 기초하여 판정될 수 있다. 특정 실시예에 있어서, 예측 포커스 값이 데이터 저장소(36)에 저장될 수 있다.
예를 들어, 도 6에 예시된 것처럼, 제2 논리 화상 세그먼트(138)의 촬상을 대비한 측정 미세 포커스 값(z1)은 시작 논리 화상 세그먼트(136)에서 시작해서 제2 논리 화상 세그먼트(138)로 계속되는 영역(150)에서 계산될 수 있다. 결과적으로, 제2 논리 화상 세그먼트(138)에 해당하는 예측 포커스 값은 대물 렌즈(12)에 대해 제2 논리 화상 세그먼트(138)의 중심이 도달하기 전에 판정된다. 제2 논리 화상 세그먼트(138)에 해당하는 주 화상은 예측 포커스 값에 해당하는 샘플 거리에 대물 렌즈(12)가 위치될 때 획득될 수 있다. 주 화상은 데이터 저장소(36)에 저장될 수 있다. 또한, 이상 설명한 바와 같이 예측 포커스 값을 판정함으로써, 스캐닝 스테이지(22)는 제2 논리 화상 세그먼트(138)에 해당하는 측정 포커스 값의 판정에 맞추기 위해 제2 논리 화상 세그먼트(138)에서 멈출 필요가 없어, 스캐닝 속도가 향상될 수 있다.
본 발명의 양태에 따르면, 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값에 기초하여 순서상 다음의 논리 화상 세그먼트를 위한 예측 포커스 값이 판정될 수 있다. 전술한 바와 같이, 일 실시예에 있어서, 오토포커싱 방법은 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값과 임의의 관련된 저장된 포커스 변동 파라미터에 기초하여 순서상 다음의 논리 화상 세그먼트를 위한 예측 포커스 값을 판정하는 것을 포함할 수 있다. 본 예에 있어서, 현재의 논리 화상 세그먼트는 제1 논리 화상 세그먼트(136)를 포함할 수 있으며, 다음의 논리 화상 세그먼트는 제2 논리 화상 세그먼트(138)를 포함할 수 있다. 이러한 오토포커싱 방법은 도 7을 참조하면 더 잘 이해될 수 있다.
도 7을 다시 참조하면, 오토포커싱 일례의 방법의 도해적 예시(170)가 도시되어 있다. 더 구체적으로, 현재의 논리 화상 세그먼트(172)에 해당하는 측정 포커스 값에 기초한 순서상 다음의 논리 화상 세그먼트(174)를 위한 예측 포커스 값을 판정함으로써 오토포커싱하는 방법이 도 7에 나타나 있다. 여기서, 도 7에 표시된 예에 있어서, 순서상 다음의 논리 화상 세그먼트(174)는 현재의 논리 화상 세그먼트(172)에 인접하게 배치된다. 전술한 바와 같이, 순서상 다음의 논리 화상 세그먼트(174)에 해당하는 예측가능한 포커스 변동 정보는 순서상 다음의 논리 화상 세그먼트(174)를 위한 예측 포커스 값의 판정을 돕기 위해 데이터 저장소(36)(도 1 참조)로부터 검색될 수 있다. 참조 번호 176은 스캔 방향을 나타낸다. 또한, 본 발명의 일례의 양태에 따르면, 샘플이 현재의 논리 화상 세그먼트(172)에 해당하는 제1 위치로부터 참조 번호 178로 표시된 바와 같이 순서상 다음의 논리 화상 세그먼트(174)에 해당하는 제2 위치에 재배치되는 동안 순서상 다음의 논리 화상 세그먼트(174)를 위한 예측 포커스 값의 판정이 행해진다. 순서상 다음의 논리 화상 세그먼트(174)를 위한 예측 포커스 값을 판정하고, 샘플이 현재의 논리 화상 세그먼트(172)에 해당하는 제1 위치로부터 순서상 다음의 논리 화상 세그먼트(174)에 해당하는 제2 위치에 재배치되는 동안에 해당하는 포커스 값 조절을 구현함으로써 스캐닝 속도가 향상될 수 있다.
도 6을 다시 참조하면, 일단 순서상 다음의 논리 화상 세그먼트를 위한 예측 포커스 값이 판정되면, 대물 렌즈(12)는 현재의 논리 화상 세그먼트(136)에 해당하는 제1 위치로부터 순서상 다음의 논리 화상 세그먼트(138)에 해당하는 제2 위치에 재배치되기 전에 판정된 예측 포커스 값에 해당하는 샘플 거리에 위치될 수 있다. 순서상 다음의 논리 화상 세그먼트(138)에 해당하는 주 화상은 제2 논리 화상 세그먼트(138)에 대한 예측 포커스 값에 해당하는 샘플 거리에 대물 렌즈(12)를 위치시켜 획득될 수 있다.
본 발명의 또 다른 일례의 양태에 따르면, 현재의 논리 화상 세그먼트가 백색 공간을 상당 부분 포함한다면, 순서상 다음의 논리 화상 세그먼트를 위한 예측 포커스 값은 이전 열에서 인접한 논리 화상 세그먼트에 해당하는 측정 포커스 값에 기초하여 판정될 수 있다. 또한, 이전 열에서 인접한 논리 화상 세그먼트에 해당하는 측정 포커스 값을 이용할 수 없다면, 순서상 다음의 논리 화상 세그먼트에 해당하는 예측 포커스 값을 판정하기 위해 이전 행 또는 열 부근의 논리 화상 세그먼트에 해당하는 측정 포커스 값이 채용될 수 있다. 도 6의 본 예에 있어서, 시야각이 제3 논리 화상 세그먼트(140)에 위치하기 전에 여러개의 이러한 백색 공간들이 스캔 될 수 있다. 본 오토포커싱 방법은 도 8을 참조하면 더 잘 이해될 수 있다.
도 8을 참조하면, 오토포커싱 방법의 도해적 예시(180)가 나타나 있다. 더 구체적으로, 현재의 논리 화상 세그먼트(r 행, c 열)(182)를 위한 측정 포커스 값이 이용 가능하면, 현재의 논리 화상 세그먼트(182)에 해당하는 측정 포커스 값에 기초하여 순서상 다음의 논리 화상 세그먼트(r 행, c+1 열)(184)를 위한 예측 포커스 값이 판정될 수 있다. 그러나, 현재의 논리 화상 세그먼트(182)에 해당하는 측정 포커스 값을 이용할 수 없거나 또는 현재의 논리 화상 세그먼트(182)가 많은 양의 백색 공간을 포함한다면, 순서상 다음의 논리 화상 세그먼트(184)를 위한 예측 포커스 값은 이전 행(r-1)에 인접한 논리 화상 세그먼트(r-1 행, c+1 열)(186)에 해당하는 측정 포커스 값에 기초하여 판정될 수 있다. 또한, 인접한 논리 화상 세그먼트(186)에 해당하는 측정 포커스 값을 이용할 수 없다면, 순서상 다음의 논리 화상 세그먼트(184)를 위한 예측 포커스 값은 이전 행(r-1)에 이웃하는 그러나 반드시 인접하지 않은 논리 화상 세그먼트(r-1 행, c+2 열)(188)에 해당하는 측정 포커스 값에 기초하여 판정될 수 있다. 또한, 전술한 바와 같이, 각각의 논리 화상 세그먼트에 해당하는 저장된 포커스 파라미터들은 예측 포커스 값의 판정을 용이하게 하기 위해 데이터 저장소(36)로부터 검색될 수 있다. 참조 번호 190은 스캔 방향을 나타낸다.
도 6을 다시 참조하면, 본 예에 있어서, 시야각이 제3 논리 화상(140)으로 리턴되기 전에 수개의 백색 공간 세그먼트들이 스캔된다. 도 8을 참조하여 설명하는 바와 같이, 제3 논리 화상 세그먼트(140)를 위한 예측 포커스 값은 제2 논리 화상 세그먼트(138)에 해당하는 측정 포커스 값(Z1)에 기초하여 판정될 수 있다. 또한, 제3 논리 화상 세그먼트(140)의 위치에 해당하는 저장된 포커스 변동 파라미터와 같은 예측가능한 포커스 변동 정보에 기초하여 예측 포커스 값이 판정될 수도 있다. 일 실시예에 있어서, 예측가능한 포커스 변동은 논리 화상 세그먼트에 해당하는 (x,y)값의 함수로 특성화될 수 있다. 전술한 바와 같이, 예측가능한 포커스 변동은 다수의 이전 스캔으로부터의 데이터를 수동 또는 자동으로 분석하여 조정(calibration)될 수 있다. 따라서, 일 실시예에 있어서, 예측가능한 포커스 변동(PFV)는 다음과 같이 특성화될 수 있다.
PFV = [ax + by] (1)
여기서, a는 x 방향에서의 스캐닝 스테이지(22)의 기울기, b는 y방향에서의 스캐닝 스테이지(22)의 기울기를 나타내고, (x, y)는 제2 논리 화상 세그먼트(138) 또는 제3 논리 화상 세그먼트(140)를 나타내는 위치 값이다.
따라서, 제3 논리 화상 세그먼트(140)를 위한 최적의 예측 포커스 값(Zpred)은 최근접하는 측정 포커스 값(제2 논리 화상 세그먼트(138)에 해당하는 측정 포커스 값(z1))과 저장된 포커스 변동 파라미터를 이용하여 다음과 같이 판정될 수 있다.
z pred = z1 + [a(x2 + x1) + b(y2 - y1)] (2)
일 실시예에 있어서, 예측 가능한 포커스 변동(PFV)(수식(1) 및 측정 포커스 값(수식(2)))의 계산은 선형 함수를 포함할 수 있다. 그러나, 다른 특정 실시예에서, 예측가능한 포커스 변동과 측정 포커스 값을 계산하는데 비선형 함수가 사용될 수 있다.
마찬가지로, 제4 논리 화상 세그먼트(142)를 위한 예측 포커스 값은 최근접 측정 포커스(z3)를 이용하여 예측될 수 있는 반면, 제5 논리 화상 세그먼트(144)를 위한 예측 포커스 값은 최근접 측정 포커스 값(z4)에 기초하여 판정될 수 있다. 따라서, 현재의 논리 화상 세그먼트를 위한 부근의 측정 포커스 정보는 스캔 대상의 향후의 논리 화상 세그먼트를 위한 예측 포커스 값을 추정하기 위해 스캐닝 스테이지(22), 슬라이드(28), 및/또는 기타의 재현가능한 변동에 관한 저장된 조정(calibration) 정보와 조합될 수 있다.
도 9를 참조하면, 도 1의 컨트롤러(20)의 일 실시예(200)가 도시되어 있다. 전술한 바와 같이, 컨트롤러(20)는 복수의 논리 화상 세그먼트 중의 제1 논리 화상 세그먼트에 해당하는 측정 포커스 값을 판정하고, 측정 포커스 값을 이용하여 제1 논리 화상 세그먼트를 촬상하고, 측정 포커스 값과 저장된 포커스 변동 파라미터를 이용하여 복수의 논리 화상 세그먼트 중 제2 논리 화상 세그먼트를 위한 예측 포커스 값을 판정하고, 예측 포커스 값을 이용하여 제2 논리 화상 세그먼트를 촬상하도록 구성될 수 있다. 현재 상정되는 구성에 있어서, 컨트롤러(20)는 컨트롤 모듈(202)과 화상 획득 모듈(204)을 포함할 수 있다.
컨트롤 모듈(202)은 슬라이드(28) 상에 배치된 샘플(24)의 스캐닝을 제어하도록 구성되어, 촬상 장치(10)의 스캐닝 스테이지(22)에 의해 지지될 수 있다. 예시된 실시예에 있어서, 컨트롤 모듈(202)은 매크로 화상과 스캔 계획 성분(206), 오토포커싱 성분(208), 동작 제어 성분(210), 및 타이밍 성분(212)을 포함하는 것으로 도시되어 있다. 매크로 화상과 스캔 계획 성분(206)은 매크로 화상의 획득과 샘플(24)의 스캔 계획 생성을 용이하게 하도록 구성될 수 있다. 또한, 매크로 화상과 스캔 계획 성분(206)은 사용자 인터페이스와의 통신 및 촬상 장치(10)의 제어를 가능하게 하도록 구성될 수도 있다.
오토포커싱 성분(208)은 스캔 계획 성분(206)에 의해 계획되는 스캐닝 순서를 제어하도록 구성될 수 있다. 또한, 오토포커싱 성분(208)은 보조 화상 센서(18)에 의해 획득되는 보조 화상의 획득과 처리를 돕도록 구성될 수 있다. 또한, 오토포커싱 성분(208)은 보조 화상과 관련된 정량적 특성의 계산을 돕도록 또한 구성될 수 있다. 또한, 오토포커싱 성분(208)은 데이터 저장소(36)에 측정 포커스 값 및 예측 포커스 값의 저장과 데이터 저장소(36)로부터의 저장된 포커스 변동 파라미터의 검색을 용이하게 하도록 구성될 수 있다. 또한, 오토포커싱 성분(208)은 데이터 저장소(36)에 촬상 장치(10)에 의해 획득된 보조 화상들의 저장을 용이하게 하도록 구성될 수 있다.
도 9를 계속 참조하면, 움직임 제어 성분(210)은 촬상 장치(10)의 스캐닝 스테이지(22)로부터 하나 이상의 슬라이드를 로딩 및/또는 언로딩(unload)하는 것을 용이하게 하도록 구성될 수 있다. 또한, 움직임 제어 성분(210)은 스캐닝 시퀀스를 시작하기 전에 거친 포커스 값을 계산하는 것을 돕도록 사용될 수도 있다. 또한, 움직임 제어 성분(210)은 X-Y 방향으로 스캐닝 동작 제어를 용이하게 하도록 활용될 수 있다.
또한, 타이밍 성분(212)은 촬상 장치(10)의 다양한 성분의 동작을 동기화하도록 구성될 수 있다. 더 구체적으로, 타이밍 성분(212)은 보조 화상과 주 화상의 획득을 제어하거나 동기화하기 위한 타이밍 신호를 생성하도록 구성될 수 있다. 특정 실시예에 있어서, 타이밍 성분(212)은 위치 컨트롤러의 움직임을 또한 제어할 수 있다.
또한, 화상 획득 모듈(204)은 촬상 장치(10)의 주 화상 센서(16)에 의한 주 화상의 획득을 용이하게 하도록 구성될 수 있다. 또한, 화상 획득 모듈(204)은 획득된 주 화상을 후처리하도록 채용될 수도 있다. 예를 들어, 화상 획득 모듈(204)은 획득된 주 화상의 등록을 용이하게 하도록 사용될 수 있다. 획득 모듈(204)은 화상의 시각화를 위해 주 화상을 결합하는 계획의 생성을 돕도록 구성될 수 있다.
당업자라면 이해할 수 있듯이, 상기한 예시, 시연, 컨트롤러(20)에 의해 수행되는 등의 처리 단계들은 범용 또는 특수 목적의 컴퓨터 등의 프로세서 기반의 시스템 상에서 적합한 코드로 구현될 수 있다. 이 때, 본 발명의 다른 구현예들이 본 명세서에 기재된 일부 또는 모든 단계들을 상이한 순서로 또는 실질적으로 동시에, 즉, 병렬로 수행할 수 있다. 또한, 함수들은, 이에 한하지 않지만, C++ 또는 자바를 포함하는 다양한 프로그래밍 언어로 구현될 수 있다. 이러한 코드는, 당업자라면 이해할 수 있듯이, 저장된 코드를 실행하도록 프로세서 기반 시스템에 의해 액세스 될 수 있는, 메모리 칩, 로컬 또는 원격 하드 디스크, 광 디스크(즉, CD 또는 DVD), 또는 기타의 매체 등의 하나 이상의 현실의 기계 판독 가능한 매체에 저장되거나 또는 저장하도록 채택될 수 있다. 여기서, 현실의 매체는 인스트럭션이 인쇄된 종이 또는 또 다른 적합한 매체를 포함할 수 있다. 예를 들어, 인스트럭션은 종이 또는 기타의 매체의 광학 스캐닝을 통해 전자적으로 캡쳐될 수 있으며, 그 후 컴파일되고, 번역되거나, 필요시 적당한 방법으로 처리된 후, 컴퓨터 메모리에 저장된다.
도 10을 참조하면, 본 발명의 일례의 양태에 따른 오토포커싱을 수행하는 일례의 타이밍도(220)가 도시되어 있다. 일 실시예에 있어서, 촬상 장치(10)의 다양한 성분들의 신호 타이밍은 도 9의 타이밍 성분(212)에 의해 제어 및 동기화될 수 있다. 도 10 및 이하의 설명은 지정 시간 증분을 참조하고 있으나, 이러한 타이밍은 오직 예시를 위한 목적이다. 촬상 장치(10)와 그 성분들이 동작하는 속도는 기술에 따라 스케일될 수 있으므로, 임의의 특정한 세부사항은 제한으로 해석해서는 안 되는 것으로 이해될 수 있을 것이다.
현재의 논리 화상 세그먼트(타일 n)에서, 타이밍 성분(212)은 주 화상 센서(16)(도 1 참조)를 트리거할 수 있다. 이어서, 주 화상 센서(16)를 위한 획득 컨트롤이 오픈될 수 있다. 일 실시예에 있어서, 주 화상 센서(16)를 위한 획득 컨트롤은 주 화상 센서(16)의 셔터를 포함할 수 있다. 또한, 일 실시예에 있어서, 주 화상 센서(16)의 셔터는 약 1 밀리초 동안 오픈될 수 있다. 그 후, 보조 화상 센서(18)(도 1 참조)는 보조 화상 획득을 용이하게 하도록 트리거될 수 있다. 전술한 바와 같이, 보조 화상 센서(18)는 현재의 논리 화상 세그먼트에 해당하는 측정 포커스 값의 판정을 돕도록 상이한 포커스 값에서 3개의 보조 화상을 획득하도록 구성될 수 있다. 따라서, 보조 화상 센서(18)는 3개의 다른 시간에서 트리거 될 수 있다. 각각의 트리거에서, 보조 화상 센서(18)의 획득 컨트롤이 대응하는 보조 화상을 획득하도록 오픈될 수 있다. 일 실시예에 있어서, 보조 화상 센서(18)의 획득 컨트롤은 보조 화상 센서(18)의 셔터를 포함할 수 있다. 또한, 일 실시예에 있어서, 보조 화상 센서(18)는 각각의 트리거 사이에 약 10 밀리초 시간 간격으로 트리거될 수 있다. 또한, 보조 화상 센서(18)의 셔터가 오픈될 때, LED 또는 기타의 조명 장치를 활성화시키도록 조명 스트로브(illumination strobe) 또한 트리거될 수 있다. 일 실시예에 있어서, 조명 스트로브에 대한 각각의 트리거의 주기는 약 10 밀리초 일 수 있다. 조명 장치는 샘플(24)을 조명하여, 3개의 보조 화상의 획득을 돕도록 구성될 수 있다.
또한, 위치 컨트롤러는 보조 화상 센서(18)로부터 수신한 정보에 기초하여 Z방향으로 샘플(24)에 대하여 대물 렌즈(12)를 이동시키도록 구성될 수 있다. 더 구체적으로, 위치 컨트롤러는 제1 보조 화상을 획득하기 위해 제1 포커스 값에 대물 렌즈(12)를 위치시키도록 구성될 수 있다. 전술한 바와 같이, 특정 실시예에 있어서, 제1 포커스 값은 거친 포커스 값을 포함할 수 있다. 이어서, 도 10에 도시된 바와 같이, 위치 컨트롤러는 제2 포커스 값에 대물 렌즈(12)를 위치시키도록 구성될 수 있으며, 여기서 제2 포커스 값은 제2 보조 화상의 획득을 용이하게 하기 위해 제1 포커스 값보다 작다. 마찬가지로, 위치 컨트롤러는 이어서 제3 포커스 값에 대물 렌즈(12)를 위치시키도록 구성될 수 있으며, 여기서 제3 포커스 값은 제3 보조 화상의 획득을 용이하게 하기 위해 제1 포커스 값보다 크다. 일단 측정 포커스 값이 판정되면, 위치 컨트롤러는 측정 포커스 값에 해당하는 샘플 거리에 대물 렌즈(12)를 위치시키도록 구성될 수 있다. 이 때, 위치 컨트롤러는 대물 렌즈(12)에 대해 다음의 논리 화상 세그먼트(타일 n+1)가 도달하기 전에 측정 포커스 값에 해당하는 샘플 거리에 대물 렌즈(12)를 위치시키도록 구성될 수 있다. 도 10에 도시된 바와 같이, 일 실시예에 있어서, 현재의 논리 화상 세그먼트(타일 n)와 다음의 논리 화상 세그먼트(타일 n+1)와의 사이에 샘플을 오토포커싱하는 처리는 약 60 밀리초 내지 약 80 밀리초 범위의 시간 간격 내에 완료될 수 있다.
이상 설명한 오토포커싱 방법과 촬상 장치는 화상 품질은 최소한으로 감소하면서 스캐닝 속도를 대폭 향상시킨다. 더 구체적으로, 샘플이 현재의 논리 화상 세그먼트에 해당하는 제1 위치로부터 향후의 논리 화상 세그먼트에 해당하는 제2 위치에 재배치되는 동안, 향후의 논리 화상 세그먼트를 위한 최적의 포커스 값이 판정되고, 포커스 값에 임의의 조절이 구현되기 때문에, 스캐닝 속도가 향상될 수 있다. 또한, 향후 취득될 논리 화상 세그먼트를 위한 예측 포커스 값이, 이전에 획득된 논리 화상 세그먼트 및 스테이지 흔들림과 기울임과 같은 임의의 예측가능한 변동의 소오스로부터의 정보를 이용하므로, 예측된 최적의 포커스 값이 향상되는 결과를 가져온다. 향후의 세그먼트를 위한 포커스 값의 정확한 예측은 주 화상을 획득하기 전에 논리 화상 세그먼트에서 오토포커싱 프로세스를 완료할 필요를 없게 하고, 따라서 적절한 포커스 품질을 유지하면서 스캔 속도가 대폭 증가된다. 반복적인 기계적 스테이지 높이 변동을 오토포커스 예측 알고리즘에 포함시킴으로써, 스테이지 정밀도에 대한 요구 조건을 완화하고, 잠재적으로는 저비용을 달성한다. 화상 품질과 스캐너 성능이 향상되어, 화상 품질을 유지하면서 스캐닝 속도를 향상시킴으로써 임상 작업 흐름을 개선시킬 수 있다.
본 명세서에서는 본 발명의 일부 특정 구성만이 도시 및 설명되었지만, 당업자에 의해 많은 변형예와 변경예가 발생할 수 있을 것이다. 따라서, 첨부된 청구항들은 본 발명의 진정한 개념 내에 드는 이러한 모든 변형예 및 변경예들을 포괄하고자 의도된 것으로 이해되어야 한다.
Claims (21)
- 대물 렌즈와 촬상될 샘플을 붙잡기 위한 스테이지를 갖는 촬상 장치에서의 오토포커싱 방법으로서,
복수의 논리 화상 세그먼트 중 적어도 제1 논리 화상 세그먼트에 대응하는 측정 포커스 값(measured focus value)을 판정하는 단계;
상기 측정 포커스 값을 이용하여 상기 제1 논리 화상 세그먼트를 촬상하는 단계;
상기 측정 포커스 값 및 저장된 포커스 변동 파라미터를 이용하여 상기 복수의 논리 화상 세그먼트 중 제2 논리 화상 세그먼트를 위한 예측 포커스 값을 판정하는 단계; 및
상기 예측 포커스 값을 이용하여 상기 제2 논리 화상 세그먼트를 촬상하는 단계
를 포함하는 오토포커싱 방법. - 제1항에 있어서,
스캐닝 스테이지에 의해 지지되는 상기 샘플을 촬상하기 위한 거친 포커스 위치(coarse focus location)를 판정하는 단계;
상기 판정된 거친 포커스 위치에 상기 대물 렌즈를 위치시키는 단계; 및
스캐닝 스테이지에 의해 지지되는 상기 샘플을 촬상하기 위한 거친 포커스 값을 판정하는 단계
를 더 포함하는 오토포커싱 방법. - 제1항에 있어서,
상기 샘플을 상기 복수의 논리 화상 세그먼트로 논리적으로 세그먼팅하는 단계를 더 포함하는 오토포커싱 방법. - 제1항에 있어서,
상기 샘플이 상기 촬상 장치에 상대적으로 재배치되는 동안에 상기 측정 포커스 값이 판정되는 오토포커싱 방법. - 제1항에 있어서,
상기 샘플이 제1 논리 화상 세그먼트에 대응하는 제1 위치에서 제2 논리 화상 세그먼트에 대응하는 제2 위치로 재배치되는 동안에 상기 예측 포커스 값이 판정되는 오토포커싱 방법. - 제1항에 있어서,
상기 예측 포커스 값을 이용하여 상기 제2 논리 화상 세그먼트를 촬상하는 단계는, 상기 샘플과 상기 대물 렌즈를 분리하는 거리를 증가 또는 감소시키는 단계를 포함하는 오토포커싱 방법. - 제1항에 있어서,
상기 저장된 포커스 변동 파라미터는 상기 촬상 장치, 상기 샘플 또는 상기 촬상 장치 및 샘플 모두에서 재현가능한 변동을 나타내는 오토포커싱 방법. - 제7항에 있어서,
상기 저장된 포커스 변동 파라미터는 상기 스테이지와 관련된 흔들림(wobble) 또는 기울어짐(tilt)을 나타내는 오토포커싱 방법. - 제7항에 있어서,
상기 저장된 포커스 변동 파라미터는 상기 샘플을 포함하는 슬라이드와의 재현가능한 변동을 나타내는 오토포커싱 방법. - 제1항에 있어서,
상기 예측 포커스 값을 판정하는 단계는 데이터 저장소로부터 하나 이상의 저장된 포커스 변동 파라미터를 검색하는 단계를 포함하는 오토포커싱 방법. - 제1항에 있어서,
상기 복수의 논리 화상 세그먼트 중 적어도 제1 논리 화상 세그먼트에 대응하는 상기 측정 포커스 값을 판정하는 단계는,
다른 포커스 값들에서 적어도 3개의 보조 화상을 획득하는 단계;
상기 보조 화상들의 각각에 대한 정량적 특성을 판정하는 단계; 및
상기 정량적 특성들로부터 상기 측정 포커스 값을 보간하는 단계를 포함하는
오토포커싱 방법. - 제11항에 있어서,
상기 측정 포커스 값을 판정하는 단계는, 상기 적어도 3개의 보조 화상 각각에서 실질적으로 유사한 화상 픽셀 집합의 선택을 용이하게 하기 위해 상기 적어도 3개의 보조 화상에서의 관심 영역을 판정된 양만큼 오프셋시키는 단계를 포함하는 오토포커싱 방법. - 제12항에 있어서,
상기 정량적 특성을 판정하는 단계는,
픽셀들의 부분집합 내의 각각의 픽셀에 대하여, 상기 픽셀과 상기 픽셀로부터 적어도 하나의 다른 픽셀만큼 측방향으로(laterally) 떨어진 이웃 픽셀과의 사이의 강도들의 차이를 판정하는 단계, 및
상기 화상의 높이와 너비에 걸쳐 각각의 픽셀의 강도들의 제곱 차를 합산하는 단계를 포함하는
오토포커싱 방법. - 제12항에 있어서,
상기 정량적 특성으로부터 상기 측정 포커스 값을 보간하는 단계는,
상기 적어도 3개의 보조 화상의 정량적 특성들을 단봉 함수(unimodal function)에 맞춤으로써 상기 측정 포커스 값을 보간하는 단계; 및
상기 곡선상의 모드를 식별하는 단계를 포함하는
오토포커싱 방법. - 제14항에 있어서,
상기 측정 포커스 값을 판정하는 단계는,
상기 식별된 모드, 상기 저장된 포커스 변동 파라미터, 또는 그 조합에 기초하여 상기 측정 포커스 값을 판정하는 단계를 더 포함하는
오토포커싱 방법. - 촬상 장치로서,
대물 렌즈;
주 프레임 속도에서 샘플의 주 화상을 생성하도록 구성되는 주 화상 센서;
상기 주 프레임 속도보다 빠른 보조 프레임 속도에서 상기 샘플의 하나 이상의 보조 화상을 생성하도록 구성되는 보조 화상 센서;
상기 샘플의 화상을 오토포커싱하기 위해 광축을 따라 상기 대물 렌즈와 상기 샘플 사이에서 포커스 값을 조절하도록 구성되는 컨트롤러;
상기 샘플을 지지하고 또한 상기 광축에 실질적으로 직교하는 적어도 측방향으로 상기 샘플을 이동시키기 위한 스캐닝 스테이지
를 포함하며,
상기 컨트롤러는,
복수의 논리 화상 세그먼트 중의 적어도 제1 논리 화상 세그먼트에 대응하는 측정 포커스 값을 판정하고;
상기 측정 포커스 값을 이용해 제1 논리 화상 세그먼트를 촬상하고;
상기 측정 포커스 값과 저장된 포커스 변동 파라미터를 이용해 복수의 논리 화상 세그먼트 중 제2 논리 화상 세그먼트의 예측 포커스 값을 판정하고; 및
상기 예측 포커스 값을 이용해 상기 제2 논리 화상 세그먼트를 촬상하도록 구성되는
촬상 장치. - 제16항에 있어서,
상기 샘플로부터 모아져서(collected) 대물 렌즈를 통과해 나아가는 광을 주 광경로와 보조 광경로로 분할(split)하도록 구성되는 빔 스플리터를 더 포함하는 촬상 장치. - 제16항에 있어서,
상기 촬상 장치는 디지털 광학 현미경을 포함하는 촬상 장치. - 촬상 장치로서,
대물 렌즈;
주 프레임 속도에서 샘플의 주 화상을 생성하도록 구성되는 주 화상 센서;
상기 주 프레임 속도보다 빠른 보조 프레임 속도에서 상기 샘플의 하나 이상의 보조 화상을 생성하도록 구성되는 보조 화상 센서;
상기 샘플의 화상을 오토포커싱하기 위해 광축을 따라 상기 대물 렌즈와 상기 샘플 사이에서 포커스 값을 조절하도록 구성되는 컨트롤러;
상기 샘플을 지지하며 또한 상기 광축에 실질적으로 직교하는 적어도 측방향으로 이동시키기 위한 스캐닝 스테이지
를 포함하며,
상기 컨트롤러는,
상기 샘플의 스캔 계획을 판정하기 위한 매크로 화상 및 스캔 계획 컴포넌트;
보조 화상들을 획득하고 처리하기 위한 오토포커싱 컴포넌트;
상기 대물 렌즈에 상대적으로 상기 샘플의 움직임을 제어하기 위한 움직임 제어 컴포넌트; 및
상기 보조 화상들, 상기 주 화상들, 또는 양측 모두의 획득을 위한 타이밍을 동기화하는 타이밍 컴포넌트를 포함하는
촬상 장치. - 제19항에 있어서,
하나 이상의 주 화상의 획득을 위한 화상 획득 모듈을 더 포함하는 촬상 장치. - 제19항에 있어서,
상기 촬상 장치는 디지털 광학 현미경을 포함하는 촬상 장치.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/422,363 | 2009-04-13 | ||
US12/422,363 US8878923B2 (en) | 2007-08-23 | 2009-04-13 | System and method for enhanced predictive autofocusing |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120004991A true KR20120004991A (ko) | 2012-01-13 |
Family
ID=42982716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020117024008A KR20120004991A (ko) | 2009-04-13 | 2010-04-09 | 향상된 예측 오토포커싱을 위한 시스템 및 방법 |
Country Status (11)
Country | Link |
---|---|
US (1) | US8878923B2 (ko) |
EP (1) | EP2419776A4 (ko) |
JP (1) | JP2012523583A (ko) |
KR (1) | KR20120004991A (ko) |
CN (1) | CN102460263A (ko) |
AU (1) | AU2010237094A1 (ko) |
BR (1) | BRPI1013923A2 (ko) |
CA (1) | CA2758326A1 (ko) |
MX (1) | MX2011010818A (ko) |
RU (1) | RU2522123C2 (ko) |
WO (1) | WO2010120231A1 (ko) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7769219B2 (en) * | 2006-12-11 | 2010-08-03 | Cytyc Corporation | Method for assessing image focus quality |
US8878923B2 (en) * | 2007-08-23 | 2014-11-04 | General Electric Company | System and method for enhanced predictive autofocusing |
CN101769475B (zh) * | 2008-12-31 | 2013-04-24 | 鸿富锦精密工业(深圳)有限公司 | 影像测量仪光源及利用该光源的自动定位系统 |
JP5739351B2 (ja) | 2009-03-11 | 2015-06-24 | サクラ ファインテック ユー.エス.エー., インコーポレイテッド | 自動合焦方法および自動合焦装置 |
EP2447752A4 (en) * | 2009-05-08 | 2018-07-04 | Nikon Corporation | Focus control device, and incubation and observation device |
CA2842723C (en) | 2009-10-19 | 2016-02-16 | Ventana Medical Systems, Inc. | Imaging system and techniques |
US20110228070A1 (en) * | 2009-11-07 | 2011-09-22 | Courosh Mehanian | System and Method for Determining Image Focus by Sampling the Image at Multiple Focal Planes Simultaneously |
US8396269B2 (en) * | 2010-04-08 | 2013-03-12 | Digital Pathco LLC | Image quality assessment including comparison of overlapped margins |
EP2383600B1 (en) | 2010-04-30 | 2013-02-20 | CellaVision AB | Method, apparatus, and computer program product for focus prediction |
JP2012002923A (ja) * | 2010-06-15 | 2012-01-05 | Canon Inc | 撮像装置 |
CN103026211A (zh) * | 2010-07-16 | 2013-04-03 | 3M创新有限公司 | 高分辨率自动对焦检查系统 |
DE102010036709A1 (de) * | 2010-07-28 | 2012-02-02 | Leica Microsystems Cms Gmbh | Einrichtung und Verfahren zur mikroskopischen Bildaufnahme einer Probenstruktur |
US10139613B2 (en) * | 2010-08-20 | 2018-11-27 | Sakura Finetek U.S.A., Inc. | Digital microscope and method of sensing an image of a tissue sample |
US9522396B2 (en) | 2010-12-29 | 2016-12-20 | S.D. Sight Diagnostics Ltd. | Apparatus and method for automatic detection of pathogens |
JP6112624B2 (ja) | 2011-08-02 | 2017-04-12 | ビューズアイキュー インコーポレイテッドViewsIQ Inc. | デジタル顕微鏡撮像の装置及び方法 |
US9402036B2 (en) | 2011-10-17 | 2016-07-26 | Rudolph Technologies, Inc. | Scanning operation with concurrent focus and inspection |
US10001622B2 (en) * | 2011-10-25 | 2018-06-19 | Sanford Burnham Medical Research Institute | Multifunction autofocus system and method for automated microscopy |
DE102011086018A1 (de) * | 2011-11-09 | 2013-05-16 | Carl Zeiss Ag | Verfahren und Anordnung zur Autofokussierung eines Mikroskops |
WO2013098821A1 (en) | 2011-12-29 | 2013-07-04 | Parasight Ltd. | Methods and systems for detecting a pathogen in a biological sample |
ES2953897T3 (es) | 2012-05-02 | 2023-11-16 | Leica Biosystems Imaging Inc | Enfoque en tiempo real en imagenología de exploración lineal |
JP5941395B2 (ja) * | 2012-10-31 | 2016-06-29 | 浜松ホトニクス株式会社 | 画像取得装置及び画像取得装置のフォーカス方法 |
US20140168402A1 (en) * | 2012-12-13 | 2014-06-19 | Vala Sciences, Inc. | Continuous-Scanning Image Acquisition in Automated Microscopy Using Reflective Autofocus |
JP6414050B2 (ja) * | 2013-03-13 | 2018-10-31 | ソニー株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
JP6455829B2 (ja) * | 2013-04-01 | 2019-01-23 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
DE102013103971A1 (de) | 2013-04-19 | 2014-11-06 | Sensovation Ag | Verfahren zum Erzeugen eines aus mehreren Teilbildern zusammengesetzten Gesamtbilds eines Objekts |
EP2999988A4 (en) | 2013-05-23 | 2017-01-11 | S.D. Sight Diagnostics Ltd. | Method and system for imaging a cell sample |
IL227276A0 (en) | 2013-07-01 | 2014-03-06 | Parasight Ltd | A method and system for obtaining a monolayer of cells, for use specifically for diagnosis |
WO2015029032A1 (en) * | 2013-08-26 | 2015-03-05 | Parasight Ltd. | Digital microscopy systems, methods and computer program products |
US10007102B2 (en) | 2013-12-23 | 2018-06-26 | Sakura Finetek U.S.A., Inc. | Microscope with slide clamping assembly |
WO2016030897A1 (en) | 2014-08-27 | 2016-03-03 | S.D. Sight Diagnostics Ltd | System and method for calculating focus variation for a digital microscope |
EP3859425B1 (en) | 2015-09-17 | 2024-04-17 | S.D. Sight Diagnostics Ltd. | Methods and apparatus for detecting an entity in a bodily sample |
WO2017053891A1 (en) | 2015-09-24 | 2017-03-30 | Leica Biosystems Imaging, Inc. | Real-time focusing in line scan imaging |
KR102640848B1 (ko) | 2016-03-03 | 2024-02-28 | 삼성전자주식회사 | 시료 검사 방법, 시료 검사 시스템, 및 이들을 이용한 반도체 소자의 검사 방법 |
WO2017168411A1 (en) | 2016-03-30 | 2017-10-05 | S.D. Sight Diagnostics Ltd | Image processing device for identifying blood parasites |
EP3455610B1 (en) | 2016-05-11 | 2023-01-04 | S.D. Sight Diagnostics Ltd. | Sample carrier for optical measurements |
CN109564209B (zh) | 2016-05-11 | 2022-05-31 | 思迪赛特诊断有限公司 | 对样品实施的光学测量 |
CN106324820B (zh) * | 2016-09-27 | 2018-10-16 | 华中科技大学 | 一种双通道荧光光学显微成像中基于图像处理的自动对焦方法 |
EP3538941A4 (en) | 2016-11-10 | 2020-06-17 | The Trustees of Columbia University in the City of New York | METHODS FOR FAST IMAGING OF HIGH RESOLUTION LARGE SAMPLES |
US11280803B2 (en) | 2016-11-22 | 2022-03-22 | Sakura Finetek U.S.A., Inc. | Slide management system |
GB201704770D0 (en) | 2017-01-05 | 2017-05-10 | Illumina Inc | Predictive focus tracking apparatus and methods |
EP3396430B1 (en) | 2017-04-27 | 2023-08-16 | Euroimmun Medizinische Labordiagnostika AG | Optical scanning arrangement and method |
KR102523559B1 (ko) * | 2017-09-29 | 2023-04-19 | 라이카 바이오시스템즈 이미징 인크. | 디지털 스캐닝 장치 |
CN111788471B (zh) | 2017-11-14 | 2023-12-12 | 思迪赛特诊断有限公司 | 用于光学测量的样品载体 |
JP6945737B2 (ja) * | 2017-11-28 | 2021-10-06 | ライカ バイオシステムズ イメージング インコーポレイテッドLeica Biosystems Imaging, Inc. | デュアルプロセッサ画像処理 |
DE102018128281B3 (de) * | 2018-11-12 | 2019-11-14 | Leica Microsystems Cms Gmbh | Mikroskopsystem und Verfahren zur Untersuchung einer Probe |
JP7262114B2 (ja) * | 2019-07-26 | 2023-04-21 | 国立研究開発法人理化学研究所 | 顕微鏡、顕微鏡で試料を撮像する方法、プログラム、および制御装置 |
KR20230021136A (ko) * | 2020-08-07 | 2023-02-13 | 나노트로닉스 이미징, 인코포레이티드 | 자동 초점 현미경 시스템을 위한 딥 러닝 모델 |
JP2023547814A (ja) * | 2020-10-16 | 2023-11-14 | ライフ テクノロジーズ コーポレーション | 人工知能を使用したオートフォーカス及び自動細胞計数のためのシステム及び方法 |
DE102020130805A1 (de) * | 2020-11-20 | 2022-05-25 | Carl Zeiss Meditec Ag | Kontext-abhängige Steuerung eines Operationsmikroskops |
EP4320472A1 (en) | 2021-10-12 | 2024-02-14 | Samsung Electronics Co., Ltd. | Device and method for predicted autofocus on an object |
WO2023063679A1 (en) * | 2021-10-12 | 2023-04-20 | Samsung Electronics Co., Ltd. | Device and method for predicted autofocus on an object |
US11714273B1 (en) * | 2022-06-23 | 2023-08-01 | Araceli Biosciences Inc. | System and method for microscope high-speed auto-focusing including an imaged subject based on a corrected contrast distribution |
CN118555486B (zh) * | 2024-07-29 | 2024-10-18 | 广州乐庚信息科技有限公司 | 基于双目数据采集设备的多目标采集路径优化算法及系统 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5790710A (en) | 1991-07-12 | 1998-08-04 | Jeffrey H. Price | Autofocus system for scanning microscopy |
US5912699A (en) | 1992-02-18 | 1999-06-15 | Neopath, Inc. | Method and apparatus for rapid capture of focused microscopic images |
JPH1096848A (ja) * | 1996-09-20 | 1998-04-14 | Olympus Optical Co Ltd | 自動焦点検出装置 |
JP4332905B2 (ja) | 1998-02-12 | 2009-09-16 | 株式会社ニコン | 顕微鏡システム |
US6173083B1 (en) * | 1998-04-14 | 2001-01-09 | General Electric Company | Method and apparatus for analyzing image structures |
US6208763B1 (en) * | 1998-04-14 | 2001-03-27 | General Electric Company | Method and apparatus for enhancing discrete pixel images |
JP3961729B2 (ja) * | 1999-03-03 | 2007-08-22 | 株式会社デンソー | 全焦点撮像装置 |
US7034883B1 (en) * | 1999-08-10 | 2006-04-25 | Cellavision Ab | Automatic focusing |
JP4434376B2 (ja) * | 1999-09-24 | 2010-03-17 | オリンパス株式会社 | 顕微鏡画像転送システム |
US6711283B1 (en) | 2000-05-03 | 2004-03-23 | Aperio Technologies, Inc. | Fully automatic rapid microscope slide scanner |
US7518652B2 (en) | 2000-05-03 | 2009-04-14 | Aperio Technologies, Inc. | Method and apparatus for pre-focus in a linear array based slide scanner |
US7668362B2 (en) | 2000-05-03 | 2010-02-23 | Aperio Technologies, Inc. | System and method for assessing virtual slide image quality |
US6518554B1 (en) | 2000-05-24 | 2003-02-11 | Chromavision Medical Systems, Inc. | Reverse focusing methods and systems |
EP2299307A3 (en) * | 2000-11-03 | 2011-05-04 | Cytyc Corporation | Cytological imaging method |
US7155049B2 (en) | 2001-01-11 | 2006-12-26 | Trestle Acquisition Corp. | System for creating microscopic digital montage images |
US6816606B2 (en) | 2001-02-21 | 2004-11-09 | Interscope Technologies, Inc. | Method for maintaining high-quality focus during high-throughput, microscopic digital montage imaging |
US7206717B2 (en) * | 2002-05-13 | 2007-04-17 | General Electric Company | Sensor alignment method for 3D measurement systems |
JP2004061942A (ja) | 2002-07-30 | 2004-02-26 | Nikon Corp | 顕微鏡システム |
JP2004145195A (ja) | 2002-10-28 | 2004-05-20 | Alps Electric Co Ltd | 画像取り込み装置 |
UA64570A (en) * | 2003-06-26 | 2004-02-16 | Univ Sumy State | Method for automatically focusing an electron microscope by using the tested object image |
US20050089208A1 (en) | 2003-07-22 | 2005-04-28 | Rui-Tao Dong | System and method for generating digital images of a microscope slide |
US7232980B2 (en) * | 2004-05-24 | 2007-06-19 | Hamamatsu Photonics K.K. | Microscope system |
HUP0401802A2 (en) * | 2004-09-02 | 2006-03-28 | 3D Histech Kft | Focusing method object carriers on fast-moving digitalization and object carrier moving mechanics, focusing optic, optical distance-measuring instrument |
US7417213B2 (en) | 2005-06-22 | 2008-08-26 | Tripath Imaging, Inc. | Apparatus and method for rapid microscopic image focusing having a movable objective |
US7835637B2 (en) * | 2006-09-20 | 2010-11-16 | Qualcomm Incorporated | Predictive focus value calculation for image capture devices |
US8179432B2 (en) | 2007-04-30 | 2012-05-15 | General Electric Company | Predictive autofocusing |
US7576307B2 (en) * | 2007-04-30 | 2009-08-18 | General Electric Company | Microscope with dual image sensors for rapid autofocusing |
US20090046359A1 (en) * | 2007-08-14 | 2009-02-19 | Nikon Corporation | Microscope |
US8878923B2 (en) * | 2007-08-23 | 2014-11-04 | General Electric Company | System and method for enhanced predictive autofocusing |
US8314837B2 (en) | 2009-10-15 | 2012-11-20 | General Electric Company | System and method for imaging with enhanced depth of field |
-
2009
- 2009-04-13 US US12/422,363 patent/US8878923B2/en active Active
-
2010
- 2010-04-09 EP EP10764737A patent/EP2419776A4/en not_active Withdrawn
- 2010-04-09 WO PCT/SE2010/050385 patent/WO2010120231A1/en active Application Filing
- 2010-04-09 KR KR1020117024008A patent/KR20120004991A/ko not_active Application Discontinuation
- 2010-04-09 MX MX2011010818A patent/MX2011010818A/es active IP Right Grant
- 2010-04-09 BR BRPI1013923A patent/BRPI1013923A2/pt not_active IP Right Cessation
- 2010-04-09 CA CA2758326A patent/CA2758326A1/en not_active Abandoned
- 2010-04-09 JP JP2012504658A patent/JP2012523583A/ja active Pending
- 2010-04-09 AU AU2010237094A patent/AU2010237094A1/en not_active Abandoned
- 2010-04-09 CN CN2010800270763A patent/CN102460263A/zh active Pending
- 2010-04-09 RU RU2011140241/28A patent/RU2522123C2/ru not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
MX2011010818A (es) | 2012-01-20 |
EP2419776A1 (en) | 2012-02-22 |
RU2522123C2 (ru) | 2014-07-10 |
US8878923B2 (en) | 2014-11-04 |
EP2419776A4 (en) | 2012-09-26 |
JP2012523583A (ja) | 2012-10-04 |
WO2010120231A1 (en) | 2010-10-21 |
AU2010237094A1 (en) | 2011-10-20 |
CA2758326A1 (en) | 2010-10-21 |
CN102460263A (zh) | 2012-05-16 |
RU2011140241A (ru) | 2013-05-20 |
BRPI1013923A2 (pt) | 2016-04-05 |
US20090195688A1 (en) | 2009-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8878923B2 (en) | System and method for enhanced predictive autofocusing | |
KR102411099B1 (ko) | 실시간 오토포커스 스캐닝 | |
US8179432B2 (en) | Predictive autofocusing | |
KR102419163B1 (ko) | 실시간 오토포커스 포커싱 알고리즘 | |
EP2916160B1 (en) | Image acquisition device and method for focusing image acquisition device | |
JP6869434B2 (ja) | スライドラッククランプ装置 | |
JP6940696B2 (ja) | 二次元および三次元の固定式z走査 | |
JP2020525848A (ja) | 異なるサイズのスライド用の調整可能なスライドステージ | |
CN111527438B (zh) | 冲击重新扫描系统 | |
JP5471715B2 (ja) | 合焦装置、合焦方法、合焦プログラム及び顕微鏡 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |