KR20180058730A - 라인 스캔 영상내 실시간 포커싱 - Google Patents

라인 스캔 영상내 실시간 포커싱 Download PDF

Info

Publication number
KR20180058730A
KR20180058730A KR1020187009072A KR20187009072A KR20180058730A KR 20180058730 A KR20180058730 A KR 20180058730A KR 1020187009072 A KR1020187009072 A KR 1020187009072A KR 20187009072 A KR20187009072 A KR 20187009072A KR 20180058730 A KR20180058730 A KR 20180058730A
Authority
KR
South Korea
Prior art keywords
image
focusing
sensor
fov
objective lens
Prior art date
Application number
KR1020187009072A
Other languages
English (en)
Inventor
윈루 조우
앨런 올슨
키란 사리그라마
루비 천
페이만 나지마바디
그렉 크랜들
Original Assignee
라이카 바이오시스템즈 이미징 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라이카 바이오시스템즈 이미징 인크. filed Critical 라이카 바이오시스템즈 이미징 인크.
Publication of KR20180058730A publication Critical patent/KR20180058730A/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/244Devices for focusing using image analysis techniques
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/40Optical focusing aids
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/02Objectives
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/245Devices for focusing using auxiliary sources, detectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/26Stages; Adjusting means therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/34Microscope slides, e.g. mounting specimens on microscope slides
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/361Optical details, e.g. image relay to the camera or image sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

현미경 슬라이드상의 샘플의 디지털 이미지를 획득하기 위한 시스템. 일 실시예에서, 시스템은 샘플을 지지하도록 구성된 스테이지, 스테이지에 직교하는 단일 광축을 갖는 대물렌즈, 영상 센서 및 포커싱 센서를 포함한다. 시스템은 대물렌즈에 광학적으로 결합되고 그리고 대물렌즈의 광축에 대응하는 FOV를 수신하고 동시에 적어도 FOV의 제 1 부분을 영상 센서에 그리고 적어도 FOV의 제 2 부분을 포커싱 센서에 제공하도록 구성된 적어도 하나의 제 1 빔 분배기를 더 포함한다. 포커싱 센서는 복수의 상이한 초점 거리들에서 이미지(들)을 동시에 획득할 수 있고 및/또는 각각이 복수의 상이한 초점 거리들에서 획득된 픽셀들을 포함하는 한 쌍의 미러링된 이미지들을 동시에 획득할 수 있다.

Description

라인 스캔 영상내 실시간 포커싱
관련 출원들에 대한 상호 참조
본 출원은 “Real-Time Focusing in Line Scan Imaging” 제목으로 2015년 9월 24일에 출원된 U.S. 가특허 App. No. 62/232,229에 대한 우선권을 주장하고, 이의 전체가 참조로서 본 출원에 통합된다.
본 출원은 2013년 3월 13일에 출원된 국제 특허 App. No. PCT/US2013/031045, 및 2012년 5월 2일에 출원된 U.S. 가출원 No. 61/641,788에 대한 우선권을 주장하는 2014년 10월 31일에 출원된 U.S. 특허 App. No. 14/398,443에 관련되고, 이들 모두의 전체가 참조로서 본 출원에 통합된다.
기술분야
본 발명은 전반적으로 디지털 병리학(digital pathology)에 관한 것으로 보다 상세하게는 라인 스캔 영상내 실시간 포커싱을 수행하기 위한 다수의 독립적인 선형 센서 장치에 관한 것이다.
현미경 영상 시스템들에 대부분의 자동-초점 방법은 두개의 카테고리들: 슬라이드(slide) 위치를 센싱하기 위한 레이저기반의 간섭계, 및 이미지 컨텐츠 분석으로 분할될 수 있다. 레이저기반의 간섭계 방법들로, 슬라이드 표면으로부터 레이저 빔의 반사율을 측정하는 것은 단지 슬라이드 위치 또는 커버 슬립(slip) 위치의 글로벌 초점 정보만을 제공할 수 있다. 그것은 큰 높이 편차들을 갖는 조직 샘플들에 대한 포커싱 정확도가 없다. 추가하여, 이미지 컨텐츠 분석 방법들은 상이한 초점 깊이들에서 다수의 이미지 취득들을 요구하고, 최상의 초점을 결정하기 위해서 이미지들을 비교하는 알고리즘들을 사용한다. 그러나, 상이한 초점 깊이들에서 다수의 이미지들을 획득하는 것은 포커싱과 영상 간에 시간 지연들을 생성할 수 있다. 따라서, 요구 되는 것은 상기에서 설명된 통상의 방법들에서 발견된 이들 중요한 문제들을 극복하는 시스템 및 방법이다.
일 실시예에서, 샘플의 디지털 이미지를 획득하기 위해 샘플을 스캐닝하기 위한 시스템이 개시된다. 상기 시스템은 샘플을 지지하도록 구성된 스테이지; 상기 스테이지에 직교하는 단일 광축(optical axis)을 갖는 대물렌즈; 영상 센서; 포커싱 센서 및 상기 대물렌즈에 광학적으로 결합되고 그리고 상기 대물렌즈의 광축에 대응하는 FOV(field of view)를 수신하고 동시에 적어도 상기 FOV의 제 1 부분을 상기 영상 센서에 그리고 적어도 상기 FOV의 제 2 부분을 상기 포커싱 센서에 제공하도록 구성된 적어도 하나의 제 1 빔 분배기(beam splitter)를 포함할 수 있다.
상기 포커싱 센서는 광 경로를 따라서 상기 FOV의 제 2 부분을 수신할 수 있고, 상기 포커싱 센서는 상기 광 경로에 대하여 각도에서 틸트되어, 상기 FOV의 제 2 부분은 이미지가 상이한 초점 거리들을 나타내는 픽셀들을 포함할 때 상기 포커싱 센서에 의해 획득된다. 더욱이, 상기 포커싱 센서는 복수의 영역들을 포함할 수 있고, 상기 포커싱 센서의 각각의 영역은 별개의 광 경로를 따라서 상기 FOV의 제 2 부분을 수신하고, 상기 포커싱 센서는 상기 별개의 광 경로에 대하여 각도에서 틸트되어, 상기 FOV의 제 2 부분은 이미지가 포커싱 센서의 다른 영역들과 다른 초점 거리에서 상기 포커싱 센서의 각각의 영역에 의해 획득된다.
대안적으로, 상기 포커싱 센서는 복수의 영역들을 포함할 수 있고, 상기 포커싱 센서의 각각의 영역은 별개의 광 경로를 따라서 상기 FOV의 제 2 부분을 수신하고, 상기 포커싱 센서는 상기 별개의 광 경로의 각각에 대하여 직교하고, 상기 별개의 광 경로들의 각각은 상이한 초점 거리를 가져서, 상기 FOV의 제 2 부분은 상기 포커싱 센서의 다른 영역들과 상이한 초점 거리에서 포커싱 센서의 각각의 영역에 의해 획득된다.
대안적으로, 상기 포커싱 센서는 제 1 부분 및 제 2 부분을 포함할 수 있고, 상기 포커싱 센서의 제 1 부분은 제 1 광 경로를 따라서 상기 FOV의 제 2 부분을 수신하고 상기 제 1 광 경로에 대하여 제 1 각도에서 틸트되고, 상기 포커싱 센서의 제 2 부분은 상기 제 1 광 경로로부터 분리되고, 상기 제 1 각도에 역전되고 제 2 광 경로에 대하여 제 2 각도에서 틸트되는 상기 제 2 광 경로를 따라서 상기 FOV의 제 2 부분을 수신한다.
대안적으로, 상기 포커싱 센서는 제 1 영역 및 제 2 영역을 포함할 수 있고, 상기 제 1 영역은 제 1 광 경로를 따라서 상기 FOV의 제 2 부분을 수신하고, 상기 제 2 영역은 제 2 광 경로를 따라서 상기 FOV의 미러링된 제 2 부분을 수신하고, 상기 포커싱 센서는 상기 제 1 광 경로 및 상기 제 2 광 경로의 각각에 대하여 각도에서 틸트된다.
대안적으로, 상기 틸트된 센서는 상기 논-틸트된 센서 앞에 배치된 논-틸트된 센서 및 웨지(wedge) 프리즘으로 대체될 수 있다. 상기 틸트의 각도는 음의 값, 제로 값, 또는 양의 값을 가질 수 있다.
대안적으로, 상기 포커싱 센서는 상기 센서 축을 따라서 상기 센서의 이 포커싱 섹션을 커버하는 초점의 변화를 생성하기 위해 그것 앞에 웨지 광학기기(wedge optic)를 갖는 센서의 섹션일 수 있고, 한편 상기 센서의 다른 섹션이 영상 센서로서 동작한다.
추가하여, 상기 시스템은 스캔닝될 상기 샘플의 각각이 부분에 대하여 : 상기 포커싱 센서로부터 상기 샘플의 부분의 포커싱 이미지를 획득하고; 상기 포커싱 센서상에 복수의 위치들의 각각에 대하여, 상기 포커싱 센서상의 해당 위치에 대응하는 상기 포커싱 이미지의 영역에 대한 콘트라스트 측정값을 산출하고; 상기 콘트라스트 측정값에 대한 피크를 결정하고; 및 상기 포커싱 센서상에 하나의 초점 거리가 같은 지점에 상기 콘트라스트 측정값에 대한 피크를 제공하는 상기 대물렌즈에 대한 위치를 결정하도록 구성된 프로세서를 포함할 수 있다.
다른 실시예에서, 자동 실시간 포커싱을 위한 방법이 개시된다. 상기 방법은 슬라이드 스캐너내 프로세서를 이용하여, 스캐닝될 샘플의 각각의 부분에 대하여: 상기 샘플의 부분이 영상 센서에 의해 센싱되기 전에, 동시에 또는 그 후에, 포커싱 센서로부터 상기 샘플의 부분의 포커싱 이미지를 획득하고, 포커싱 센서로부터 상기 샘플의 부분의 포커싱 이미지를 획득하고, 상기 포커싱 센서에 의해 센싱된 FOV(field of view)의 부분은 상기 영상 센서에 의해 센싱된 상기 FOV부분으로부터 오프셋되어, 스캔 방향에서, 상기 포커싱 센서는 상기 영상 센서가 상기 FOV의 동일한 부분을 센싱하기 전에, 해당 시간에 또는 그 후에, 상기 FOV의 부분을 센싱하고 상기 포커싱 센서상의 하나의 지점은 상기 영상 센서와 초점 거리가 같고, 상기 포커싱 센서상에 복수의 위치들의 각각에 대하여, 상기 포커싱 센서상의 해당 위치에 대응하는 상기 포커싱 이미지의 영역에 대한 콘트라스트 측정값을 산출하고, 상기 콘트라스트 측정값에 대한 피크를 결정하고,상기 포커싱 센서상에 하나의 초점 거리가 같은 지점에 상기 콘트라스트 측정값에 대한 피크를 제공하는 상기 대물렌즈에 대한 위치를 결정하고, 및 상기 결정된 위치로 상기 대물렌즈를 이동시키고; 및 상기 대물렌즈가 상기 결정된 위치에 있는 동안 상기 영상 센서로부터 상기 샘플의 부분의 이미지를 획득하게 하기 위해 슬라이드 스캐너내 프로세서를 이용하는 단계를 포함할 수 있다.
다른 실시예에서, 그 위에 저장된 명령들을 갖는 비-일시적 컴퓨터 판독가능 매체 가 개시된다. 상기 명령들은 프로세서에 의해 실행될 때 상기 프로세서로 하여금 스캐닝될 샘플의 각각의 부분에 대하여 : 상기 샘플의 부분이 영상 센서에 의해 센싱되기 전에, 동시에 또는 그 후에, 포커싱 센서로부터 상기 샘플의 부분의 포커싱 이미지를 획득하고, 상기 포커싱 센서에 의해 센싱된 FOV(field of view)의 부분은 상기 영상 센서에 의해 센싱된 상기 FOV부분으로부터 오프셋되어, 스캔 방향에서, 상기 포커싱 센서는 상기 영상 센서가 상기 FOV의 동일한 부분을 센싱하기 전에, 동시에 또는 그 후에, 상기 FOV의 부분을 센싱하고 하나의 지점은 상기 영상 센서와 초점 거리가 같고, 상기 포커싱 센서상에 복수의 위치들의 각각에 대하여, 상기 포커싱 센서상의 해당 위치에 대응하는 상기 포커싱 이미지의 영역에 대한 콘트라스트 측정값을 산출하고, 상기 콘트라스트 측정값에 대한 피크를 결정하고, 상기 포커싱 센서상에 하나의 초점 거리가 같은 지점에 상기 콘트라스트 측정값에 대한 피크를 제공하는 상기 대물렌즈에 대한 위치를 결정하고, 및 상기 결정된 위치로 상기 대물렌즈를 이동시키고; 및 상기 대물렌즈가 상기 결정된 위치에 있는 동안 상기 영상 센서로부터 상기 샘플의 부분의 이미지를 획득하게 한다.
다른 실시예에서, 상기 포커싱 이미지로부터의 콘트라스트 측정값과 상기 메인 이미지로부터의 콘트라스트 측정값 간의 관계 (예를 들어, 차이 또는 비율)가 정의되고 이 관계의 피크가 결정되고, 그렇게 함으로써 상기 초점 거리가 같은 지점에 대하여 상기 대물 렌즈의 위치를 결정한다.
개시된 실시예들의 다른 특징들 및 장점들은 이하의 상세한 설명 및 첨부한 도면들을 검토한 후에 기술 분야에서의 통상의 기술자들에게 용이하게 알 수 있게 될 것이다.
실시예들의 구조 및 동작은 이하의 상세한 설명 및 같은 도면 번호들이 같은 파트들을 나타내는 첨부 도면들의 검토로부터 이해할 수 있을 것이다:
도 1은 일 실시예에 따른 스캐닝 시스템의 예제 측면도를 예시하는 블록 다이어그램이다;
도 2 는 일 실시예에 따른 조명(illumination)의 반경 및 원형의 광학적 FOV(field of view)에 대하여 포커싱 센서 및 영상 센서의 예제 구성을 예시하는 블럭 다이어그램이다;
도 3a은 일 실시예에 따른 영상 센서의 예제 평면도 구성을 예시하는 블록 다이어그램이다;
도 3b는 일 실시예에 따른 틸트된(tilted) 포커싱 센서의 예제 평면도 구성을 예시하는 블록 다이어그램이다;
도 3c는 센서의 예제를 예시하는 블럭 다이어그램이고, 일 실시예에 따라 센서의 절반은 정상 이미지를 생성하기 위해 사용되고, 나머지 절반은 그것을 걸쳐 다양한 초점 깊이들을 갖는 이미지를 생성하기 위해 사용된다;
도 4는 일 실시예에 따른 틸트된 포커싱 센서의 예제 평면도 구성을 예시하는 블록 다이어그램이다;
도 5 는 일 실시예에 따라 스캐닝 동안에 포커싱 센서와 영상 센서 간에 예제 상호작용(interplay)을 예시하는 시간 챠트 다이어그램이다;
도 6은 일 실시예에 따른 포커싱 광학기기(focusing optics)를 갖는 예제 틸트된 포커싱 센서를 예시하는 블록 다이어그램이다;
도면들 7a-7c는 일 실시예에 따른 포커싱 광학기기를 갖는 예제 논-틸트된 포커싱 센서를 예시하는 블록 다이어그램들이다;
도 8 은 일 실시예에 따른 피크-발견(peak-finding) 알고리즘으로부터의 예제 결과들을 예시한다.
도 9a는 일 실시예에 따른 틸트된 포커싱 센서와 영상 센서 사이의 초점 관계(focal relationship)을 예시한다.
도면들 9b-9d는 일 실시예에 따라 틸트된 포커싱 센서 및 영상 센서에 대한 콘트라스트 함수들의 관계들을 예시한다.
도 10 은 일 실시예에 따른 두개의 틸트된 라인 센서들을 포함하는 예제 틸트된 포커싱 센서를 예시한다.
도 11a은 일 실시예에 따른 역전된 이미지들을 획득하기 위한 포커싱 광학기기를 갖는 예제 틸트된 포커싱 센서를 예시하는 블록 다이어그램이다.
도 11b는 일 실시예에 따른 역전된 이미지들을 획득하기 위한 포커싱 광학기기를 갖는 예제 틸트된 포커싱 센서를 예시하는 블록 다이어그램이다.
도 12a는 일 실시예에 따른 포커싱 센서에 의해 획득된 두개의 이미지들의 초점 거리들의 지향성(directionality)을 예시한다.
도 12b는 일 실시예에 따른 포커싱 센서에 의해 획득된 두개의 역전된 이미지들에 대한 콘트라스트 함수들을 예시한다.
도 13은 일 실시예에 따른 실시간 포커싱 프로세스의 흐름도이다.
도 14a은 일 실시예에 따른 예제 현미경 슬라이드 스캐너를 예시하는 블록 다이어그램이다;
도 14b는 일 실시예에 따른 대안 예제 현미경 슬라이드 스캐너를 예시하는 블록 다이어그램이다;
도 14c는 일 실시예에 따른 예제 선형 센서 어레이들을 예시하는 블록 다이어그램이다; 및
도 15는 본 출원에서 설명된 다양한 실시예들에 관련하여 사용될 수 있는 예제 유선 또는 무선 프로세서-인에이블 디바이스를 예시하는 블럭 다이어그램이다.
임의의 실시예들은 이미지 컨텐츠 분석 (예를 들어, 조직 발견 및 매크로 초점)에 기반되고, 정확한 실시간 자동-포커싱을 위해 라인 영상(line imaging) 및 라인 포커싱(line focusing)을 이용한다. 일 실시예에서, 풀 스트라이프 포커싱(full stripe focusing)은 라인 스캐닝의 리트레이스(retrace) 프로세스 동안에 수행된다. 대안적인 일 실시예에서, 포커싱은 이미지 스캐닝 동안에 수행된다. 양쪽 실시예들은 이미지 스캐닝에서 시간 지연들을 배제하고, 그렇게 함으로써 전체 디지털 이미지 스캐닝 프로세스 속도를 올린다. 추가하여, 임의의 실시예들은 다수의 선형 검출기들 또는 다른 컴포넌트들을 이용하여 라인 스캔 영상내 실시간 (즉, 순간적인 또는 거의-순간적인) 포커싱을 허용한다. 이 설명을 판독한 후에 다양한 대안 실시예들을 어떻게 구현하는지 그리고 대안 애플리케이션들에서 해당 실시예들을 어떻게 사용하는지 당해 기술 분야의 통상의 기술에게 명확해질 것이다. 그러나, 비록 다양한 실시예들이 본 출원에서 설명될 것이지만, 이들 실시예들은 제한이 아닌 단지 예제의 방식으로 제공된다는 것이 이해되어야 한다. 이와 같이, 다양한 대안적인 실시예들의 이 상세한 설명은 첨부된 청구항들에 개시된 본 출원의 범위 또는 효과를 제한하는 것으로 해석되지 않아야 한다.
일 실시예에서, 하나 이상의 초점 지점(focus point)들이 샘플 (예를 들어, 유리 현미경 슬라이드 위에 준비된 조직 샘플)에 대하여 결정된다. 예를 들어, 매크로 초점 지점 또는 복수의 초점 지점들이 샘플에 대하여 결정될 수 있다. 구체적으로, 샘플 상에 하나 이상의 위치들이 결정될 수 있다. 각각의 이들 위치들에 대하여, 샘플은 X 및 Y 축들을 따라서 이동될 수 있어서 (예를 들어, 전동 스테이지에 의해), 샘플 상에 해당 위치는 대물렌즈(objective lens) 아래에 위치된다. 대안적인 일 실시예에서, 대물렌즈는 X 및 Y 축들을 따라서 이동될 수 있거나, 또는 대물렌즈 및 샘플 둘 모두가 X 및 Y 축들을 따라서 이동될 수 있어서, 대물렌즈는 샘플 상의 각각의 위치 위에 위치된다. 임의의 경우에, 각각의 위치에 대하여, 해당 위치에서 샘플 영역의 이미지는 복수의 초점 높이들에서 획득될 수 있지만, 한편 대물렌즈가 복수의 초점 높이들을 통하여 Z 축 (즉, X 및 Y 축들 양쪽에 직교하는)을 따라서 이동될 때 샘플은 대물렌즈와 광학적으로 결합된 포커싱 센서를 통하여 X 및 Y 축들에 정지상태(stationary)에 있다. 위치에 대한 복수의 초점 높이들에서 획득된 이미지들에 기초하여, 각각의 위치에 대한 최상의 초점 높이를 산출하기 위해 소프트웨어가 사용될 수 있다. 실시간 초점 메커니즘은 그런 다음 전체 샘플 스캐닝동안에 피드백 루프를 통하여 대물렌즈를 대응하는 위치들에서 산출된 초점 높이들에 제한할 수 있다. 용어 “초점 높이(focus height)” 또는 “Z 높이”는 대물렌즈 샘플에 대하여 대물렌즈의 거리를 설명하기 위해 명세서 전체에서 사용될 수 있지만, 이 용어는 샘플 위에 위치된 대물렌즈에 대한 개시된 실시예들에 제한되지 않는다는 것이 이해되어야 하고, 대신 대물렌즈와 샘플의 평면 간의 거리를 나타내는, 서로에 대한 그것들의 방위들에 관계 없이, 임의의 거리를 아우르는 것이 이해되어야 한다.
도 1은 일 실시예에 따른 스캐닝 시스템(11)의 예제 측면도를 예시하는 블록 다이어그램이다. 예시된 실시예에서, 스캐닝 시스템 (11)은 전동 스테이지 (미도시) 위에 배치되고, 조명 시스템 (미도시)에 의해 조사(illuminate)되고, 스캐닝 방향 (65)으로 이동되는 샘플 (120) (예를 들어, 유리 현미경 슬라이드 위에 준비된 조직 샘플)을 포함한다. 대물렌즈 (130)는 샘플 (120)에 조준되고 슬라이드 위에 검체(specimen)를 통과하고, 슬라이드 위에 검체로부터 반사되고, 슬라이드 위에 검체로부터 형광을 내고, 또는 그렇지 않으면, 대물렌즈 (130)를 통과하는 조명 시스템으로부터의 빛(빛)에 대한 광 경로(optical path)를 제공하는 광학적 FOV (Field of view) (250)를 가진다.
도 1은 공간내 영상 센서 (20)와 포커싱 센서 (30) 간의 상대적 위치들을 예시한다. 빛은 일부의 빛이 영상 센서 (20)로 렌즈 (160)를 통과하는 것을 허용하는 빔 분배기 (140)로 대물렌즈 (130)를 통과하는 광 경로상에서 이동한다. 도 1에 예시된 바와 같이, 빛은 렌즈 (160)와 영상 센서 (20) 사이의 미러 (150)에 의해 벤딩된다 (예를 들어, 90°에서). 영상 센서 (20)는 예를 들어, 라인 전하-결합 디바이스 (CCD : charge-coupled device) 또는 라인 상보적인 금속-옥사이드 반도체 (CMOS : complementary metal-oxide semiconductor) 디바이스일 수 있다.
추가하여, 일부의 빛은 빔 분배기 (140)로부터 렌즈 (165)를 통과하여 포커싱 센서 (30)로 이동한다. 도 1에 예시된 바와 같이, 이 빛은 대물 렌즈 (130)와 렌즈 (165) 사이의 빔 분배기(140)에 의해 벤딩될 수 있다 (예를 들어, 90°에서). 포커싱 센서 (30) 또한 예를 들어, 라인 전하-결합 디바이스 (CCD) 또는 라인 CMOS 디바이스일 수 있다.
일 실시예에서, 영상 센서 (20)로 이동하는 빛 및 포커싱 센서 (30)로 이동하는 빛 각각은 대물 렌즈 (130)로부터 완전한 광학적 FOV (250)를 나타낸다. 시스템의 구성에 기초하여, 샘플 (120)의 스캐닝 방향 (65)은 영상 센서 (20) 및 포커싱 센서 (30)에 대하여 논리적으로 배향되어 논리적 스캐닝 방향 (60)이 대물렌즈 (130)의 광학적 FOV (250)를 개별 포커싱 센서 (30) 및 영상 센서 (20) 위로 지나가게 한다.
도 2 는 일 실시예에 따른 원형의 조명 반경(240)을 갖는 광학적 FOV(250)에 대하여 포커싱 센서(30) 및 영상 센서(20)의 예제 구성을 예시하는 블럭 다이어그램이다. 예시된 실시예에서, 포커싱 센서 (30)의 측위(positioning)가 영상 센서 (20) 및 논리적 스캔 방향 (60)에 대하여 도시된다. 이 경우에서, 스캔 방향 (60)은 스테이지 또는 검체 (예를 들어, 조직 샘플)가 공간내 센서들 (30 및 20)에 대하여 움직이는 방향을 지칭한다. 예시된 바와 같이, 영상 센서 (20)는 대물렌즈 (130)의 광학적 FOV (250)내에 중심이 있지만, 포커싱 센서 (30)는 대물렌즈 (130)의 광학적 FOV (250)의 중심으로부터 오프셋된다. 포커싱 센서 (30)가 대물렌즈 (130)의 광학적 FOV (250)의 중심으로부터 오프셋된 방향은 논리적 스캐닝 방향(60)의 반대이다. 이 배치는 영상 센서 (20)의 앞에 포커싱 센서 (30)를 논리적으로 방위시켜서, 슬라이드 위의 검체가 스캐닝될 때, 포커싱 센서 (30)는 영상 센서 (20)가 이미지 데이터를 센싱하기전에, 동시에, 또는 그 후에 해당 동일한 이미지 데이터를 센싱한다. 따라서, 샘플 (120)의 주어진 부분 (예를 들어, 라인)은 첫번째로 포커싱 센서 (30)에 도달할 것이고, 이어서 두번째로 영상 센서 (20)에 도달할 것이다.
영상 센서 (20) 및 포커싱 센서 (30)가 예를 들어 빔-분배기를 이용하여 동일한 평면상으로 투사될 때, 포커싱 센서 (30)는 논리적 스캐닝 방향 (60)의 면에서 일차 영상 센서 (20)의 앞에 위치에서 광학적 FOV (250)의 반경 R을 갖는 조명 원내에 있다. 따라서, 조직 샘플의 섹션 뷰가 포커싱 센서 (30)를 지나갈 때, 초점 데이터가 캡쳐될 수 있고 대물렌즈 (130)에 대한 초점 높이는 영상 센서 (20)를 지나가는 조직 샘플의 동일한 섹션의 뷰 시간 전에, 동시에 또는 그 후에 하나 이상의 미리 결정된 알고리즘들에 기초하여 산출될 수 있다. 초점 데이터 및 대물렌즈 (130)에 대한 산출된 초점 높이는 조직 샘플의 동일한 섹션의 뷰가 대물렌즈 (130)를 통하여 영상 센서 (20)에 의해 센싱되기 전에 샘플 (120)로부터 대물렌즈 (130)의 높이를 제어(예를 들어, 제어기에 의해)하기 위해 사용될 수 있다. 이런 식으로, 대물렌즈 (130)가 산출된 초점 높이에 있는 동안 영상 센서 (20)는 조직 샘플의 섹션 뷰를 센싱한다.
원형 조명 반경 (240)은 바람직하게는 포커싱 센서 (30) 및 영상 센서 (20)를 커버하는 광학적 FOV(field of view) (250)를 조사한다. 반경 (240)은 포커싱 광 경로 M포커싱의 광학적 확대율(optical magnification) 및 샘플 (120) 위 FOV의 함수이다. 함수는:
Figure pct00001
로서 표현될 수 있다.
예를 들어, M포커싱 = 20 및 FOV = 1.25mm (예를 들어, Leica PlanApo 20x 대물렌즈)에 대하여, R = 12.5mm. 영상 센서 (20)는 최상의 이미지 품질을 위하여 광학적 FOV (250)의 중간에 투사되고, 한편 포커싱 센서 (30)는 영상 센서(20)로부터 거리 h만큼 광학적 FOV (250)의 중심에 대하여 오프셋된다. 거리 h, 반경 R, 및 포커싱 센서 (30)의 길이 L 간에 관계가 있어서:
Figure pct00002
예를 들어, 센서 길이 = 20.48mm 및 R = 12.5mm에 대하여, h ≤ 7.2mm. h > 0 일때, 샘플 (120)의 임의의 주어진 영역은 첫번째 포커싱 센서 (30) 및 두번째 영상 센서 (20)에 의해 센싱되지만, 반면에, h < 0일 때, 샘플 (120)의 주어진 영역은 첫번째 영상 센서 (20) 및 두번째 포커싱 센서 (30)에 의해 센싱된다는 것이 이해되어야 한다. 만약 h = 0이면, 샘플 (120)의 주어진 영역은 스테이지가 슬라이드 스캔 방향 (65)을 따라서 움직일 때 영상 센서 (20) 및 포커싱 센서 (30)에 의해 동시에 센싱된다. 일 실시예에서, 샘플 (120)의 동일한 영역의 다수의 라인 이미지들의 평균은 해당 영역에 대한 라인 이미지로서 사용될 수 있다.
다수의 카메라 라인들을 캡쳐하기 위해, 초점 높이 산출을 위해, 대물렌즈 (130)를 오른쪽 초점 높이로 움직이기 위해 포커싱 센서 (30)가 이용 가능한 시간 t은, 포커싱 센서 (30)와 영상 센서 (20) 사이의 거리 h, 확대율 M포커싱, 및 스캔 속도 v의 함수이다:
Figure pct00003
예를 들어, 4.6mm/s의 스탠 속도에 대하여, M포커싱 = 20 및 h = 7.2mm에 대하여 이용 가능한 최대 시간은 약 78.3ms 이다. 초점 산출을 이해 이용 가능하고 포커싱 센서 (30)에 의해 캡쳐된 카메라 라인들의 최대 수는 :
N = t *
Figure pct00004
, 여기서
Figure pct00005
는 포커싱 센서 (30)의 라인 레이트(line rate)이다.
예를 들어, 18.7kHz의 카메라 라인 레이트에 대하여, Nmax = 1,464 라인들, 여기서 대물렌즈 (130)는 동일한 높이에 머무른다. 만약 그렇지 않으면, N < Nmax 대물렌즈 (130)가 다음 초점 높이로 움직이는 것을 허용한다
하이 레벨에서, 샘플 (120) (예를 들어, 조직 샘플)은 대물렌즈 (130) 아래 X 방향으로 지나간다. 샘플 (120)의 부분은 샘플 (120) 부분의 Z 방향에 (즉, 샘플 (120)의 X-Y 평면에 수직) 조사되는 광학적 FOV (250)를 생성하기 위해 조사된다. 조사된 광학적 FOV (250)는 예를 들어, 빔 분배기 (140)를 이용하여 포커싱 센서 (30) 및 영상 센서 (20) 둘 모두에 광학적으로 결합된 대물렌즈 (130)를 통과한다. 포커싱 센서 (30) 및 영상 센서 (20)는 영상 센서 (20)가 광학적 FOV (250)의 영역 또는 라인을 수신하기 전에, 동시에 또는 그 후에 포커싱 센서 (30)가 동일한 영역 또는 라인을 수신하도록 위치된다. 다시 말해서, 포커싱 센서 (30)가 이미지 데이터의 제 1 라인을 수신한 때, 영상 센서 (20)는 포커싱 센서 (30)에 의해 미리 수신되었고 이미지 데이터의 제 1 라인으로부터 샘플 (120)상에 거리 h/M포커싱에 있는 이미지 데이터의제 2 라인을 동시에 수신한다. 포커싱 센서 (30)가 이미지 데이터의 제 1 라인을 수신한 후에 영상 센서 (20)가 이미지 데이터의 제 1 라인을 수신하기 위해 시간 기간 △t가 걸릴 것이고, 여기서 △t는 샘플 (120)이 논리적 스캔 방향 (60)에서 거리 h/M포커싱을 움직이는데 걸리는 시간을 나타낸다.
기간 △t 동안에, 스캐닝 시스템 (10)의 프로세서는 이미지 데이터의 제 1 라인에 대한 Z 방향에서의 최적 초점 높이를 산출하고, 영상 센서 (20)가 이미지 데이터의 제 1 라인을 수신하기 전에, 그 시간에 또는 그 후에 산출된 최적 초점 거리로 대물렌즈 (130)를 조정한다.
일 실시예에서, 포커싱 센서 (30)는 영상 센서 (20)로부터 분리되고 광학적 영상 경로(optical imaging path)에 수직인 방향에 대하여 각도 θ에서 틸트된다. 따라서, 이미지 데이터의 각각의 라인에 대하여, 포커싱 센서 (30)는 복수의 Z 높이 값들에서 이미지 데이터의 픽셀들을 동시에 수신한다. 프로세서는 그런다음 이미지 데이터의 라인내에서 최상의 초점을 갖는 (예를 들어, 이미지 데이터의 라인내에서 다른 픽셀들에 대하여 가장 높은 콘트라스트(contrast)를 갖는) 픽셀(들)을 결정할 수 있다. 최적의 Z 높이 값이 결정된 후에, 프로세서 또는 다른 제어기는 영상 센서 (20)가 이미지 데이터의 동일한 라인을 수신하기 전에, 동시에 또는 그 후에 결정된 최적의 Z 높이 값으로 Z 방향에서 대물렌즈 (130)를 움직일 수 있다.
상기에서 논의된 바와 같이, 포커싱 센서 (30)는 광학적 FOV 내에서 틸트될 수 있어서 대물렌즈 (130)로부터 빛은 복수의 Z 높이 값들에서 포커싱 센서 (30)에 의해 센싱된다. 도 3a은 일 실시예에 따른 영상 광 경로(210)에 대하여 영상 센서(20)의 예제 평면도 구성을 예시하는 블록 다이어그램이다. 도 3b는 일 실시예에 따른 포커싱 광 경로(200)에 대하여 틸트된 포커싱 센서(30)의 예제 평면도 구성을 예시하는 블록 다이어그램이다. 도 3b에 보여지는 것처럼, 포커싱 센서 (30)는 포커싱 광 경로(200)에 수직인 방향에 대하여 각도 θ에서 틸트된다. 도 3c는 센서의 예제를 예시하는 블럭 다이어그램이고, 센서의 절반은 메인 이미지를 생성하기 위해 사용되고, 센서의 나머지 절반은 포커싱 이미지를 획득하기 위해 사용된다.
따라서, 틸트된 포커싱 센서 (30)에 의해 이미지 데이터의 라인으로 획득되고 틸트된 포커싱 센서 (30)상에 투사된 이미지는 가변 선명도(sharpness) 또는 콘트라스트를 가질 것이다. 이미지 데이터의 이 라인은 틸트된 포커싱 센서 (30)의 특정한 영역 또는 픽셀 위치에 그것의 가장 높은 초점 (예를 들어, 가장 큰 선명도 또는 콘트라스트)을 가질 것이다. 틸트된 포커싱 센서 (30)의 각각의 영역 또는 픽셀 위치는 대물렌즈 (130)의 Z 높이에 직접 매핑될 수 있거나 또는 그렇지 않으면, 거기에 상관될 수 있어서 대물렌즈 (130)의 Z 높이는 틸트된 포커싱 센서 (30)의 특정 픽셀 위치로부터 결정될 수 있다. 따라서, 일단 가장 높은 초점 (예를 들어, 가장 높은 콘트라스트)의 픽셀 위치가 결정되면, 가장 높은 초점의 해당 픽셀 위치에 매핑된 대물렌즈 (130)의 Z 높이를 식별함으로써 가장 높은 초점을 제공하는 대물렌즈 (130)의 Z 높이가 결정될 수 있다. 따라서, 피드백 루프가 구성될 수 있다. 이 피드백 루프에 의해, 샘플 (120) 상의 주어진 영역에 대하여, 영상 센서 (20)가 샘플 (120)의 동일한 영역을 센싱하기 전에, 그 시간에 또는 그 후에, 해당 영역에 대한 가장 높은 초점을 갖는 틸트된 포커싱 센서 (30)상에 위치에 항상 대응하도록 대물렌즈 (130)의 위치가 자동으로 제어될 수 있어서 (예를 들어, 대물렌즈 (130)의 높이를 증가시키거나 또는 감소시킴으로써) 영상 센서 (20)에 의해 이미지화되는 샘플 (120)의 영역은 항상 최상의 이용 가능한 초점에 있다.
도 4는 일 실시예에 따른 예제 틸트된 포커싱 센서(30)를 예시하는 블록 다이어그램이다. 예시된 실시예에서, 틸트된 포커싱 센서 (30)는 조직 샘플 위에 포커싱 범위 (z) (예를 들어, 20μm)내에 복수의 센서 픽셀들 (218)을 포함한다. 도 4에 예시된 바와 같이, 틸트된 포커싱 센서 (30)는 Z 방향에 전체 포커싱 레인지 (z)가 Y 방향에 틸트된 포커싱 센서 (30)내 센서 픽셀들 (218)의 전체 어레이로 광학 기기들에 의해 전사(transfer)되는 위치에 위치될 수 있다. 각각의 센서 픽셀 (218)의 위치는 직접 대물렌즈 (130)의 Z높이에 상관되거나 또는 매핑된다. 도 4에 예시된 바와 같이, 투사된 포커싱 레인지 (d)에 걸친 각각의 파선, p1, p2,...pi...pn는 상이한 초점 값을 나타내고 대물렌즈 (130)의 상이한 초점 높이에 대응한다. 샘플의 주어진 영역에 대한 가장 높은 초점을 갖는 pi는 샘플 (120)의 해당 영역에 대한 대물렌즈 (130)의 최적 초점 높이를 결정하기 위해 스캐닝 시스템 (11)에 의해 사용될 수 있다.
틸트된 포커싱 센서 (30)상에 투사된 포커싱 레인지 (d)와 샘플 (120)상에 포커싱 레인지 (z) 사이의 관계는 : d = z * M포커싱 2 로서 표현될 수 있고, 여기서 M포커싱은 포커싱 경로의 광학적 확대율(optical magnification)이다. 예를 들어, 만약 z = 20μm 및 M포커싱= 20이면, d = 8mm.
선형 어레이 센서인 틸트된 포커싱 센서 (30)에 의해 전체 투사된 포커싱 레인지 (d)를 커버하기 위해서, 틸팅 각도 θ는 관계: sinθ =d/L를 따라야 하고, 여기서 L은 포커싱 센서 (30)의 길이이다. d = 8mm 및 L = 20.48mm를 이용하여, θ = 23.0°. 틸트된 포커싱 센서 (30)가 전체 포커싱 레인지 (z)를 커버하는 한 θ 및 L은 변화할 수 있다.
포커싱 해상도, 또는 Z 축을 따라서 초점 높이 모션의 최소 단계 △z는 센서 픽셀 사이즈의 함수이고, e=minimum(△L). 상기의 공식들로부터 유도된다: △z=e*z/L. 예를 들어, 만약 e=10μm, L=20.48mm, 및 z=20μm이면, △z=0.0097μm<10nm.
일 실시예에서, 샘플 (120)로부터 틸트된 포커싱 센서 (30)에 의해 획득된 스캔 라인 (예를 들어, 일-차원 이미지 데이터)이, 분석된다. FOM(figure of merit) (예를 들어, 데이터의 콘트라스트)가 정의될 수 있다. 센서 어레이상의 최대 FOM의 픽셀 (218)의 위치(대물렌즈 (130)의 초점 높이 값에 대응하는)가 발견될 수 있다. 이런 식으로, 최대 FOM의 픽셀 (218)의 위치에 대응하는, 대물렌즈 (130)의 초점 높이가 해당 스캔 라인에 대하여 결정될 수 있다.
픽셀 i의 틸트된 포커싱 센서 (30)상의 위치 Li 와 대물렌즈 (130)의 초점 높이 Zi 사이의 관계는 다음과 같이 표현될 수 있다 : Li = Zi * M포커싱 2 / sinθ
만약 초점 거리가 L1 로부터 L2까지의 평균에 의해 결정되면, 상기에서 논의된 틸트된 포커싱 센서 (30)로부터의 데이터의 분석에 따라, 대물렌즈 (130)의 초점 높이는 : Z2 = Z1 + (L2-L1)* sinθ / M포커싱 2에 기초하여 Z1으로부터 Z2 까지 이동되는 것이 요구된다
비록 포커싱 센서 (30) 및 영상 센서 (20)의 Y축에 FOV (field of view)는 상이할 수 있지만, 양쪽 센서들의 중심들은 바람직하게는 Y 축을 따라서 서로에 정렬된다.
도 5 는 일 실시예에 따라 스캐닝 동안에 포커싱 센서(30)와 영상 센서(20) 간에 예제 상호작용을 예시하는 시간 챠트 다이어그램이다. 구체적으로, 영상 센서 (20)와 포커싱 센서 (30)를 이용하는 스캔의 타이밍이 예시된다. 시간 t0에서, 대물렌즈 (130)의 초점 높이는 포커싱 센서 (30)의 FOV내에 있는 조직 섹션 X1상의 Z0에 있다. 포커싱 센서 (30)는 조직 섹션 X1에 대응하는 포커싱 데이터를 수신한다. 초점 높이 Z1가 포커싱 데이터 및, 일부 실시예들에서, 관련된 포커싱 알고리즘들을 이용하여 조직 섹션 X1에 대한 최적 초점 높이에 있는 것으로 결정된다. 최적 초점 높이는 그런 다음 예를 들어, 제어 루프를 이용하여 대물렌즈 (130)를 높이 Z1로 이동시키기 위해 Z 포지셔너(positioner)에 공금된다. t1에서 조직 섹션 X1 이 영상 센서 (20)의 FOV으로 이동된다. 올바른 초점 높이를 가지고, 영상 센서 (20)는 조직 섹션 X1의 최적으로-포커싱된 이미지를 센싱할 것이다. 동시 시간 t1에서, 포커싱 센서 (30)는 조직 섹션 X2으로부터 포커싱 데이터를 캡쳐하고, 포커싱 데이터는 조직 섹션 X2가 시간 t2에서 영상 센서 (20)의 FOV로 통과하기 전에, 그 시간에 또는 그 후에 Z 포지셔너로 이어 공급될 최적 초점 높이 Z2를 결정하기 위해 사용될 것이다. 이런 프로세스는 전체 조직 샘플이 스캔될 때까지 계속될 수 있다.
일반적으로 시간 tn에서, 조직 섹션 Xn+1은 포커싱 센서 (30)의 FOV내에 있고, 조직 섹션 Xn은 영상 센서 (30)의 FOV내에 있고, 대물렌즈 (130)는 Zn의 초점 높이에 있다. 더욱이, tn+1 전에, 그 때 또는 그 후에, 조직 섹션 Xn+1에 대한 최적 초점 높이가 결정되고 대물렌즈 (130)의 초점 높이는 Zn+1로 조절된다. 시간 t0에서, 포커싱 센서 (30)는 조직 섹션 X1을 센싱하고 조직 섹션 X1에 대하여 Z1으로 초점 높이를 결정하고; 시간 t1에서, 포커싱 센서 (30)가 조직 섹션 X2를 센싱하고 조직 섹션 X2에 대하여 Z2로 초점 높이를 결정하는 동안 조직 섹션 X1은 영상 센서 (20) 아래로 이동하고 대물렌즈 (130)는 초점 높이 Z1로 이동하고 ; 시간 tn에서, 포커싱 센서 (30)가 조직 섹션 Xn+1를 센싱하고 조직 섹션 Xn+1에 대하여 Zn+1로 초점 높이를 결정하는 동안 조직 섹션 Xn은 영상 센서 (20) 아래로 이동하고 대물렌즈 (130)는 초점 높이 Zn로 이동한다. 스캔 라인이 포커싱 센서(30)에 의해 획득되고 동일한 스캔 라인이 영상 센서 (20)에 의해 획득되기 전에, 동시에 또는 그 후에 스캔 라인에 대한 최적 초점 높이가 결정되고 셋팅되는 한 Xn-1 및 Xn은 반드시 이미지 데이터의 연속적인 또는 인접한 라인들을 나타낼 필요는 없다. 다시 말해서, 포커싱 센서 (30) 및 영상 센서 (20)는 하나 이상의 스캔 라인들이 포커싱 센서 (30)의 FOV 와 영상 센서 (20)의 FOV 사이에 존재하도록, 즉, 포커싱 센서 (30)와 영상 센서 (20) 사이에 거리 h가 데이터의 하나 이상의 스캔 라인들을 포함하도록 배열될 수 있다. 예를 들어, 거리 h가 다섯개의 스캔 라인들을 포함하는 경우에, 조직 섹션 X6는 조직 섹션 X1는 영상 센서 (20)의 FOV에 있는 동시에 포커싱 센서 (30)의 FOV내에 있을 것이다. 이 경우에서, 조직 섹션 X5가 영상 센서 (20)에 의해 센싱된 후에 그러나 조직 섹션 X6가 영상 센서 (20)에 의해 센싱되기 전에, 동시에 또는 그 후에 대물렌즈 (130)의 초점 높이는 산출된 최적 초점 높이로 조절될 것이다. 바람직하게는, 대물렌즈 (130)의 초점 높이는 조직 샘플의 점진적 경사도(slope)에 근사하는 X1와 X6 사이의 초점 높이에서 증분하는 변화들이 있도록 조직 섹션 X1과 X6 사이에서 매끄럽게 제어될 수 있다.
도 6 은 일 실시예에 따른 하나 이상의 빔 분배기들 및 하나 이상의 프리즘 미러들을 이용하는 틸트된 포커싱 센서 (30)를 예시한다. 빔 분배기(들) 및 미러(들)은 상이한 초점 거리에 복수의 이미지들의 각각을 갖는 틸트된 포커싱 센서 (30)상에 동일한 FOV의 복수의 이미지들을 생성하기 위해 사용되고, 그렇게 함으로써 포커싱 센서 (30)가 상이한 초점들 (대물렌즈 (130)에 대하여 상이한 초점 높이들에 대응하는)에서 샘플 (120)의 동일한 영역의 다수의 이미지들을 동시에 센싱하는 것을 가능하게 한다. 포커싱 센서 (30)는 단일의 큰 라인 센서일 수 있거나, 또는 복수의 라인 센서들 (예를 들어, 종축을 따라서 일렬로 위치된)을 포함할 수 있다.
구체적으로, 도 6 은 단일 틸트된 라인 센서 (30) 위로 각각이 상이한 초점 거리들을 갖는 복수의 광 경로들 (610A-610C)를 통하여 광 빔(light beam) (605) (별개의 레드, 블루, 및 그린 채널들로서 예시된, 그러나 그것들은 분리된 채널들일 필요는 없다)을 가이드하기 위해 빔 분배기들 (620A) 및 (620B) 및 프리즘 미러 (630)를 사용하는 틸트된 포커싱 센서 (30)를 예시한다. 광 빔 (605)은 대물렌즈 (130)로부터 FOV를 전달하는 것이 이해되어야 한다. 예시된 바와 같이, 가장 높은 초점 거리로부터 가장 낮은 초점 거리로의 순서로 광 경로들은, (610A, 610B, 및 610C)이다. 그러나, 각각의 광 경로는 틸트된 라인 센서 (30)의 틸트 때문에 단일 초점 거리에서 보다 오히려 초점 거리들의 범위에서 틸트된 라인 센서 (30)에 도달할 것이라는 것이 이해되어야 한다. 다시 말해서, 각각의 광 경로상에 틸트된 라인 센서 (30)에 의해 획득된 이미지는 이미지의 제 1 측면으로부터 이미지의 제 2, 반대 측면까지 증가하는 초점 거리에서 획득된 픽셀들을 포함할 것이다. 예시된 예제에서, 광 빔 (605)은 빔 분배기 (620A)로 진입하여 빔 분배기 (620B)로 진행하는 광 경로 및 제 1 초점 거리에서 틸트된 포커싱 센서 (30)의 제 1 영역으로 진행하는 광 경로 (610A)로 분열된다. 빔 분배기 (620B)로 진행한 광 경로는 제 3 초점 거리에서 틸트된 포커싱 센서 (30)의 제 3 영역상으로 미러(630)에서 반사되는 광 경로 (610C) 및 제 2 초점 거리에서 틸트된 포커싱 센서 (30)의 제 2 영역으로 진행하는 광 경로(610B)로 분열된다. 제 1, 제 2, 및 제 3 초점 거리들 및 제 1, 제 2, 및 제 3 영역들의 각각은 서로 상이하다. 이 방식에서, 단일 틸트된 포커싱 센서 (30)는 복수의 상이한 초점 거리들 (예를 들어, 예시된 예제에서 세개)에서 광 빔 (605)을 동시에 센싱한다. 더 작거나 또는 더 많은 빔 분배기들 (620) 및/또는 미러들 (630)이 상이한 초점 거리들을 갖는 (예를 들어, 두개의 광 경로들 또는 네개 또는 그 이상 광 경로들, 각각이 틸트된 포커싱 센서 (30)에 대하여 상이한 초점 거리를 갖는) 더 작거나 또는 더 많은 광 경로들 (610)을 생성하기 위해서 사용될 수 있다는 것이 이해되어야 한다.
도 6에 예시된 실시예에 대하여, 최상의 초점이 결정될 수 있고 상기에서 설명된 것과 동일한 방식으로 대물렌즈 (130)의 높이에 상관(correlated)될 수 있다. 상이한 초점 거리들에서 복수의 이미지들로부터 중복 정보는 초점 결과에 대한 더 높은 확신을 제공할 수 있다.
도면들 7a 및 7b은 틸트된 포커싱 센서에 대한 대안들을 예시한다. 구체적으로, 도면들 7a 및 7b는 복수의 실시예에 따른 틸트된 포커싱 센서와 동일한 결과들을 달성하기 위해서 하나 이상의 빔 분배기들 및 하나 이상의 프리즘 미러들을 이용하는 논-틸트된 포커싱 센서 (30)를 예시한다. 빔 분배기(들) 및 미러(들)은 상이한 초점 거리에 복수의 이미지들의 각각을 갖는 포커싱 센서 (30)상에 동일한 FOV의 복수의 이미지들을 생성하기 위해 사용되고, 그렇게 함으로써 포커싱 센서 (30)가 상이한 초점들 (대물렌즈 (130)에 대하여 상이한 초점 높이들에 대응하는)에서 샘플 (120)의 동일한 영역의 다수의 이미지들을 동시에 센싱하는 것을 가능하게 한다. 포커싱 센서 (30)는 단일의 큰 라인 센서일 수 있거나 또는 종축을 따라서 일렬로 위치된 복수의 라인 센서들을 포함할 수 있다.
도 7a는 단일 라인 센서 (30) 위로 각각이 상이한 초점 거리들을 갖는 복수의 광 경로들 (610A-610C)를 통하여 광 빔 (605) (별개의 레드, 블루, 및 그린 채널들로서 예시된, 그러나 그것들은 분리된 채널들일 필요는 없다)을 가이드하기 위해 빔 분배기들 (620A) 및 (620B) 및 프리즘 미러들 (630A) 및 (630B)를 사용하는 논-틸트된 포커싱 센서 (30)를 예시한다. 광 빔 (605)은 대물렌즈 (130)로부터 FOV를 전달하는 것이 이해되어야 한다. 예시된 바와 같이, 가장 높은 초점 거리로부터 가장 낮은 초점 거리로의 순서로 광 경로들은, (610A, 610B, 및 610C)이다. 예시된 예제에서, 광 빔 (605)은 빔 분배기(beam splitter) (620A)로 진입하여 빔 분배기 (620B)로 진행하는 광 경로 및 제 1 초점 거리에서 포커싱 센서 (30)의 제 1 영역으로 유리 블럭(640A)를 통과하여 미러(630A)로부터 반사된 광 경로(610B)로 분열된다. 빔 분배기 (620B)로 진행한 광 경로는 제 3 초점 거리에서 포커싱 센서 (30)의 제 3 영역상으로 (예를 들어, 포커싱 센서 (30)의 제 2 영역에 인접한) 유리 블럭(640B)를 통과하여 미러(630B)에서 반사되는 광 경로 (610C) 및 제 2 초점 거리에서 포커싱 센서 (30)의 제 2 영역으로 (예를 들어, 포커싱 센서 (30)의 제 1 영역에 인접한) 진행하는 광 경로(610A)로 분열된다. 제 1, 제 2, 및 제 3 초점 거리들 및 제 1, 제 2, 및 제 3 영역들의 각각은 서로 상이하다. 이 방식에서, 포커싱 센서 (30)는 복수의 상이한 초점 거리들 (예를 들어, 예시된 예제에서 세개)에서 광 빔 (605)을 동시에 센싱한다. 더 작거나 또는 더 많은 빔 분배기들 (620), 미러들 (630), 유리 블럭들(640) 및 포커싱 센서 (30)의 영역들이 상이한 초점 거리들을 갖는 (예를 들어, 두개의 광 경로들 또는 네개 또는 그 이상 광 경로들, 각각이 포커싱 센서 (30)에 대하여 상이한 초점 거리를 갖는) 더 작거나 또는 더 많은 광 경로들 (610)을 생성하기 위해서 사용될 수 있다는 것이 이해되어야 한다.
도 7b는 복수의 라인 센서들 (30A-30C)의 개별 라인 센서들 위로 각각이 상이한 초점 거리들을 갖는 복수의 광 경로들 (610A-610C)를 통하여 광 빔 (605) (별개의 레드, 블루, 및 그린 채널들로서 예시된, 그러나 그것들은 분리된 채널들일 필요는 없다)을 가이드하기 위해 빔 분배기들 (620A) 및 (620B) 및 프리즘 미러들 (630A) 및 (630B)를 사용하는 논-틸트된 포커싱 센서 (30)를 예시한다. 예시된 바와 같이, 가장 높은 초점 거리로부터 가장 낮은 초점 거리로의 순서로 광 경로들은, (610A, 610B, 및 610C)이다. 예시된 예제에서, 광 빔 (605)은 빔 분배기 (620A)로 진입하여 빔 분배기 (620B)로 진행하는 광 경로 및 제 1 초점 거리에서 포커싱 센서 (30)의 제 1 영역으로 유리 블럭(640A)를 통과하여 미러(630A)로부터 반사된 광 경로(610B)로 분열된다. 빔 분배기 (620B)로 진행한 광 경로는 제 3 초점 거리에서 포커싱 센서 (30)의 제 3 영역상으로 유리 블럭(640B)을 통과하여 미러(630B)에서 반사되는 광 경로 (610C) 및 제 2 초점 거리에서 포커싱 센서 (30)의 제 2 영역으로 진행하는 광 경로(610A)로 분열된다. 포커싱 센서(30)의 제 1, 제 2, 및 제 3 영역들 및 제 1, 제 2, 및 제 3 초점 거리들의 각각은 서로 상이하다. 이 방식에서, 포커싱 센서 (30)는 복수의 상이한 개별 초점 거리들 (예를 들어, 예시된 예제에서 세개)에서 광 빔 (605)을 동시에 센싱한다. 더 작거나 또는 더 많은 빔 분배기들 (620), 미러들 (630), 유리 블럭들(640) 및 포커싱 센서 (30)의 영역들이 상이한 초점 거리들을 갖는 (예를 들어, 두개의 광 경로들 또는 네개 또는 그 이상 광 경로들, 각각이 상이한 포커싱 센서 (30)에 대하여 상이한 초점 거리를 갖는) 더 작거나 또는 더 많은 광 경로들 (610)을 생성하기 위해서 사용될 수 있다는 것이 이해되어야 한다.
도면들 6, 7a, 및 7b에 예시된 실시예들에서, 빔 분배기들 및 미러들은 광 경로내 영상 렌즈 뒤에 위치된다. 대안적으로, 튜브 렌즈(tube lens)들이 빔 분배 광학기기들 뒤에 위치될 수 있다. 이 대안 실시예에서, 동일한 FOV를 개별 이미지들의 위치들은 초점 길이들 및 렌즈들의 위치들에 의해 정의된다.
도 7c는 일 실시예에 따른 빔 분배 광학기기(beam splitting optics)들이 튜브 렌즈들 앞에 위치된 대안적인 논-틸트된 포커싱 센서 (30)를 예시한다. 구체적으로, 논-틸트된 포커싱 센서 (30)는 단일 라인 센서 (30)상으로 각각이 상이한 초점 거리들을 갖는 복수의 광 경로들 (610A-610D)을 통하여 광 빔 (605)을 가이드하기 위해 빔 분배기들 (620A, 620B, 및 620C) 및 프리즘 미러 (630)를 사용한다. 예시된 바와 같이, 가장 높은 초점 거리로부터 가장 낮은 초점 거리로의 순서로 광 경로들은, (610A, 610B, 610C 및 610D)이다. 예시된 예제에서, 광 빔 (605)은 빔 분배기 (620A)로 진입하여 빔 분배기 (620B)로 진입하는 광 경로 및 제 1 초점 거리에서 포커싱 센서 (30)의 제 1 영역으로 렌즈 (650A)에 의해 포커싱된 광 경로 (610A)로 분열된다. 빔 분배기 (620B)로 진행하는 광경로는 빔 분배기 (620C)로 진행하는 광 경로 및 제 2 초점 거리에서 포커싱 센서 (30)의 제 2 영역으로 렌즈 (650B)에 의해 포커싱되는 광 경로 (610B)로 분열된다. 빔 분배기 (620B)로 진행하는 광 경로는 제 4 초점 거리에서 틸트된 포커싱 센서 (30)의 제 4 영역으로 렌즈 (650D)에 의해 포커싱되고 미러(630)로부터 반사되는 광 경로 (610C) 및 제 3 초점 거리에서 포커싱 센서 (30)의 제 3 영역으로 렌즈 (650C)에 의해 포커싱된 광 경로 (610C)로 분열된다. 제 1, 제 2, 제 3, 및 제 4 초점 거리들 및 제 1, 제 2, 제 3, 및 제 4 영역들의 각각은 서로 상이하다. 이런 식으로, 포커싱 센서 (30) (예를 들어, 단일 라인 센서 또는 복수의 라인 센서들을 포함하는)는 복수의 상이한 초점 거리들 (예를 들어, 예시된 예제에서 네개)에서 광 빔 (605)을 동시에 센싱한다. 더 작거나 또는 더 많은 빔 분배기들 (620), 미러들 (630), 및 포커싱 센서 (30)의 영역들이 상이한 초점 거리들을 갖는 (예를 들어, 두개의 광 경로들, 세개의 광 경로들 또는 다섯개 또는 그 이상 광 경로들, 각각이 포커싱 센서 (30)에 대하여 상이한 초점 거리를 갖는) 더 작거나 또는 더 많은 광 경로들 (610)을 생성하기 위해서 사용될 수 있다는 것이 이해되어야 한다.
상기에서 설명된 실시예들에서, 샘플 (120)의 주어진 영역은 상이한 초점 거리들에서 복수의 이미지들을 생성하는 복수의 상이한 초점 거리들에서 포커싱 센서 (30)의 상이한 영역들에 의해 동시에 획득된다. 그런 다음 알고리즘이 Z 축을 따라서 대물렌즈 (130)의 초점 높이에 상관될 수 있는 최상의 초점 거리를 결정하기 위해 이 복수의 이미지들에 적용될 수 있다.
광학기기들을 정렬시킴으로써 (예를 들어, 상기에서 논의된 바와 같이), 포커싱 센서 (30)의 상이한 영역들에 의해 획득된 복수의 이미지들은 초점 버퍼(focus buffer)로부터 다양한 초점 스팟(spot)들에 상관될 수 있거나 또는 매핑될 수 있다. 초점 버퍼는 대물렌즈 (130)가 Z 축을 이동하는 동안 (즉, 대물렌즈 (130)의 초점 높이가 변화할 때) 연속적으로 획득된 이미지 데이터로부터 산출된, 초점 지점들에 대한, 콘트라스트 측정값들을 함유할 수 있다. 예를 들어, 복수의 이미지들에 의해 표시된 각각의 초점 높이에 대한 콘트라스트 (예를 들어, 평균된 콘트라스트)의 측정값이 도 8에 지점들에 의해 예제로 예시된 바와 같이 플롯될 수 있다. 최상의 초점 (즉, 초점 버퍼내 콘트라스트 측정값의 피크)은 도 8에 커브에 의한 예제로 예시된 바와 같이 지점들을 가장 잘 피팅한 커브의 피크를 식별하기 위해 피크-발견(peak-finding) 알고리즘 (예를 들어, 피팅(fitting), 힐-클라이밍(hill-climbing), 등)을 이용함으로써 결정될 수 있다.커브의 피크는 콘트라스트 측정값를 나타내고, 최상의 초점을 제공하는 특정한 초점 높이에 매핑한다.
도 9a는 일 실시예에 따른 틸트된 포커싱 센서 (30)와 영상 센서 (20) 간의 초점 관계를 예시한다. 구체적으로, 일 실시예에서, 틸트된 포커싱 센서 (30)의 지점 P는 영상 센서 (20)와 초점 거리가 같다(parfocal). 따라서, 틸트된 포커싱 센서 (30)를 이용하여 샘플 (120)의 영역을 센싱할 때, 샘플 (120)로부터 대물렌즈 (130)의 적절한 초점 높이는 포커싱 센서 (30)의 지점 P에서 최상의 초점을 갖는 픽셀(들)을 위치키시는 대물렌즈 (130)의 초점 높이로 결정될 수 있다. 이 결정된 초점 높이는 영상 센서 (20)를 이용하여 동일한 영역을 센싱할 때 대물렌즈 (130)에 대하여 이어 사용될 수 있는 것이다.
도면들 9b-9d는 틸트된 포커싱 센서 (30)와 영상 센서 (20)에 대한 초점 함수들을 예시한다. 초점 함수(focus function)는 틸트된 포커싱 센서 (30) 및 영상 센서 (20)에 의해 센싱된 이미지들내 콘트라스트의 함수일 수 있다. 예를 들어, CI는 영상 센서 (20)에 대한 콘트라스트 함수를 나타내고, CT는 틸트된 포커싱 센서 (30)에 대한 콘트라스트 함수를 나타낸다. 따라서, CI(x)는 영상 센서 (20)의 어레이를 따라서 위치 x에서 이미지 픽셀에 대한 콘트라스트 측정값을 리턴하고, CT(x)는 포커싱 센서 (30)의 어레이를 따라서 위치 x에서 이미지 픽셀에 대한 콘트라스트 측정값을 리턴한다. 양쪽 경우들에서, 콘트라스트 측정값은 x에서 콘트라스트 값들의 제곱 평균(root mean square)일 수 있다. CD는 CT와 CI 간의 차이를 나타낸다 (예를 들어, CT-CI). 따라서, CD(x)는 영상 센서 (20)와 틸트된 포커싱 센서 (30)의 어레이들을 따라서 위치 x에서 CT와 CI 간의 차이를 나타낸다 (예를 들어, CT(x)-CI(x)). CD(x)는 조직-의존 공간 변화량(tissue-dependent spatial variation)들을 제거한다. 두개의 이미지들의 콘트라스트 함수들 간의 비율은 조직-의존 공간 변화량들을 제거하기위해 또한 사용될 수 있다 (예를 들어, CT(x)/CI(x)). 추가하여, 백그라운드 잡음(background noise)로부터의 영향들을 제거하기 위해 임계값(threshold)이 정의될 수 있다.
도 9b는 영상 센서 (20)상에 위치의 함수로서 콘트라스트 측정값을 나타내는 콘트라스트 함수 CI 2를 예시한다. 유사하게, 도 9c는 틸트된 포커싱 센서 (30)상에 위치의 함수로서 콘트라스트 측정값을 나타내는 콘트라스트 함수 CT 2를 예시한다. 도 9d는 틸트된 포커싱 센서 (30)에 대한 콘트라스트 함수 대 영상 센서 (20)에 대한 콘트라스트 함수의 비율 (즉, CT 2/CI 2)을 예시한다.
틸트된 포커싱 센서 (30) 및 영상 센서 (20) 둘 모두가 샘플 (120)의 동일한 영역을 센싱할 때, 최상의 초점은 CT 대 CI의 비율이 (예를 들어, CT/CI) 1.0인 양쪽 센서들 (30 및 20)상에 위치 x에 있을 것이다. 틸트된 포커싱 센서 (30)상에 미리 결정된 지점 P는 영상 센서 (20)와 초점 거리가 같다. 이 지점 P은 시스템 캘리브레이션 동안에 결정될 수 있다.
일 실시예에서, FOM(figure-of-merit) 함수는 틸트된 포커싱 센서 (30)에 의해 획득된 데이터에 기초하여 샘플 (120)의 영역에 대한 최상 초점(best focus)을 결정하기 위해 사용될 수 있다. 구체적으로, CT 함수의 피크가 결정될 수 있다. 이 CT 피크는 틸트된 포커싱 센서 (30) 상에 위치 x 에 대응될 것이고 대물렌즈 (130)의 Z 레인지내에 초점 높이 에 상관될 것이다. 따라서, CT 피크가 틸트된 포커싱 센서 (30)상에 초점 거리가 같은 지점 P로부터 떨어져 있을 때 (즉, CT(P)가 피크 값을 나타내지 않는다), CT의 피크가 P에 있을 때까지 (즉, CT(P)가 CT에 대한 피크 값일 때까지) 샘플 (120) (즉, Z 축)에 직교하는 축을 따라서 실시간으로 대물렌즈 (130)을 이동시키기 위해서 명령이 개시될 수 있다. 다시 말해서, 디-포커스(de-focus)는 틸트된 포커싱 센서 (30)상에 초점거리가 같은 지점 P로부터 떨어진 CT의 피크 값의 시프트(shift)에 의해 특징되고, 자동-포커싱(auto-focusing)이 CT의 피크 값이 틸트된 포커싱 센서 (30) 상의 초점거리가 같은 지점 P에 있을 때까지 Z축을 따라서 대물렌즈 (130)를 이동시키는 피드백 루프를 통하여 달성될 수 있다.
일 실시예에서, 영상 센서 (20)에 의해 획득된 FOV의 이미지는 그것들의 비율, 차이, 또는 다른 산출을 이용하여 포커싱 센서 (30) (예를 들어, 틸트된 포커싱 센서 (30))에 의해 획득된 동일한 FOV의 이미지에 비교된다.
일 실시예에서, 포커싱 센서 (30)는 이미지들의 픽셀들에 의해 표시된 초점 거리들의 면에서 역전된 동일한 FOV의 두개의 이미지들을 획득하도록 디자인된 단일 라인 센서 또는 듀얼 라인 센서들을 포함할 수 있다. 예를 들어, 두개의 이미지들 중 첫번째 이미지는 캡쳐된 FOV의 제 1 측면 (예를 들어, 좌측)에서 가장 낮은 초점 거리를 나타내는 픽셀들 및 제 1 측면에 반대인 (예를 들어, 우측) 캡쳐된 FOV의 제 2 측면에서 가장 높은 초점 거리를 나타내는 픽셀들을 가지지만, 반면에 두개의 이미지들 중 두번째 이미지는 캡쳐된 FOV의 제 2 측면 (예를 들어, 우측)에서 가장 낮은 초점 거리를 나타내는 픽셀들 및 켭쳐된 FOV의 제 1 측면 (예를 들어, 좌측)에서 가장 높은 초점 거리를 나타내는 픽셀들을 가진다. 만약 가장 높은 그리고 가장 낮은 초점 거리들이 양쪽 이미지들에 대하여 동일하다면, 그러면 각각의 이미지의 중심에 픽셀들의 라인은 두개의 이미지들 사이에서 초점 거리가 같을 것이고, 각각의 이미지의 캡쳐된 FOV의 중심으로부터 측면 에지들 (예를 들어, 왼쪽 및 오른쪽 에지들)로 발산하는 픽셀들의 대응하는 라인들은 반대 방향들에 있지만 두개의 이미지들간에 도한 초점거리가 같을 것이다. 예를 들어, 이미지들의 에지들을 임의로 정의하기 위해 왼쪽 및 오른쪽을 이용하여, 모든 거리들 D에 대하여, 제 1 이미지에 표시된 FOV의 중심으로부터 왼쪽 에지까지 거리 D인 제 1 이미지내 픽셀들의 수직 라인은 제 2 이미지내 FOV의 중심으로부터 오른쪽 에지까지 거리 D인 제 2 이미지내 픽셀들의 수직 라인과 초점 거리가 같을 것이다. 만약 FOV가 제 1 및 제 2 이미지들 사이에서 역전되거나 또는 미러링되면, 그러면 양쪽 이미지들은 이미지의 동일한 측면들상에 그러나 이미지에 의해 표시된 FOV의 반대 측면들상에 그것들의 가장 높고 및 가장 낮은 초점 거리들을 가질 것이다는 것이 이해되어야 한다.
도 10 은 일 실시예에 따른 두개의 포커싱 센서들 (30A 및 30B)을 이용하여 역전된 초점 거리들을 갖는 두개의 이미지들을 형성하기 위한 광학 컴포넌트들을 예시한다. 포커싱 센서 (30A)의 틸트는 논리적 Z 축 (즉, 초점 축)을 중심으로하여 포커싱 센서 (30B)의 틸트에 대하여 역전된다. 빛은 그것이 대물렌즈 (130)를 통과한 후에 벤딩될 수 있기 때문에(예를 들어, 빔 분배기 또는 프리즘 미러에 직교하여) 도 10에 논리적 Z 축은 대물렌즈 (130)의 물리적 Z 축과 반드시 동일하지 않는다는 것이 이해되어야 한다. 이 실시예에서, 광 경로들 (610A 및 610B)은 동일한 광학적 FOV를 포커싱 센서들 (30A 및 30B)에 제공하지만, 그러나 포커싱 센서들 (30A 및 30B)은 그것들의 틸트에 면에서 역전되기 때문에, 두개의 이미지들내 픽셀들의 초점 거리들은 역전된다. 이것은 각각이 상이한 샘플 초점의 높이를 나타내는 세개의 화살표들 라벨링된 Z1, Z2, 및 Z3의 세트에 의해 예시된다. 따라서, Z1 a 및 Z1 b는 둘 모두 제 1 초점 높이를 나타내고, Z2 a 및 Z2 b는 둘 모두 제 2 초점 높이를 나타내고, 및 Z3 a 및 Z3 b는 둘 모두 제 3 초점 높이를 나타내고, 여기서 각각의 제 1, 제 2, 및 제 3 초점 높이들은 서로 상이하다.
도면들 11a 및 11b는 두개의 상이한 실시예들에 따라 틸트된 포커싱 센서 (30)상에 두개의 미러 이미지들을 형성하기 위한 광학 컴포넌트들을 예시한다. 예시된 실시예들에서, 하나 이상의 광학 컴포넌트들은 틸트된 포커싱 센서 (30)의 제 1 영역상에 FOV 및 틸트된 포커싱 센서 (30)의 제 2 영역상에 역전된 FOV를 형성하기 위해 사용될 수 있다. 틸트된 포커싱 센서 (30)는 may be 단일 라인 센서 또는 복수의 인접한 라인 센서들일 수 있다는 것이 이해되어야 한다.
도 11a는 제 1 실시예에 따른 틸트된 포커싱 센서 (30)상에 두개의 미러 이미지들을 형성하기 위한 광학 컴포넌트들을 예시한다. 예시된 바와 같이, 광 빔 (605)이 빔 분배기 (620)로 유입되고, 도브 프리즘(dove prism)(660)을 통과하는 광 경로 (610B) 및 제 1 이미지가 포커싱 센서 (30)의 제 1 영역 (30A)으로부터 획득되도록 포커싱 센서 (30)의 제 1 영역 (30A)상으로 미러 (630)로부터 반사되는 광 경로 (610A)로 분열된다. 미러 이미지가 포커싱 센서 (30)의 제 2 영역 (30B)상에 형성되어 제 2 이미지가 포커싱 센서 (30)의 제 2 영역 (30B)으로부터 획득되도록 도브 프리즘(660)은 광 빔 (605)을 역전시킨다. 다시 말해서, 광 경로 (610A)는 포커싱 센서 (30)의 제 1 영역 (30A)에 FOV를 그리고 포커싱 센서 (30)의 제 2 영역 (30B)에 미러링된 FOV를 제공한다. 따라서, 제 2 이미지는 논리적 Z 축을 중심으로 하여 제 1 이미지의 미러 이미지이다. 틸트 (θ)의 각도는 틸트된 포커싱 센서 (30)의 제 1 영역 (30A) 및 제 2 영역 (30B) 양쪽에서 동일하기 때문에, 제 1 및 제 2 이미지들에 도시된 FOV(field of view)는 그것들이 획득되었던 초점 거리들 (예를 들어, 가장 높은 곳에서부터 가장 낮은 곳까지)의 방향면에서 역전된다.
도 11b는 제 2 실시예에 따른 틸트된 포커싱 센서 (30)상에 두개의 미러 이미지들을 형성하기 위한 광학 컴포넌트들을 예시한다. 예시된 바와 같이, 광 빔 (605)은 빔 분배기 (620)로 입사하여 광 경로 (610B) 및 틸트된 포커싱 센서 (30)의 제 1 영역 (30A)로 미러 (630A) (예를 들어, 플랫 플레이트(flat plate)로부터 반사된 광 경로 (610A)로 분열된다. 광 경로 (610B)는 빔 분배기 (620)로 다시 미러 (630B)의 두개의 표면들로부터 반사되고, 여기서 그것은 틸트된 포커싱 센서 (30)의 제 2 영역 (30B) 상으로 반사된다. 광 경로 (610B)상으로 이동하는 광 빔 (605)은 역전되어 그것은틸트된 포커싱 센서 (30)의 제 1 영역 (30A)상에 광 경로 (610A)에 형성된 이미지의 미러 이미지인 틸트된 포커싱 센서 (30)의 제 2 영역 (30B)상에 이미지를 생성한다. 틸트 (θ)의 각도는 틸트된 포커싱 센서 (30)의 제 1 영역 (30A) 및 제 2 영역 (30B) 양쪽에서 동일하기 때문에, 제 1 및 제 2 이미지들에 도시된 FOV는 그것들이 획득되었던 초점 거리들 (예를 들어, 가장 높은 곳에서부터 가장 낮은 곳까지)의 방향면에서 역전된다.
도 12a는 일 실시예에 따른 도면들 10, 11a, 및 11b에 예시된 실시예들에 포커싱 센서 (30)의 영역들 (30A 및 30B)에 의해 획득된 두개의 이미지들에 대한 초점 거리들의 지향성을 예시한다. 차이, 비율, 또는 다른 산출을 이용한 이들 두개의 이미지들의 비교는 포커싱 센서 (30)에 대한 최상 초점을 달성하는 Z 축상에 초점 높이에 대물렌즈 (130)를 배치하기 위해 요구되는 움직임의 방향 및 움직임의 양을 제공한다. 일 실시예에서, 포커싱 센서 (30)의 각각의 영역(들)(즉, 그것 자체의 별개의 광 경로 (610)에 대응하는 각각의 영역)의 초점거리가 같은 지점 또는 중심은 영상 센서 (20)와 뿐만 아니라 서로 초점 거리가 같다. 따라서, 샘플 (120)의 주어진 영역에 대한 최상 초점을 결정하는 단계는 포커싱 센서(30)에 의해 획득된 두개의 이미지들에 대한 최상 초점들이 이미지들을 획득하는 포커싱 센서 (30)의 개별 영역들의 초점 거리가 같은 지점 또는 중심에 있도록 대물렌즈 (130)에 대한 초점 높이를 식별하는 단계를 포함한다. 포커싱 센서 (30)의 영역들에 대한 최상 초점들이 이런 식으로 중심에 있거나 또는 초점 거리가 같을 때, 양쪽 영역들의 중심들 또는 초점 거리가 같은 지점들에 대응하는 대물렌즈 (130)의 초점 높이는 또한 영상 센서 (30) 가 샘플 (120)의 주어진 영역에 대한 최상 초점에 있는 초점 높이 (예를 들어, 시스템 캘리브레이션 동안에 결정된 초점거리가 같은 지점과 또는 포커싱 센서 (30)의 양쪽 영역들의 중심들과 초점 거리가 같은)이다.
도 12b는 포커싱 센서 (30)의 영역들 (30A 및 30B)에 의해 획득된 두개의 역전된 이미지들에 대한 초점 함수들을 예시한다. 미러링된 이미지가 획득되는 실시예들에서 (예를 들어, 도면들 11a 및 11b에 영역 (30B)에 의해), 미러링된 이미지는 두개의 역전된 이미지들에 대하여 수행되는 동작들에 앞서서 소프트웨어 또는 다른 수단들에 의해 전도된다. 미러링된 이미지의 이 전도(inversion)는 컨텐츠에 면에서 더 이상 미러 이미지들이 아닌 두개의 이미지들로 귀결된다. 다시 말해서, 두개의 이미지들은 동일한 방위에 동일한 FOV를 나타낸다. 그러나, 설사 이미지들에 의해 표시된 FOV의 방위가 동일하다 할지라도, 그것들의 초점 거리들의 방향들은 역전된다. 예를 들어, 이 전도 프로세스 후에, 이미지들 중 제 1 이미지의 일 측면상에 컨텐츠는 초점 거리 Z1에서 획득될 것이지만, 한편 이미지들 중 제 2 이미지의 동일한 측면상에 동일한 컨텐츠는 초점 거리 Z3에서 획득될 것이고, 제 1 이미지의 다른 측면상에 컨텐츠는 초점 거리 Z3에서 획득될 것이지만, 한편 제 2 이미지의 동일한 측면상에 동일한 컨텐츠는 Z1에서 획득될 것이다. 이미지들의 중심들은 둘 모두 Z2에서 획득될 것이다.
초점 함수는 역전된 이미지들내에서 콘트라스트의 함수일 수 있다. 함수들은 역전된 이미지들 중 하나를 획득하는 포커싱 센서 (30)의 각각의 영역 (예를 들어, 영역들 30A 및 30B)을 따라서 주어진 위치 x에 대한 콘트라스트 측정값을 리턴할 수 있다(예를 들어, 위치 x에서 콘트라스트 값들의 제곱 평균) . 예를 들어, Cb는 역전된 이미지를 획득한 포커싱 센서 (30)의 영역(30B)에 대한 콘트라스트 측정값을 나타내고, Ca는 비-역전된 이미지를 획득한 포커싱 센서 (30)의 영역 (30A)에 대한 콘트라스트 측정값을 나타낸다. C2 a 및 C2 b는 역전된 이미지들의 중간 부분들에 대한 콘트라스트 측정값을 나타내고, C1 a 및 C1 b는 역전된 이미지들의 일 측면의 대응하는 부분들에 대한 콘트라스트 측정값을 나타내고, C3 a 및 C3 b는 역전된 이미지들의 다른 측면의 대응하는 부분들에 대한 콘트라스트 측정값을 나타낸다.
만약 비율 알고리즘(ratio algorithm)이 사용되면, C2 a/C2 b는 둘모두 이미지들에 대한 최상 초점들이 포커싱 센서 (30)의 그것들의 대응하는 영역들 (예를 들어, 영역들 (30A 및 30B))에 중심에 있을 때 포커싱 센서 (30)의 전체 FOV에 걸쳐 1.0에 근접할 것이다. C1 a/C1 b의 최소값이 (즉, C1 a/C1 b < 1.0) 초점 거리가 같은 지점 P의 좌측 상에 있을 때, C1 a/C1 b의 최소값이 초점 거리가 같은 지점(parfocal point) P쪽으로 이동하도록 Z 축 방향을 따라서 대물렌즈 (130)를 이동시키기 위해 명령이 피드백 루프로 발송될 수 있다. C3 a/C3 b의 최대값이 (즉, C3 a/C3 b > 1.0) 초점 거리가 같은 지점 P의 좌측상에 있을 때, C3 a/C3 b의 최대값이 초점 거리가 같은 지점 P 쪽으로 이동하도록 Z 축 방향을 따라서 대물렌즈 (130)를 이동시키기 위해 명령이 피드백 루프로 발송될 수 있다. 동일한 알고리즘이 초점 거리가 같은 지점 P에 중심에 있는 비율 데이터의 다른 절반(즉, 커브의 오른쪽 측면)에 적용될 수 있다. 제 2 셋의 데이터는 FOV의 절반이 어떠한 조직도 함유하지 않거나 또는 비-유용한 데이터를 함유하는 경우에, 또는 단순히 성공 비율을 증가시키기 위한 중복을 위해 사용될 수 있다.
포커싱 센서 (30)의 다수의 영역들 이용하는 것으로 본 출원에서 설명된 임의의 실시예들에서 (예를 들어, 도면들 6-7c, 11a, 및 11b에 예시된 실시예들), 포커싱 센서 (30)는 다수의 영역들을 포함하는 단일 포커싱 센서, 또는 각각이 다수의 영역들 중 하나로 이루어진 복수의 포커싱 센서들일 수 있다. 더욱이, 복수의 포커싱 센서들이 포커싱 센서 (30)의 영역들로서 사용되는 실시예들에서, 복수의 포커싱 센서들의 각각은 특정한 디자인에 의존하여 서로와 동일한 평면에, 또는 서로로부터 상이한 평면들에, 배열될 수 있다.
도 13은 일 실시예에 따른 실시간 포커싱을 위한 방법을 예시한다. 처음에, 캘리브레이션 단계 (1302)가 수행될 수 있다. 캘리브레이션 단계 (1302)는 틸트된 포커싱 센서 (30)상에 (틸트된 포커싱 센서를 사용하는 실시예들에서) 초점 거리가 같은 지점 P (예를 들어, 영상 센서 (20)와 초점 거리가 같은) 위치를 찾는 단계, 영상 센서 (20)로부터의 이미지를 위한 조명 프로파일을 결정하는 단계, 및/또는 포커싱 센서 (30)로부터의 이미지들을 위한 조명 프로파일을 결정하는 단계를 포함할 수 있다. 캘리브레이션 단계 (1302)는 특정한 시스템 (11)에 대하여 단지 한번, 또는 만약 재캘리브레이션이 요구되거나 또는 원해지면 시스템 (11)에 대하여 주기적으로 수행될 수 있다는 것이 이해되어야 한다.
실시간 포커싱 프로세스는 단계 (1304)에서 시작할 수 있고, 하나 이상의, 및 바람직하게는 복수의 세개 또는 그 이상, 초점 지점들이 초점-버퍼(focus-buffer) 방법을 이용하여 획득된다. 각각의 초점 지점은 X, Y, 및 Z 위치를 포함할 수 있고, 여기서 X 및 Y 위치들은 샘플 (120)의 평면내 위치를 나타내고, Z 위치는 대물렌즈 (130)의 초점 높이를 나타낸다. 일 실시예에서, 각각의 초점 지점은 X-Y 위치에서 최상 초점 (예를 들어, 콘트라스트 함수의 피크)를 제공하는 초점 높이를 결정하기 위해서 획득된 샘플 (120)상의 X-Y 위치 위에 대물렌즈 (130)를 위치시킴으로써, 그것의 높이 레인지의 일단으로부터 그것의 높이 레인지의 타단으로 대물렌즈 (130)를 스윕핑(sweep)시킴으로써 획득된다.
단계(1306)에서, 기준 평면(reference plane)이 단계 (1304)에서 획득된 초점 지점들을 이용하여 생성된다. 기준 평면은 단지 세개의 초점 지점들로부터 생성될 수 있다는 것이 이해되어야 한다. 세개 초과의 초점 지점들이 있을 때, 평평한 기준 평면에 대하여 외측에 있는(outlier) 초점 지점들은 폐기될 수 있다. 그렇지 않으면, 모든 초점 지점들이 기준 평면을 피팅(fit)하기 위해 사용될 수 있다. 대안적으로, 기준 평면 대신에, 초점 표면(focal surface)이 임의의 복수의 초점 지점들로부터 생성될 수 있다. 기준 평면 또는 초점 표면을 생성하기 위한 상이한 실시예들이 2000년 5월 3일에 출원되고 2004년 5월 23일에 U.S. 특허 번호. 6,711,283,로 발행된 U.S. 특허 출원 번호. 09/563,437 및 2004년 4월 16일에 출원되고 2009년 4월 14일에 U.S. 특허 번호. 7,518,652로 발행된 U.S. 특허 출원 번호. 10/827,207에 설명되고, 이들 둘 모두의 전체가 참조로서 본 출원에 통합된다.
단계 (1308)에서, 대물렌즈 (130)는 스캔되도록 X-Y 위치의 함수로서 기준 평면에 의해 정의된 Z 위치로 이동된다.
단계 (1310)에서, 포커싱 이미지가 포커싱 센서 (30)로부터 획득된다. 유사하게, 단계 (1320)에서, 메인 이미지가 영상 센서 (20)로부터 획득된다.
단계 (1312)에서, 단계 (1310)에서 획득된 포커싱 이미지내 조명이 임의의 주지의 조명-교정 기술(illumination-correction technique)을 이용하여 교정된다. 유사하게, 단계 (1322)에서, 단계 (1320)에서 획득된 메인 이미지내 조명이 임의의 주지의 조명-교정 기술들을 이용하여 교정된다. 포커싱 이미지에 대한 조명 교정은 캘리브레이션 단계 (1302)에서 결정되었던 포커싱 센서 (30)에 대한 조명 프로파일에 기반될 수 있고, 메인 이미지에 대한 조명 교정은 캘리브레이션 단계 (1302)에서 결정되었던 영상 센서 (20)에 대한 조명 프로파일에 기반될 수 있다.
단계 (1314)에서, 조명-교정된 포커싱 이미지의 절대 그라디언트(absolute gradient)가 산출된다. 유사하게, 단계 (1324)에서, 조명-교정된 메인 이미지의 절대 그라디언트가 산출된다.
단계 (1316)에서, 단계 (1314)에서 산출된 포커싱 이미지 그라디언트내 로우(row)들이 평균된다. 유사하게, 단계 (1326)에서, 단계(1324)에서 산출된 메인 이미지 그라디언트내 로우들이 평균된다.
단계 (1318)에서, 로우-패스 필터(low-pass filter)가 포커싱 이미지 그라디언트에 적용된다. 유사하게, 단계 (1328)에서, 로우-패스 필터가 메인 이미지 그라디언트에 적용된다.
단계 (1330)에서, 메인 이미지내 백그라운드 면적 (즉, 조직이 없는 이미지의 면적)이 메인 이미지내 조직 면적 (즉, 조직을 갖는 이미지의 면적) 보다 작은지 아닌지가 결정된다. 만약 메인 이미지내 백그라운드 면적이 조직 면적보다 더 크면 (즉, 단계 (1330)에서 “아니오(No)” ), 프로세스는 단계 (1308)로 리턴할 수 있다. 그렇지 않고, 만약 메인 이미지내 백그라운드 면적이 조직 면적보다 작으면 (즉, 단계 (1330)에서 “예” ), 프로세스는 단계 (1332)로 진행할 수 있다.
단계 (1332)에서, 비율(들)이 포커싱 이미지 그라디언트와 메인 이미지 그라디언트 간에 산출된다. 예를 들어, 포커싱 이미지 그라디언트는 메인 이미지 그라디언트에 의해 분할 될 수 있다.
단계 (1334)에서, 피크가 산출된 최소 에러로 단계 (1332)에서 산출된 비율(들)로 피팅된다. 예를 들어, 최상-피팅(best-fit) 커브가 비율(들)에 대하여 발견될 수 있다.
단계(1336)에서, 단계 (1334)에서의 피팅의 피크가 결정된다. 예를 들어, 최상 피팅 커브가 단계 (1334)에서의 비율(들)에 대하여 발견된 실시예들에서, 최상 피팅 커브의 피크는 단계(1336)에서 식별될 수 있다.
단계 (1338)에서, 만약 단계 (1336)에서 식별된 피크가 초점 거리가 같은 지점 P에 있지 않으면, 대물렌즈 (130)는 예를 들어, 본 출원에 어디 다른곳에서 설명된 피드백 루프를 이용하여 피크가 초점 거리가 같은 지점 P에 있을 때까지이동된다.
단계(1340)에서, 스캔이 완료된지 아닌지가 결정된다. 만약 스캔이 완료되지 않으면(즉, 단계 (1340)에서 "아니오"), 프로세스는 단계들 (1310) 및 (1320)로 리턴한다. 그렇지 않고, 만약 스캔이 완료되면 (즉, 단계 (1340)에서 "예"), 프로세스는 끝난다.
도면들 14a 및 14b는 일 실시예에 따른, 예제 현미경 슬라이드 스캐너들을 예시하는 블럭 다이어그램들이고 도 14c는 일 실시예에 따른 예제 선형 센서 어레이들을 예시하는 블럭 다이어그램이다. 이들 세개의 도면들은 이하에서 보다 상세하게 설명될 것이다. 그러나, 그것들은 개요를 제공하기 위해서 먼저 조합하여 설명될 것이다. 이하의 설명은 단지 슬라이드 스캐너 디바이스의 예제이고 대안 슬라이드 스캐너 디바이스들이 또한 채용될 수 있다는 것에 유의하여야 한다. 도면들 14a 및 14b는 개시된 센서 배열과 함께 사용될 수 있는 예제 현미경 슬라이드 스캐너들을 예시한다. 도 14c는 개시된 센서들 (영상 센서 (20) 또는 포커싱 센서 (30))로서 임의의 조합으로 사용될 수 있는 예제 선형 센서들을 예시한다.
예를 들어, 영상 센서 (20) 및 포커싱 센서 (30)는 주 영상 센서 (20)로서 라인 스캔 카메라 (18)를 이용하여 상기에서 논의된 바와 같이 배열될 수 있다. 일 실시예에서, 라인 스캔 카메라 (18)는 포커싱 센서 (30) 및 영상 센서 (20) 둘 모두를 포함할 수 있다. 영상 센서 (20) 및 포커싱 센서 (30)는 현미경 대물렌즈 (130) 및/또는 포커싱 광학기기 (34) 및 (290)를 통하여 샘플 (120)로부터 이미지 정보를 수신할 수 있다. 포커싱 센서 (30)에 대한 포커싱 광학기기 (290)는 도면들 6-8에 예시된 다양한 빔 분배기들 (620), 미러들 (630), 및 유리 블럭들 (640)을 포함할 수 있다. 영상 센서 (20) 및 포커싱 센서 (30)는 데이터 프로세서 (21)로부터 정보를 수신할 수 있고 데이터 프로세서로 정보를 제공할 수 있다. 데이터 프로세서 (21)는 메모리 (36) 및 데이터 스토리지 (38)에 통신 가능하게 연결된다. 데이터 프로세서 (21)는 추가로 디스플레이 모니터(들) (46)에 차례로 연결될 수 있는 하나 이상의 컴퓨터들 (44)에 적어도 하나의 네트워크 (42)에 의해 연결될 수 있는 통신 포트에 통신 가능하게 연결될 수 있다.
데이터 프로세서 (21)는 또한 슬라이드 스캐너 (11)의 전동 스테이지 (14)를 제어하는 스테이지 제어기 (22)에 명령들을 제공하고 스테이지 제어기에 통신 가능하게 연결될 수 있다. 전동 스테이지 (14)는 샘플 (120)을 지지하고 X-Y 평면내 하나 이상의 방향들로 이동한다. 일 실시예에서, 전동 스테이지 (14)는 또한 Z 축을 따라서 이동할 수 있다. 데이터 프로세서 (21)는 또한 전동 포지셔너 (24) (예를 들어, 피에조 포지셔너)을 제어하는 전동 제어기 (26)에 명령들을 제공하고 전동 제어기에 통신 가능하게 연결될 수 있다. 전동 포지셔너 (24)는 Z 축에서 대물렌즈 (130)를 움직이도록 구성된다. 슬라이드 스캐너 (11)는 또한 위로 또는 아래로 샘플 (120)을 조사하기 위한 광원 (31) 및/또는 조명 광학기기 (32)를 포함한다.
도 14a는 일 실시예에 따른 광학적 현미경 시스템 (10)의 실시예의 블럭 다이어그램이다. 시스템 (10)의 핵심은 검체 또는 샘플 (120)를 스캐닝하고 디지털화하는 역할을 하는 현미경 슬라이드 스캐너 (11)이다. 샘플 (120)은 광학 현미경에 의해 정보를 얻을 수 있는 임의의 것일 수 있다. 예를 들어, 샘플 (120)은 광학적 현미경에 의해 정보를 얻을 수 있는 현미경 슬라이드 또는 다른 샘플 유형을 포함할 수 있다. 현미경 슬라이드는 조직들 및 세포들, 염색체들, DNA, 단백질, 혈액, 골수, 소변, 박테리아, 비드(beads), 생검 재료들, 또는 죽거나 또는 살아있거나, 착색되거나(stained) 또는 착색되지 않은(unstained), 라벨링되거나 또는 라벨링되지 않은 임의의 다른 유형의 생물학적 재료 또는 물질을 포함하는 검체들에 대한 기판(substrate)를 볼 때 빈번하게 사용된다. 샘플 (120)은 또한 통상 마이크로어레이들로서 알려진 임의의 및 모든 샘플들을 포함하는 임의의 유형의 슬라이드 또는 다른 기판 위에 증착된 임의의 유형의 DNA 또는 DNA-관련 물질 예컨대 cDNA 또는 RNA 또는 단백질의 어레이일 수 있다. 샘플 (120)은 미량정량판(microtiter plate), 예를 들어 96-웰(well) 플레이트일 수 있다. 샘플 (120)의 다른 예들은 통합 회로 기판들, 전기영동레코드들, 페트리 접시 (petri dishes), 필름, 반도체 재료들, 법의학(forensic) 물질들, 또는 기계 파트들을 포함한다.
스캐너 (11)는 전동 스테이지 (14), 현미경 대물렌즈 (130), 라인 스캔 카메라 (18), 및 데이터 프로세서 (21)를 포함한다. 샘플 (120)은 스캐닝을 위해 전동 스테이지 (14) 위에 위치된다. 전동 스테이지 (14)는 스테이지 제어기 (22)에 연결되고 이어 데이터 프로세서 (21)에 연결된다. 데이터 프로세서 (21)는 스테이지 제어기 (22)를 통하여 전동 스테이지 (14) 위에 샘플 (120)의 위치를 결정한다. 일 실시예에서, 전동 스테이지 (14)는 샘플 (120)의 평면에 있는 적어도 두개의 축들 (x/y)에서 샘플 (120)을 움직인다. 광학 z-축을 따라서의 샘플 (120)의 미세한 움직임들이 또한 스캐너 (11)의 어떤 애플리케이션들을 위하여, 예를 들어, 초점 제어를 위하여 필요할 수 있다. Z-축 움직임은 Polytec PI 로부터의 PIFOC 또는 Piezosystem Jena로부터의 MIPOS 3와 같은 피에조 포지셔너 (24)로 성취될 수 있다. 피에조 포지셔너 (24)는 현미경 대물렌즈 (130)에 직접 부착되고 피에조 제어기 (26)를 통하여 데이터 프로세서 (21)에 의해 지시되고 데이터 프로세서에 연결된다. 거친(coarse) 초점 조절을 제공하는 수단이 또한 요구될 수 있고 전동 스테이지 (14)의 일부로 또는 수동 랙크피니언식의(rack-and-pinion coarse) 초점 조절 (미도시)로 Z-축 움직임에 의해 제공될 수 있다.
일 실시예에서, 전동 스테이지 (14)는 매끈한 모션 및 탁월한 직선 라인 및 편평도 정확도를 제공하기 위해 볼 베어링 선형 방식들을 갖는 고-정밀도 측위 테이블을 포함한다. 예를 들어, 전동 스테이지 (14)는 다른 것의 최상부위에 스택된 두개의 Daedal 모델 106004 테이블들을 포함할 수 있다. 다른 유형들의 전동 스테이지들 (14)은 또한 볼 베어링들외에 방식들에 기초한 스택된 단일-축 스테이지들, 중심에서 개방되고 복수의 샘플들을 지지할 수 있는 더 큰 스테이지들 또는 샘플 아래로부터 투조(trans-illumination)에 특별히 적절한 단일- 또는 다수의-축 측위 스테이지들을 포함하는 스캐너 (11)에 대하여 적절하다. 일 실시예에서, 전동 스테이지 (14)는 두개의 스택된(stacked) 단일-축 측위 테이블들을 포함하고, 각각은 두개의 밀리미터 리드(lead)-스크류들 및 Nema-23 스텝핑(stepping) 모터들에 결합된다. 초당 25 회전수의 최대 리드 스크류 속도에서, 전동 스테이지 (14)상의 샘플 (120)의 최대 속도는 초당 50밀리미터이다. 더 큰 직경, 예를 들어 5 밀리미터을 갖는 리드 스크류의 선택은, 초당 100 밀리미터 초과 까지 최대 속도를 증가시킬 수 있다. 전동 스테이지 (14)는 can be 가 구비된 시스템에 상당한 경비를 추가하는 단점을 갖는 기계적 또는 광학적 위치 인코더들가 구비될 수 있다. 결과적으로, 이런 실시예는 위치 인코더들을 포함하지 않는다. 그러나,만약 스텝핑 모터들 대신에 서보 모터들을 사용한다면, 그러면 적절한 제어를 위해 위치 피드백을 사용해야 할 것이다.
데이터 프로세서 (21)로부터의 위치 명령들은 스테이지 제어기 (22)에 모터 전류 또는 전압 명령들로 변환된다. 일 실시예에서, 스테이지 제어기 (22)는 2-축 서보/스텝퍼 모터 제어기 (Compumotor 6K2) 및 두개의 4-amp 마이크로스텝핑 드라이브들 (Compumotor OEMZL4)을 포함한다. 마이크로스텝핑은 상대적으로 큰 단일 1.8 도 모터 스텝보다 훨씬 더 적은 증분들로 스텝퍼 모터를 명령하기 위한 수단들을 제공한다. 예를 들어, 100의 마이크로스텝에서, 샘플 (120)은 0.1 마이크로미터 만큼 작은 스텝들에서 이동하도록 명령될 수 있다. 일 실시예에서, 25,000의 마이크로스텝이 사용된다. 보다 적은 스텝 사이즈들이 또한 가능하다. 전동 스테이지 (14) 및 스테이지 제어기 (22)의 최적의 선택은 샘플 (120)의 성질, 희망하는 샘플 디지털화를 위한 시간, 및 희망하는 샘플 (120)의 결과적인 디지털 이미지의 해상도를 포함하는 많은 요인들에 의존한다는 것이 이해되어야 한다.
현미경 대물렌즈 (130)는 통상 이용 가능한 임의의 현미경 대물렌즈일 수 있다. 관련 기술 분야에서의 통상의 기술자는 사용할 어떤 대물렌즈의 선택은 특정한 환경들에 에 의존할 것이다는 것을 인식할 것이다. 일 실시예에서, 현미경 대물렌즈 (130)는 무한-교정 유형(infinity-corrected type)을 가진다.
샘플 (120)은 광원 (31) 및 조명 광학기기 (32)을 포함하는 조명 시스템 (28)에 의해 조사된다. 일 실시예에서, 광원 (31)은 빛 출력을 최대화하기 위한 오목한 반사형 미러 및 열을 억제하기 위한 KG-1 필터를 가변 세기 할로겐 광원을 포함한다. 그러나, 광원 (31)은 또한 임의의 다른 유형의 아크-램프(arc-lamp), 레이저, 발광 다이오드 (“LED”), 또는 다른 소스의 빛일 수 있다. 일 실시예에서, 조명 광학기기(32)는 광축에 직교하는 두개의 컨쥬게이트 평면들을 갖는 표준
Figure pct00006
조명 시스템을 포함한다. 조명 광학기기(32)는 회사들 예컨대 Leica, Carl Zeiss, Nikon, 또는 Olympus에 의해 판매되는 가장 상업적으로-이용 가능한 합성 현미경들에서 찾아볼 수 있는 명시야(bright-field) 조명 광학기기를 나타낸다. 하나의 셋의 컨쥬게이트(conjugate) 평면들은 (i) 광원 (31)에 의해 조사된 필드 아이리스( iris) 개구, (ii) 샘플 (120)의 초점 평면에 의해 정의된 오브젝트 평면, 및 (iii) 라인 스캔 카메라 (18)의 광-반응하는 엘리먼트들을 수용하는 평면을 포함한다. 제 2 컨쥬게이트 평면은 (i) 광원 (31)의 부분인 전구의 필라멘트, (ii) 조명 광학기기 (32)의 부분인 콘덴서 광학기기 바로 앞에 놓이는 콘텐서 아이리스의 개구(aperture), 및 (iii) 현미경 대물렌즈 (130)의 백 초점 평면(back focal plane)을 포함한다. 일 실시예에서, 샘플 (120)은 송신 모드에서 조사되고 이미지화되고, 라인 스캔 카메라 (18)는 샘플 (120)에 의해 송신된 광 에너지, 또는 반대로, 샘플 (120)에 의해 흡수된 광 에너지를 센싱한다.
스캐너 (11)는 동등하게 광원 (31), 조명 광학기기 (32), 및 현미경 대물렌즈 (130)이 반사 영상과의 호환성에 기초하여 선택되어야 하는 경우에 샘플 (120)로부터 반사된 광 에너지를 감지하는데 적절하다. 가능한 실시예는 따라서 샘플 (120) 위에 위치된 광 파이버 번들을 통과하는 조명을 포함할 수 있다. 다른 가능성들은 모노크로메이터(monochromator)에 의해 스텍트럼으로 좌우되는 여기(excitation)를 포함한다. 만약 현미경 대물렌즈 (130)가 위상-콘트라스트 현미경과 호환 가능한 것으로 선택되면, 조명 광학기기 (32)의 부분인 콘덴서 광학기기에 적어도 하나의 위상 스톱(phase stop)의 통합은 스캐너 (11)가 위상 콘트라스트 현미경을 위해 사용되는 것을 가능하게 한다. 관련 기술 분야에서의 통상의 기술자에게, 다른 유형들의 현미경 예컨대 미분 간섭 콘트라스트 및 공초점 현미경에 대하여 요구되는 수정들은 쉽게 명확해질 것이다. 전체, 스캐너 (11)는 주지의 수정예들외에 적절한, 광학적 현미경의 임의의 알려진 모드에서 마이크로스코픽 샘플들의 질의에 대하여 적절하다.
현미경 대물렌즈 (130)와 라인 스캔 카메라 (18)사이에 라인 스캔 카메라 (18)의 광-반응 엘리먼트들 위로 (예를 들어, 영상 센서 (20)) 현미경 대물렌즈 (130)에 의해 캡쳐된 광 신호를 집속시키는 라인 스캔 카메라 포커싱 광학기기 (34)가 위치된다. 현대 무한-교정 현미경에서, 현미경 대물렌즈 및 접안 광학기기(eyepiece optics) 사이의, 또는 현미경 대물렌즈와 외부 영상 포트 사이에 포커싱 광학기기는, 현미경의 관측 튜브의 부분인 튜브 렌즈로서 알려진 광학적 엘리먼트를 포함한다. 여러 튜브 렌즈는 코마(coma) 또는 난시의 도입을 방지하기 위해서 다수의 광학적 엘리먼트들로 구성된다. 전통적인 한정된 튜브 길이 광학기기로부터 무한 교정 광학기기로의 상대적으로 최근 변화에 대한 동기들 중 하나는 이 광 에너지의 초점이 무한대에 있는 것을 의미하는 샘플 (120)로부터 광 에너지가 평행한 물리적 공간을 증가시킨다는 것이었다. 이 경우에서, 이색성 미러들 또는 필터들같은 액세서리 엘리먼트들은 광 경로 확대 변화 없이 또는 바람직하지 않은 광학적 아티팩트들을 도입하지 않고서 무한대 스페이스내에 삽입될 수 있다.
무한-교정 현미경 대물렌즈들은 전형적으로 무한대 마크와 내접된다. 무한 교정 현미경 대물렌즈의 확대율는 대물렌즈의 초점 길이에 의해 나누어진 튜브 렌즈의 초점 길이의 비율에 의해 주어진다. 예를 들어, 180 밀리미터의 초점 길이를 갖는 튜브 렌즈는 만약 9 밀리미터 초점 길이를 갖는 대물렌즈가 사용된다면 20x 확대율로 귀결될 것이다. 상이한 현미경 제조자들에 의해 제조된 대물렌즈들이 호환 가능하지 않은 이유들 중 하나는 튜브 렌즈 초점 길이에서의 표준화의 결여 때문이다. 예를 들어, 180 밀리미터 튜브 렌즈 초점 길이를 사용하는 Olympus, 회사로부터의 20x 대물렌즈는 200 밀리미터의 상이한 튜브 길이 초점 길이에 기초하는 Nikon 현미경상에 20x 확대율을 제공하지 않을 것이다. 대신에, 20x로 새겨지고 9 밀리미터 초점 길이를 갖는 이런 Olympus 대물렌즈의 유효 확대율은 대물렌즈의 9 밀리미터 초점 길이로 200 밀리미터 튜브 렌즈 초점 길이를 나눔으로써 획득된 22.2x일 것이다. 통상 현미경상에서 튜브 렌즈를 바꾸는 것은 현미경을 분해하지 않고서 사실상 불가능하다. 튜브 렌즈는 현미경의 중요한 고정된 엘리먼트의 부분이다. 상이한 제조자들에 의해 제조된 대물렌즈들과 현미경들 사이에 비호환성에 다른 기여 요인은 검체가 관측되는 접안 광학계, 쌍안 현미경(binoculars)의 디자인이다. 대부분의 광학적 교정들은 현미경 대물렌즈내에 디자인되었지만, 대부분의 현미경 유저들은 최상의 시각 이미지를 달성하기 위해서 해당 동일한 제조자들' 현미경 대물렌즈들과 한 제조자들' 쌍안현미경 광학기기들의 매칭에 일부 장점들이 있다는 것이 확신하고 있다.
라인 스캔 카메라 포커싱 광학기기 (34)는 기계적 튜브 내부에 마운트된 튜브 렌즈 광학기기를 포함한다. 스캐너 (11)는, 일 실시예에서, 전통적인 시각 관측을 위한 쌍안현미경 또는 접안렌즈가 없기 때문에, 대물렌즈들와 쌍안현미경 간의 잠재적인 비호환성의 통상의 현미경들에 의해 경험되는 문제가 즉각적으로 배제된다. 통상의 기술자는 유사하게 현미경의 접안렌즈와 디스플레이 모니터상에 디지털 이미지사이에 초점 거리가 같은성질(parfocality)을 성취하는 문제가 또한 임의의 접안렌즈들을 갖지 않기 대문에 배제된다는 것을 깨달을 것이다. 스캐너 (11)는 또한 실제로 샘플 (120)의 물리적 경계들에 의해서만 제한되는 FOV를 제공함으로써 전통적인 현미경의 FOV 한계를 극복하기 때문에, 모든-디지털 영상 현미경 예컨대 스캐너 (11)에 의해 제공되는 확대율의 중요성이 제한된다. 일단 샘플 (120)의 부분이 디지털화된 후에, 그것의 확대율을 증가시키기 위해서 샘플 (120)의 이미지로 때때로 전기적 줌(zoom)으로 알려진 전자 확대를 적용하는 것이 간단하다. 전자적으로 이미지의 확대율을 증가시키는 것은 이미지를 디스플레이 하기 위해 사용되는 모니터상에 해당 이미지의 사이즈를 증가시키는 효과를 가진다. 만역 너무 많은 전자 줌이 적용되면, 디스플레이 모니터는 단지 확대된 이미지의 일부들만을 보여줄 것이다. 그러나, 제 1 위치에서 디지털화된 원래의 광 신호에 존재하지 않았던 정보를 디스플레이 하기 위해 전자 확대를 사용하는 것은 가능하지 않다. 스캐너 (11)의 대물렌즈들 중 하나가, 일 실시예에서, 현미경의 접안렌즈를 통한 시각적 관측 대신에 고품질 디지털 이미지들을 제공할 것이기 때문에, 스캐너 (11)에 의해 획득된 이미지들의 컨텐츠는 가능한 많은 이미지 세부사항을 포함하여야 한다. 용어 해상도(resolution)은 전형적으로 이런 이미지 세부사항을 설명하기 위해 사용되고 용어 회절-제한(diffraction-limited)은 광 신호에서 이용 가능한 파장-제한된 최대 공간적인 세부사항을 설명하기 위해 이용된다. 스캐너 (11)는 광-센싱 카메라 예컨대 라인 스캔 카메라 (18) 내 개별 픽셀 엘리먼트의 사이즈 및 현미경 대물렌즈 (130)의 개구수 둘 모두에 대한 주지의 Nyquist 샘플링 기준에 따라 매칭되는 튜브 렌즈 초점 길이의 선택에 의해 회절-제한된 디지털 영상을 제공한다. 확대가 아닌,개구수(numerical aperture)는 현미경 대물렌즈의 해상도-제한 속성이다는 것이 잘 알려져 있다.
예제는 라인 스캔 카메라 포커싱 광학기기 (34)의 부분인 튜브 렌즈 초점 길이의 최적의 선택을 예시하는데 도움이 될 것이다. 다시 앞에서 논의된 9 밀리미터 초점 길이를 갖는 20x 현미경 대물렌즈 (130)를 고려하고, 이 대물렌즈는 0.50의 개구수를 가진다고 가정한다. 콘덴서로부터의 감지할 수 없을 정도의 저하를 가정하여, 500 나노미터의 파장에서 이 대물렌즈의 회절-제한된 분해 파워(resolving power)는 대략 0.6 마이크로미터이고, 주지의 Abbe 관계를 이용하여 획득된다. 일 실시예에서 복수의 14 마이크로미터 스퀘어(square) 픽셀들을 갖는 라인 스캔 카메라 (18)가, 샘플 (120)의 부분을 감지하는데 사용된다고 추가로 가정한다. 샘플링 이론에 따라, 적어도 두개의 센서 픽셀들이 가장 작은 분해가능한 공간적인 피처(feature) 경계를 정하는데 필요하다. 이 경우에서, 튜브 렌즈는 0.6 마이크로미터, 가장 작은 분해가능한 피처 차원에 의한 두개의 14 마이크로미터 픽셀들에 대응하는 28 마이크로미터로 나눔으로써 획득된 46.7의 확대율을 달성하기 위해 선택되어져야만 한다. 최적 튜브 렌즈 광학 초점 길이는 따라서 46.7를 9에 곱합으로써 획득된 약 420 밀리미터이다. 420 밀리미터의 초점 길이를 갖는 튜브 렌즈 광학기기를 갖는 라인 스캔 포커싱 광학기기 (34)는 따라서 동일한 20x 대물렌즈를 이용한 현미경 아래에서 검체를 봄으로써 관측될 것에 유사한 최상으로 가능한 공간적인 해상도를 갖는 이미지들을 획득하는 것이 가능할 것이다. 재차 말하여, 스캐너 (11)는 회절-제한된 디지털 이미지들을 획득하기 위해서 더 높은 확대 광학적 구성 (상기 예제에서 약 47x )에 전통적인 20x 현미경 대물렌즈 (130)을 사용한다. 만약 더 높은 개구수를 갖는 전통적인 20x 확대 대물렌즈 (130)가 사용되고, 말하자면 0.75, 회절-제한된 영상을 위한 요구된 튜브 렌즈 광하기기 확대율는 68x의 전체 광학적 확대율에 대응하는 약 615 밀리미터일 것이다. 유사하게, 만약 20x 대물렌즈의 개구수가 단지 0.3이라면, 최적의 튜브 렌즈 광학기기 확대율는 단지 대략 252 밀리미터의 튜브 렌즈 광학기기 초점 길이에 대응하는 약 28x일 것이다. 라인 스캔 카메라 포커싱 광학기기 (34)는 최적의 디지털 영상에 필요한 것으로 상호 교환될 수 있는 스캐너 (11)의 모듈식 엘리먼트들일 수 있다. 회절-제한된 디지털 영상의 장점은 특별히 애플리케이션들, 예를 들어 명시야 현미경에 대하여 중요하고, 확대율에서 증가에 동반되는 신호 휘도(brightness)에서의 감소는 적절하게 디자인된 조명 시스템 (28)의 세기를 증가시킴으로써 쉽게 보상된다.
원칙적으로, 스캐너 (11)에 대하여 방금 설명된 것처럼 회절-제한된 영상을 달성하도록 튜브 렌즈 확대율을 효율적으로 증가시키기 위해 외부 확대-증가 광학기기를 통상의 현미경기반의 디지털 영상 시스템에 부착시키는 것이 가능하다. 그러나, FOV에서의 결과적인 축소는 종종 수락할 수 없고, 이 접근법을 비현실적으로 만든다. 더욱이, 현미경들의 많은 유저들은 전형적으로 이들 기술들을 그것들의 자체에 효율적으로 채용하기 위해서 회절-제한된 영상의 세부사항들에 대하여 충분히 이해하지 못한다. 실제로, 디지털 카메라들은 접안렌즈를 통하여 볼 수 있는 것에 더 유사한 어떤 것에 대한 FOV의 사이즈를 증가시키기 위한 시도로 확대-감소 광학적 커플러들을 갖는 현미경 포트들에 부착된다. 확대하지 않는 광학기기를 추가하는 표준 실행은 만약 목표가 회절-제한된 디지털 이미지들을 획득하는 것이라면 잘못된 방향으로의 단계이다.
통상의 현미경에서, 상이한 파워 대물렌즈들은 전형적으로 상이한 해상도 및 확대율에서 검체를 관찰하기 사용된다. 표준 현미경들은 다섯개의 대물 렌즈들을 보유하는 대물부를 가진다. 모든-디지털 영상 시스템, 예컨대 스캐너 (11)에서, 원하는 가장 높은 공간적인 해상도에 대응하는 개구수를 갖는 단지 하나의 현미경 대물렌즈 (130)에 대한 요구가 있다. 따라서, 일 실시예에서, 스캐너 (11)는 단지 하나의 현미경 대물렌즈 (130)로 구성된다. 일단 회절-제한된 디지털 이미지가 이 해상도에서 캡쳐된 후에, 표준 디지털 이미지 프로세싱 기술들을 이용하여, 임의의 바람직한 축소된 해상도 및 확대율에서 이미지 정보를 제공하는 것은 간단하다.
스캐너 (11)의 일 실시예는 각각의 픽셀이 14 X 14 마이크로미터의 차원을 갖는 선형 어레이로 배열된 1024 픽셀들 (픽쳐 엘리먼트들를 갖는 Dalsa SPARK 라인 스캔 카메라 (18)에 기반된다. 임의의 다른 유형의 선형 어레이가, 카메라의 일부로 패팅징되거나 또는 영상 전자 모듈내에 커스텀-통합되든지, 또한 사용될 수 있다. 선형 어레이는 일 실시예에서 효율적으로 provides 8 비트들의 양자화를 제공하지만, 더 높은 또는 더 낮은 레벨의 양자화(quantization)를 제공하는 다른 어레이들이또한 사용될 수 있다. 세개의-채널 레드-그린-블루 (RGB) 색상 정보 또는 시간 지연 적분 (TDI)에 기반된 대안 어레이들이 또한 사용될 수 있다. TDI 어레이들은 검체의 앞에서 이미지화된 영역들로부터 세기 데이터를 가산함으로써 출력 신호에서 실질적으로 더 나은 신호대 잡음비 (SNR)를 제공하여, 통합 스테이지들의 수 제곱근에 비례하는 SNR에서의 증가를 낳는다. TDI 어레이들은 선형 어레이들의 다수의 스테이지들을 포함할 수 있다. TDI 어레이들은 24, 32, 48, 64, 96, 또는 심지어 더 많은 스테이지들과 이용 가능하다. 스캐너 (11)는 또한 512 픽셀들을 갖는 것들, 1024 픽셀들을 갖는 것들, 및 4096 픽셀들 만큼 많이 갖는 다른 것들 포함하는 여러 가지 포맷들로 제조되는 선형 어레이들을 지원한다. 적절한, 그러나 잘 알려진, 조명 시스템 (28) 및 라인 스캔 카메라 포커싱 광학기기 (34)에 대한 수정예들이 더 큰 어레이들을 수용하기 위해 요구될 수 있다. 여러 가지 픽셀 사이즈들을 갖는 선형 어레이들이 스캐너 (11)에 또한 사용될 수 있다. 임의의 유형의 라인 스캔 카메라 (18)의 선택에 대한 현저한 요건은 종래 기술에서 알려진 통상의 영상 타일링(tiling) 접근법들의 정적 요건들 극복하여 고품질 이미지들을 획득하기 위해서 샘플 (120)의 디지털화 동안에 라인 스캔 카메라 (18)에 대하여 샘플 (120)이 움직일 수 있다는 것이다.
라인 스캔 카메라 (18)의 출력 신호는 데이터 프로세서 (21)에 연결된다. 일 실시예에서, 데이터 프로세서 (21)는 적어도 하나의 신호 디지털화 전자 기기들 보드 예컨대 영상 보드 또는 프레임 그래버(grabber)를 지원하기 위해서 보조 전자 기기들 (예를 들어, 마더보드)를 갖는 중앙 프로세싱 유닛을 포함한다. 일 실시예에서, 영상 보드는 EPIX PIXCID24 PCI 버스 영상 보드이다. 그러나, EPIX 보드 대신에 사용될 수 있는 여러 가지 제조자들로부터의 많은 다른 유형들의 영상 보드들 또는 프레임 그래버들이 있다. 대안적인 실시예는 데이터 스토리지 (38) (예를 들어, 하드 디스크)상에 직접 데이터를 저장하고 영상 보드를 함께 바이패스(bypass) 하기 위해 예컨대 IEEE 1394, 또한 파이어와이어로서 알려진 인터페이스를 사용하는 라인 스캔 카메라일 수 있다.
데이터 프로세서 (21)는 또한 단기 데이터 스토리지를 위한 메모리 (36), 예컨대 랜덤 액세스 메모리 (RAM) 및 장기간의 데이터 스토리지를 위한 데이터 스토리지 (38), 예컨대 하드 드라이브에 연결된다. 더구나, 데이터 프로세서 (21)는 네트워크 (42) 예컨대 로컬 영역 네트워크 (LAN), 와이드 영역 네트워크 (WAN), 메트로폴리탄 영역 네트워크 (MAN), 인트라넷, 엑스트라넷(extranet), 또는 인터넷에 연결된 통신 포트 (40)에 연결된다. 메모리 (36) 및 데이터 스토리지 (38)는 또한 서로에 연결된다. 데이터 프로세서 (21)는 또한 스캐너 (11) 예컨대 라인 스캔 카메라 (18) 및 스테이지 제어기 (22)의 중요한 엘리먼트들을 제어하기 위해서, 또는 여러 가지 이미지-프로세싱 기능들, 이미지-분석 기능들, 또는 네트워킹을 위해서 소프트웨어의 형태로 컴퓨터 프로그램들을 실행하는 것이 가능하다. 데이터 프로세서 (21)는 동작 시스템들 예컨대 윈도우들, 리눅스, OS/2, Mac OS, 및 Unix을 포함하는 임의의 동작 시스템에 기반될 수 있다. 일 실시예에서, 데이터 프로세서 (21)는 윈도우들 NT 동작 시스템에 기초하여 동작한다.
데이터 프로세서 (21), 메모리 (36), 데이터 스토리지 (38), 및 통신 포트 (40)는 통상의 컴퓨터에서 찾아볼 수 있는 각각의 엘리먼트들이다. 일 예제는 Pentium III 500 MHz 프로세서 및 RAM의 756 메가바이트 (MB)까지로 특징지어지는 퍼스널 컴퓨터 예컨대 Dell 차원 XPS T500 일 것이다. 일 실시예에서, 데이터 프로세서 (21), 메모리 (36), 데이터 스토리지 (38), 및 통신 포트 (40)를 포함하는 컴퓨터 엘리먼트들 은 전부 스캐너 (11)에 내부에 있어서, 단지 시스템 (10)의 다른 엘리먼트들에 대한 스캐너 (11)의 연결이 통신 포트 (40)를 통한다. 스캐너 (11)의 대안적인 일 실시예에서, 컴퓨터 엘리먼트들은 컴퓨터 엘리먼트들과 스캐너 (11) 사이의 대응하는 연결로 스캐너 (11)의 외부에 있을 수 있다.
일 실시예에서, 스캐너 (11)는 단일-인클로저 유닛에 광학적 현미경, 디지털 영상, 전동 샘플 측위, 컴퓨팅, 및 네트워크기반의 통신을 통합한다. 데이터 입력 및 출력의 주 수단으로 통신 포트 (40)를 갖는, 단일-인클로저 유닛으로 스캐너 (11)를 패키징하는 주된 장점은 축소된 복잡도 및 증가된 신뢰성이다. 스캐너 (11)의 다양한 엘리먼트들은 현미경, 광원, 전동 스테이지, 카메라, 및 컴퓨터가 전형적으로 상이한 벤더들에 의해 제공되고 실질적 통합 및 유지보수를 필요로 하는 전통적인 현미경기반의 영상 시스템들에 비하여 선명한 콘트라스트에서 함께 작용하도록 최적화된다.
통신 포트 (40)는 네트워크 (42)를 포함하는 시스템 (10)의 다른 엘리먼트들과 빠른 통신의 수단을 제공한다. 통신포트 (40) 위한 하나의 통신 프로토콜은 송신 제어 및 인터넷워킹(internetworking)를 위한 TCP/IP 프로토콜과 함께 캐리어-센스 다수의-액세스 충돌 감지 프로토콜 예컨대 이더넷이다. 스캐너 (11)는 브로드밴드, 기저대역, 동축 케이블, 이중와선, 광 파이버들, DSL, 또는 무선을 포함하는 임의의 유형의 송신 매체들과 함께 작동하도록 의도된다.
일 실시예에서, 스캐너 (11)의 제어 및 스캐너 (11)에 의해 캡쳐된 이미지 데이터의 검토는 네트워크 (42)에 연결된 컴퓨터 (44)상에서 수행된다. 일 실시예에서, 컴퓨터 (44)는 이미지 정보를 운영자에 제공하는 디스플레이 모니터 (46)에 연결된다. 복수의 컴퓨터들 (44)이 네트워크 (42)에 연결될 수 있다. 일 실시예에서, 컴퓨터 (44)는 네트워크 브라우저 예컨대 Microsoft™로부터의 인터넷 Explorer™ , Google™로부터의 Chrome™, Apple™로부터의 Safari™, 등을 이용하여 스캐너 (11)와 통신한다. 이미지들은 이미 가장 커머셜한 브라우저들로 건조된 표준 이미지-압축 해제 방법들과 호환 가능한 이미지 포맷인 흔한 압축된 포맷, 예컨대 JPEG,으로 스캐너 (11)에 저장된다. 다른 표준 또는 비-표준, 손실이 있는 또는 손실이 없는, 이미지 압축 포맷들이 또한 작용한다. 일 실시예에서, 스캐너 (11)는 스캐너 (11)로부터 컴퓨터 (44)로 발송된 웹 페이지들에 기초한 운영자 인터페이스를 제공하는 웹 서버이다. 이미지데이터의 동적 리뷰를 위해, 스캐너 (11)의 실시예는 컴퓨터 (44)에 연결된 디스플레이 모니터 (46)상에서의 리뷰를 위해 , 표준 다수의-프레임 브라우저 호환 가능한 소프트웨어 패키지들 예컨대 Microsoft™로부터의 Media-Player™ , Apple™로부터 Quicktime™, 또는 Real Networks™로부터의 RealPlayer™ 을 이용하여 이미지 데이터의 다수의 프레임들을 재생(play back)하는 것에 기초한다. 일 실시예에서, 컴퓨터 (44)상에 브라우저는 송신 제어를 위한 TCP와 함께 하이퍼텍스트 전송 프로토콜 (HTTP)을 사용한다.
스캐너 (11)가 컴퓨터 (44), 또는 복수의 컴퓨터들과 통신할 수 있는 많은 상이한 수단들 및 프로토콜들이 있고 미래에 있을 것이다. 일 실시예는 표준 수단들 및 프로토콜들에 기초하지만, 앱들로서 알려진 개발중인 하나의 또는 다수의 맞춤화된 소프트웨어 모듈들의 접근법은 동등하게 실행 가능하고 스캐너 (11)의 선택된 미래 애플리케이션들을 위해 바람직할 수 있다. 더욱이, 컴퓨터 (44)가 임의의 특정 유형 예컨대 퍼스널 컴퓨터 (PC)이거나 또는 임의의 특정 회사 예컨대 Dell™에 의해 제조된다는 제약들은 없다. 표준화된 통신 포트 (40)의 장점들의 하나는 임의의 유형의 컴퓨터 (44), 동작 공통 네트워크 브라우저 소프트웨어가 스캐너 (11)와 통신할 수 있다는 것이다.
원하고, 그것이 가능하다면, 스펙트럼-분해된 이미지들을 획득하기 위해 스캐너 (11)에 일부 수정들이 있다. 스펙트럼-분해된 이미지들은 스펙트럼의 정보가 모든 이미지 픽셀에서 측정되는 이미지들이다. 스펙트럼-분해된 이미지들은 라스캐너 (11)의 라인 스캔 카메라 (18)를 광학적 슬릿 및 영상 스펙트로그래프로 대체함으로서 획득될 수 있다. 영상 스텍트로그래프는 검출기의 각각의 로우들을 따라서 광학적 슬릿상에 포커싱된 광 신호를 분산시키기 위해서 프리즘 또는 격자을 이용함으로써 이미지 픽셀들의 컬럼에 대한 파장-특정 세기 데이터를 캡쳐하기 위해서 2-차원 CCD 검출기를 사용한다.
도 14b는 일 실시예에 따른 광학적 현미경 시스템 (10)의 제 2실시예의 블럭 다이어그램이다. 이 시스템 (10)에서, 스캐너 (11)는 도 14a에 도시된 실시예보다 더 복잡하고 값비싸다. 도시된 스캐너 (11)의 추가의 속성들은 정확하게 작동하기 위해서 임의의 대안적인 실시예에 모두 제공될 필요는 없다. 도 14b는 스캐너 (11)에 통합될 수 있는 추가의 특징부들 및 성능들의 적정한 예제를 제공하도록 의도된다.
도 14b의 대안 실시예는 도 14a의 실시예보다 훨씬 더 큰 레벨의 자동화를 제공한다. 조명 시스템 (28)의 더 완전한 레벨의 자동화는 데이터 프로세서 (21)와 조명 시스템 (28)의 광원 (31) 및 조명 광학기기 (32)간의 연결들에 의해 달성된다. 광원 (31)에 대한 연결은 광원 (31)의 세기를 제어하기 위해 오픈 또는 폐루프 방식으로 전압, 또는 전류를 제어할 수 있다. 광원 (31)은 할로겐 전구임을 상기한다. 데이터 프로세서 (21)와 조명 광학기기 (32)간의 연결은 최적의 Kohler 조명이 유지되는 것을 보장하기위한 수단들을 제공하기 위해 필드 아이리스 개구 및 콘덴서 아이리스의 폐쇄-루프 제어를 제공할 수 있다.
형광 영상을 위한 스캐너 (11)의 사용은 광원 (31), 조명 광학기기 (32), 및 현미경 대물렌즈 (130)에 대한 용이하게 인식된 수정들을 요구한다. 도 14b의 실시예는 또한 여기 필터, 이색성 필터, 및 장벽 필터를 포함하는 형광 필터 큐즈(cube)(50)를 제공한다. 형광 필터 큐브 (50)는 현미경 대물렌즈 (130)와 라인 스캔 카메라 포커싱 광학기기 (34) 사이에 존재하는 무한-교정 빔 경로내에 위치된다. 형광 영상을 위한 실시예는 시장에서 이용가능한 다양한 형광체의 염료들(dyes) 또는 나노-결정(crystal)들에 대한 적절한 스펙트럼의 여기를 제공하기 위해 조명 광학기기 (32)로 필터 휠 또는 조정가능한 필터의 추가를 포함할 수 있다.
영상 경로로 적어도 하나의 빔 분배기 (52)의 추가는 광 신호가 적어도 두개의 경로들로 분열되는 것을 허용한다. 주 경로는 앞에서 논의된 것처럼, 라인 스캔 카메라 포커싱 광학기기 (34)를 통한 것으로 라인 스캔 카메라 (18) (영상 센서 (20)를 포함할 수 있는)에 의한 회절-제한된 영상을 가능하게 한다. 제 2 경로는 영역 스캔 카메라 포커싱 광학기기 (54)를 통하여 영역 스캔 카메라 (56)에 의한 영상에 제공된다. 이들 두개의 포커싱 광학기기의 적절한 선택은 상이한 픽셀 사이즈들을 두개의 카메라 센서들에 의한 회절-제한된 영상을 보장한다는 것이 쉽게 이해되어야 한다. 영역 스캔 카메라 (56)는 간단한 색상 비디오 카메라, 고성능, 냉각, CCD 카메라, 또는 가변 적분-시간 패스트(fast) 프레임 카메라를 포함하는 현재 이용가능한 많은 유형들 중 하나일 수 있다. 영역 스캔 카메라 (56)는 전통적인 영상 시스템 구성을 스캐너 (11)에 제공한다. 영역 스캔 카메라 (56)는 데이터 프로세서 (21)에 연결된다. 만약 두개의 카메라들이 사용되면, 예를 들어 라인 스캔 카메라 (18) 및 영역 스캔 카메라 (56), 양쪽 카메라 유형들은 하나 또는 둘모두 영상 보드들 요구되지 않을 수 있는 경우에 단일 듀얼-용도 영상 보드, 두개의 상이한 영상 보드들, 또는 IEEE 1394 파이어와이어 인터페이스를 이용하여 데이터 프로세서에 연결될 수 있다. 영상 센서들을 데이터 프로세서 (21)에 인터페이싱하는 다른 관련된 방법들이 또한 이용 가능하다.
컴퓨터 (44)로 스캐너 (11)의 주 인터페이스는 네트워크 (42)를 통하지만, 예를 들어 네트워크 (42)의 고장 경우들이 있고, 스캐너 (11)를 직접 로컬 출력 디바이스 예컨대 디스플레이 모니터(58)에 연결할 수 있는 것이 그리고 스캐너 (11)의 데이터 프로세서 (21)로 직접 연결된 로컬 입력 디바이스들 예컨대 키보드 및 마우스(59)를 제공하는 것이 유익하다. 이 경우에서, 적절한 드라이버 소프트웨어 및 하드웨어가 또한 제공될 것이다.
도 14b에 도시된 제 2 실시예는 또한 훨씬 더 큰 레벨의 자동화된 영상 성능을 제공한다. 스캐너 (11)의 영상의 증강된 자동화는 자동초점의 주지의 방법들을 이용하여 피에조 포지셔너 (24), 피에조 제어기 (26), 및 데이터 프로세서 (21)를 포함하는 초점-제어 루프를 폐쇄시킴으로써 달성된다. 제 2 실시예는 또한 몇몇의 대물 렌즈들을 수용하기 위해 전동 대물부(nose-piece)(62)가 제공된다. 전동 대물부(62)는 대물부 제어기 (64)를 통하여 데이터 프로세서 (21)에 연결되고 데이터 프로세서에 의해 지시된다.
통합될 수 있는 스캐너 (11)의 다른 특징부들 및 성능들이 있다. 예를 들어, 실질적으로 샘플 (120)의 X-Y 평면에 정지상태에 있는 현미경 대물렌즈 (130)에 대하여 샘플 (120)을 스캐닝하는 프로세스는 정지상태 샘플 (120)에 대하여 현미경 대물렌즈 (130)의 스캐닝을 포함하도록 (즉, X-Y 평면에서 현미경 대물렌즈 (130)을 움직임) 변형될 수 있다. 샘플 (120) 스캐닝, 또는 현미경 대물렌즈 (130) 스캐닝, 또는 샘플 (120) 및 현미경 대물렌즈 (130) 동시 스캐닝은, 앞에서 논의된 것처럼 샘플 (120)의 동일한 큰 연접(contiguous) 디지털 이미지를 제공할 수 있는 스캐너 (11)의 가능한 실시예들이다.
스캐너 (11)는 또한 많은 유형들의 현미경기반의 분석을 자동화하기 위한 범용 플랫폼을 제공한다. 조명 시스템 (28)은 레이저 여기(excitation)로 샘플 (120)의 스캐닝을 허용하기 위해서 전통적인 할로겐 램프 또는 아크-램프(arc-lamp)로부터 레이저기반의 조명 시스템까지 변형될 수 있다. 라인 스캔 카메라 (18) 또는 영역 스캔 카메라 (56)에 추가하여 또는 대신하여 광전자배증관(photomultiplier) 튜브 또는 다른 비-영상 검출기의 통합을 포함하는 수정예들이 샘플 (120)과 레이저 에너지의 상호작용으로부터 귀결되는 광 신호를 검출하는 수단을 제공하기 위해 사용될 수 있다.
이제 도 14c로 가서, 라인 스캔 카메라 FOV (250)는 선형 어레이 (74)에 선형 방식으로 배열된 다수의 개별 픽셀 엘리먼트들 (72)에 의해 이미지화된 도 14a의 샘플 (120)의 영역을 포함한다. 실시예의 선형 어레이 (74)는 1024 개별 픽셀 엘리먼트들 (72)을 포함하고, 각각의 픽셀 엘리먼트들 (72)은 14 마이크로미터 스퀘어이다. 일 실시예에서, 선형 어레이 (74)의 물리적 치수는 14.34 밀리미터 x14 마이크로미터이다. 스캐너 (11)의 동작의 논의의 목적들을 위하여, 샘플 (120)과 라인 스캔 카메라 (18) 사이의 확대율은 10이라고 가정하면, 라인 스캔 카메라 FOV (250)는 1.43 밀리미터 x 1.4 마이크로미터와 같은 치수를 갖는 샘플 (120)의 영역에 대응한다. 각각의 픽셀 엘리먼트 (72)는 약 1.4 마이크로미터 x 1.4 마이크로미터 면적을 이미지화한다.
스캐너 (11)의 일 실시예에서, 스캐닝 및 디지털화는 이미지 스트립들 간에 교차하여 이동 방향에서 수행된다. 양방향 스캐닝의 이 유형은 단방향의 스캐닝, 각각의 이미지 스트립에 대한 동일한 이동 방향을 요구하는 스캐닝 및 디지털화(digitization)의 방법보다 더 빠른 디지털화 프로세스를 제공한다.
라인 스캔 카메라 (18) (예를 들어, 영상 센서 (20)를 포함) 및 포커싱 센서 (30)의 성능들은 전형적으로 스캐닝 및 포커싱이 양방향으로 또는 단방향으로 수행될수 있는지 여부를 결정한다. 단방향의 시스템들은 흔히 도 14c에 도시된 하나 초과의 선형 어레이 (74), 예컨대 세개의 채널 색상 어레이(86) 또는 멀티-채널 TDI 어레이 (88)을 포함한다. 색상 어레이(86)는 색상 이미지를 획득하기 위해 요구되는 RGB 세기를 감지한다. 색상 정보를 획득하기 위한 대안 실시예는 브로드밴드 광 신호를 세개의 색상 채널들로 분열시키는 프리즘을 사용한다. TDI 어레이 (88)는 빠른 데이터 레이트를 유지하면서 그리고 디지털 이미지데이터의 신호대 잡음비에서 상당한 손실 없이 라인 스캔 카메라 (18)의 유효 적분 시간 을 증가시키는 수단을 제공하기 위해 스캐너 (11)의 대안 실시예에서 사용될 수 있다.
도 15는 본 출원에서 설명된 다양한 실시예들에 관련하여 사용될 수 있는 예제 유선 또는 무선 시스템(1500)를 예시하는 블럭 다이어그램이다. 예를 들어 시스템 (1500)은 상기에서 설명된 메커니즘들, 프로세스들, 방법들, 또는 기능들 중 하나 이상으로서 또는 함께 사용될 수 있고 슬라이드 스캐너 (11)의 컴포넌트들, 예컨대 데이터 프로세서 (21)를 나타낼 수 있다. 시스템 (1500)은 유선 또는 무선 데이터 통신이 가능한 임의의 프로세서-인에이블 디바이스일 수 있다. 당해 기술분야의 통상의 기술자들에게 명확해질 다른 컴퓨터 시스템들 및/또는 아키텍처들이 또한 사용될 수 있다.
시스템 (1500)은 바람직하게는 하나 이상의 프로세서들, 예컨대 프로세서 (1510)을 포함한다. 추가의 프로세서들이 예컨대 입력/출력을 관리하기 위한 보조 프로세서, 부동 소수점 수학 동작들을 수행하기 위한 보조 프로세서, 신호 프로세싱 알고리즘들의 빠른 실행에 적절한 아키텍처를 갖는 특정 목적 마이크로프로세서(예를 들어, 디지털 신호 프로세서), 메인 프로세싱 시스템에 종속된 슬레이브(slave) 프로세서 (예를 들어, 백-엔드(back-end) 프로세서), 듀얼 또는 다수의 프로세서 시스템들을 위한 추가의 마이크로프로세서 또는 제어기, 또는 코프로세서(coprocessor)가 제공될 수 있다. 이런 보조 프로세서들은 이산 프로세서들일 수 있거나 또는 프로세서 (1510)와 통합될 수 있다. 시스템 (1500)과 사용될 수 있는 프로세서들의 예들은 제한없이, Pentium® 프로세서, 코어 i7® 프로세서, 및 Xeon® 프로세서를 포함하고, 이들의 전부는 Intel Corporation of Santa Clara, California로부터 이용가능하다.
프로세서 (1510)는 바람직하게는 통신 버스 (1505)에 연결된다. 통신 버스 (1505)는 스템 (1500)의 다른 주변기기 컴포넌트들과 스토리지 사이의 정보 전송을 가능하게 하기 위한 데이터 채널을 포함할 수 있다. 통신 버스 (1505)는 추가로 데이터 버스, 어드레스 버스, 및 제어 버스 (미도시)를 포함하여 통신을 위해 사용되는 신호들의 세트를 프로세서 (1510)에 제공할 수 있다. 통신 버스 (1505)는 임의의 표준 또는 비-표준 버스 아키텍처 예컨대, 예를 들어, 산업 표준 아키텍처 (ISA)에 부합하는 버스 아키텍처들, 확장 산업 표준 아키텍처 (EISA), 마이크로 채널 아키텍처 (MCA), 주변기기 컴포넌트 상호연결 (PCI) 로컬 버스, 또는 IEEE 488 범용 인터페이스 버스 (GPIB), IEEE 696/S-100, 및 유사한 것을 포함하는 IEEE(Institute of Electrical and Electronics Engineers)에 의해 전파된 표준들을 포함할 수 있다.
시스템 (1500)은 바람직하게는 메인 메모리 (1515)를 포함할 수 있고 보조 메모리 (1520)를 또한 포함할 수 있다. 메인 메모리 (1515)는 상기에서 논의된 하나 이상의 기능들 및/또는 모듈들과 같은 프로세서 (1510)상에서 실행하는 프로그램들을 위한 데이터 및 명령들의 스토리지를 제공한다. 메모리에 저장되고 프로세서 (1510)에 의해 실행되는 프로그램들은 제한없이 C/C++, Java, JavaScript, Perl, Visual Basic, .NET, 및 유사한 것을 포함하는 임의의 적절한 언어에 따라 기록되고 및/또는 컴파일될 수 있다는 것이 이해되어야 한다. 메인 메모리 (1515)는 전형적으로 반도체기반의 메모리 예컨대 동적 랜덤 액세스 메모리 (DRAM) 및/또는 정적 랜덤 액세스 메모리 (SRAM)이다. 다른 반도체기반의 메모리 유형들은 예를 들어, 판독 전용 메모리 (ROM)을 포함하여 동기식 동적 랜덤 액세스 메모리 (SDRAM), 람부스(Rambus) 동적 랜덤 액세스 메모리 (RDRAM), 강유전체 랜덤 액세스 메모리 (FRAM), 및 유사한 것을 포함한다.
보조 메모리 (1520)는 옵션으로 내부 메모리 (1525) 및/또는 착탈 가능한 매체 (1530)을 포함할 수 있다. 착탈 가능한 매체 (1530)는 임의의 주지의 방식으로 판독되고 및/또는 기록된다. 착탈 가능한 스토리지 매체 (1530)는 예를 들어, 자기 테이프 드라이브, 컴팩트 디스크 (CD) 드라이브, 디지털 다기능 디스크 (DVD) 드라이브, 다른 광 드라이브, 플래시 메모리 드라이브, 등일 수 있다.
착탈 가능한 스토리지 매체 (1530)는 그 위에 컴퓨터-실행 가능한 코드 (즉, 소프트웨어) 및/또는 데이터를 저장시킨 비-일시적 컴퓨터 판독가능 매체이다. 착탈 가능한 스토리지 매체 (1530) 상에 저장된 컴퓨터 소프트웨어 또는 데이터는 프로세서 (1510)에 의한 실행을 위해 시스템 (1500)으로 판독된다.
대안 실시예들에서, 보조 메모리 (1520)는 컴퓨터 프로그램들 또는 다른 데이터 또는 명령들이 시스템 (1500)으로 로딩되는 것을 허용하기 위한 다른 유사한 수단들을 포함할 수 있다. 이런 수단들은 예를 들어, 소프트웨어 및 데이터가 외부 스토리지 매체 (1545)로부터 시스템 (1500)으로 전송되는 것을 허용하는 통신 인터페이스 (1540) (예를 들어, 통신 포트 (40)) 및 외부 스토리지 매체 (1545)를 포함할 수 있다. 외부 스토리지 매체 (1545)의 예들은 외부 하드 디스크 드라이브, 외부 광 드라이브, 외부 자기-광 드라이브, 등을 포함할 수 있다. 보조 메모리 (1520)의 다른 예들은 반도체기반 메모리 예컨대 프로그램 가능한 판독 전용 메모리 (PROM), 소거형 프로그램 가능한 판독 전용 메모리 (EPROM), 전기적으로 소거형 판독 전용 메모리 (EEPROM), 또는 플래시 메모리 ( EEPROM에 유사한 블럭-배향된 메모리)를 포함할 수 있다.
상기에서 언급된 바와 같이, 시스템 (1500)은 통신 인터페이스 (1540)를 포함할 수 있다. 통신 인터페이스 (1540)는 소프트웨어 및 데이터가 시스템 (1500)과 외부 디바이스들 (예를 들어, 프린터들), 네트워크들, 또는 다른 정보 소스들 간에 전송되는 것을 허용한다. 예를 들어, 컴퓨터 소프트웨어 또는 실행 가능한 코드는 통신 인터페이스 (1540)를 통하여 네트워크 서버로부터 시스템 (1500)으로 전송될 수 있다. 통신 인터페이스 (1540)의 예들은 빌트 인(built-in) 네트워크 어댑터, 네트워크 인터페이스 카드 (NIC), PCMCIA(Personal Computer Memory Card International Association) 네트워크 카드, 카드 버스 네트워크 어댑터, 무선 네트워크 어댑터, 범용 직렬 버스 (USB) 네트워크 어댑터, 모뎀, 네트워크 인터페이스 카드 (NIC), 무선 데이터 카드, 통신 포트, 적외선 인터페이스, IEEE 1394 파이어-와이어(fire-wire), 또는 시스템 (550)을 네트워크 또는 다른 컴퓨팅 디바이스와 인테페이싱하는 것이 가능한 임의의 다른 디바이스를 포함한다. 통신 인터페이스 (1540)는 바람직하게는 산업에-널리 알려진(promulgated) 프로토콜 표준들, 예컨대 이더넷 IEEE 802 표준들, 파이버 채널, 디지털 가입자 라인 (DSL), 비동기식 디지털 가입자 라인 (ADSL), 프레임 릴레이, 비동기식 전송 모드(ATM), 통합된 디지털 서비스들 네트워크 (ISDN), 퍼스널 통신 서비스들 (PCS), 송신 제어 프로토콜/인터넷 프로토콜 (TCP/IP), 직렬 라인 인터넷 프로토콜/점 대 점 프로토콜 (슬립/PPP), 등등을 구현하지만, 그러나 또한 맞춤화되거나 또는 비 표준 인터페이스 프로토콜들을 역시 구현할 수 있다.
통신 인터페이스 (1540)를 통하여 전송된 소프트웨어 및 데이터는 일반적으로 전기적 통신 신호들 (1555)의 형태로 있다. 이들 신호들 (1555)은 통신 채널 (1550)을 통하여 통신 인터페이스 (1540)에 제공될 수 있다. 일 실시예에서, 통신 채널 (1550)은 유선 또는 무선 네트워크, 또는 임의의 다양한 다른 통신 링크들일 수 있다. 통신 채널 (1550)은 신호들 (1555)을 전송하고 간단한 예를 들자면 유선 또는 케이블, 광 파이버들, 통상의 폰 라인, 셀룰러 폰 링크, 무선 데이터 통신 링크, 라디오 주파수 (“RF”) 링크, 또는 적외선 링크를 포함하는 여러 가지 유선 또는 무선 통신 수단들을 이용하여 구현될 수 있다.
컴퓨터-실행 가능한 코드(즉, 컴퓨터 프로그램들 또는 소프트웨어)가 메인 메모리 (1515) 및/또는 보조 메모리 (1520)에 저장된다. 컴퓨터 프로그램들은 또한 통신 인터페이스 (1540)를 통하여 수신될 수 있고 메인 메모리 (1515) 및/또는 보조 메모리 (1520)에 저장될 수 있다. 이런 컴퓨터 프로그램들은 실행될 때, 시스템 (1500)이 본 출원에 어디 다른 곳에서 설명된 개시된 실시예들의 다양한 기능들을 수행하는 것을 가능하게 한다.
본 설명에서, 용어 “컴퓨터 판독가능 매체”는 시스템 (1500)에 컴퓨터-실행 가능한 코드(예를 들어, 소프트웨어 및 컴퓨터 프로그램들)를 하기 위해 사용되는 임의의 비-일시적 컴퓨터-판독가능한 스토리지 매체를 지칭하기 위해 사용된다. 이런 매체들의 예들은 메인 메모리 (1515), 보조 메모리 (1520) (내부 메모리 (1525), 착탈 가능한 매체 (1530), 및 외부 스토리지 매체 (1545)를 포함), 및 통신 인터페이스 (1540)와 통신가능하게 결합된 임의의 주변 디바이스 (네트워크 정보 서버 또는 다른 네트워크 디바이스를 포함)를 포함한다. 이들 비-일시적 컴퓨터 판독가능 매체들은 실행 가능한 코드, 프로그래밍 명령들, 및 소프트웨어를 시스템 (1500)에 제공하기 위한 수단들이다.
소프트웨어를 이용하여 구현된 일 실시예에서, 소프트웨어는 컴퓨터 판독가능 매체상에 저장될 수 있고 착탈 가능한 매체 (1530), I/O 인터페이스 (1535), 또는 통신 인터페이스 (1540)의 방식으로 시스템 (1500)에 로딩될 수 있다. 이런 실시예에서, 소프트웨어는 전기적 통신 신호들 (1555)의 형태로 시스템 (1500)으로 로딩된다. 프로세서 (1510)에 의해 실행될 때, 소프트웨어는 바람직하게는 프로세서 (1510)가 본 출원에 어디 다른곳에서 설명된 특징부들 및 기능들을 수행하게 한다.
일 실시예에서, I/O 인터페이스 (1535)는 시스템 (1500)의 하나 이상의 컴포넌트들과 하나 이상의 입력 및/또는 출력 디바이스들 사이의 인터페이스를 제공한다. 예제 입력 디바이스들은 제한없이, 키보드들, 터치 스크린들 또는 다른 터치-감응 디바이스들, 생체 인식 센싱 디바이스들, 컴퓨터 마우스들, 트랙볼들, 펜-기반 포인팅 디바이스들, 및 유사한 것을 포함한다. 출력 디바이스들의 예들은 제한없이, 캐소드레이 튜브들 (CRT들), 플라즈마 디스플레이들, 발광 다이오드 (LED) 디스플레이들, 액정 디스플레이들 (LCD들), 프린터들, 진공 형광 디스플레이들 (VFD들), 표면-전도 전자-에미터 디스플레이들 (SED들), 필드 방출 디스플레이들 (FED들), 및 유사한 것을 포함한다.
시스템 (1500)은 또한 음성 네트워크 및/또는 데이터 네트워크상에서 무선 통신을 가능하게 하는 옵션의 무선 통신 컴포넌트들을 포함한다. 무선 통신 컴포넌트들은 안테나 시스템 (1570), 라디오 시스템 (1565), 및 기저대역 시스템 (1560)을 포함한다. 시스템 (1500)에서, 라디오 주파수 (RF) 신호들은 라디오 시스템 (1565)의 관리하에 안테나 시스템 (1570)에의해 공중상으로 송신되고 수신된다.
일 실시예에서, 안테나 시스템 (1570)은 안테나 시스템 (1570)을 송신 및 수신 신호 경로들에 제공하는 스위칭 기능을 수행하는 하나 이상의 안테나들 및 하나 이상의 다중화기들 (미도시)을 포함할 수있다. 수신 경로에서, 수신된 RF 신호들은 수신된 RF 신호를 증폭시키고 증폭된 신호를 라디오 시스템 (1565)으로 발송하는 다중화기로부터 저잡음 증폭기 (미도시)까지 결합될 수 있다.
대안 실시예들에서, 라디오 시스템 (1565)는 다양한 주파수들상에서 통신하도록 구성된 하나 이상의 라디오들을 포함할 수 있다. 일 실시예에서, 라디오 시스템 (1565)은 하나의 집적 회로 (IC)안에 복조기 (미도시) 및 변조기 (미도시)를 결합할 수 있다. 복조기 및 변조기는 또한 별개의 컴포넌트들일 수 있다. 착신 경로에서, 복조기는 라디오 시스템 (1565)로부터 기저대역 시스템 (1560)으로 발송된 기저대역 수신 오디오 신호를 남긴채 RF 캐리어 신호를 제거한다.
만약 수신된 신호가 오디오 정보를 수용하면, 기저대역 시스템 (1560)은 신호를 디코딩하고 그것을 아날로그 신호로 변환한다. 그런 다음 신호는 증폭되고 스피커로 발송된다. 기저대역 시스템 (1560)은 또한 마이크로폰으로부터 아날로그 오디오 신호들을 수신한다. 이들 아날로그 오디오 신호들은 기저대역 시스템 (1560)에 의해 인코딩되고 디지털 신호들로 변환된다. 기저대역 시스템 (1560)은 또한 송신을 위해 디지털 신호들을 코딩하고 라디오 시스템 (1565)의 변조기 부분으로 라우팅되는 기저대역 송신 오디오 신호를 생성한다. 변조기는 기저대역 송신 오디오 신호를 안테나 시스템 (1570)로 라우팅되고 파워 증폭기 (미도시)를 통과할 수 있는 RF 송신 신호를 생성하는 RF 캐리어 신호와 혼합한다. 파워 증폭기는 RF 송신 신호를 증폭하고 신호가 송신을 위해 안테나 포트로 스위칭되는 안테나 시스템 (1570)으로 그것을 라우팅한다.
기저대역 시스템 (1560)은 또한 중앙 프로세싱 유닛 (CPU)일 수 있는 프로세서 (1510)와 통신가능하게 결합된다. 프로세서 (1510)는 데이터 스토리지 영역들 (1515 및 1520)에 대한 액세스를 가진다. 프로세서 (1510)는 바람직하게는 메인 메모리 (1515) 또는 보조 메모리 (1520)에 저장될 수 있는 명령들 (즉, 컴퓨터 프로그램들 또는 소프트웨어)을 실행하도록 구성된다. 컴퓨터 프로그램들은 또한 기저대역 프로세서 (1560)로부터 수신될 수 있거나, 메인 메모리 (1510)에 또는 보조 메모리 (1520)에 저장될 수 있거나, 또는 수신시 실행될 수 있다. 실행될 때, 이런 컴퓨터 프로그램들은 시스템 (1500)이 개시된 실시예들의 다양한 기능들을 수행하는 것을 가능하게 한다. 예를 들어, 데이터 스토리지 영역들 (1515 또는 1520)은 다양한 소프트웨어 모듈들을 포함할 수 있다.
관련 기술 분야에 통상의 기술자들은 설명된 도면들과 관련하여 설명된 다양한 예시적인 논리적 블럭들, 모듈들, 회로들, 및 방법 단계들 및 본 출원에서 개시된 실시예들은 흔히 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합들로 구현될 수 있다는 것을 인식할 것이다. 하드웨어와 소프트웨어의 이 호환성을 명화갛게 예시하기 위해서, 다양한 예시적인 컴포넌트들, 블럭들, 모듈들, 회로들, 및 단계들은 일반적으로 그것들의 기능면에서 상기에서 설명되었다. 이런 기능이 하드웨어 또는 소프트웨어로 구현되는지 여부는 전체 시스템상에 부과된 특정 애플리케이션 및 디자인 제약들에 의존한다. 통상의 기술잘들은 각각의 특정 애플리케이션에 대하여 변화하는 방식들로 설명된 기능을 구현할 수 있지만, 그러나 이런 구현예 결정들은 본 발명의 범위로부터 벗어나게 해석되지 않아야 한다. 추가하여, 모듈, 블럭, 회로, 또는 단계내에 기능들의 그룹화는 설명의 용이를 위한 것이다. 특정 기능들 또는 단계들은 본 발명의 범위를 벗어나지 않고서 하나의 모듈, 블럭, 또는 회로로부터 다른 것으로 이동될 수 있다.
본 출원에서 설명된 임의의 소프트웨어 컴포넌트들은 여러 가지 형태들을 취할 수 있다. 예를 들어, 컴포넌트는 독립형 소프트웨어 패키지일 수 있거나, 또는 더 큰 소프트웨어 제품에 “툴”로서 통합된 소프트웨어 패키지일 수 있다. 현존하는 소프트웨어 애플리케이션에 인스톨하기 위한 독립형 제품으로서 또는 애드-인(add-in) 패키지로서 네트워크, 예를 들어, 웹사이트로부터 다운로드될 수 있다. 클라이언트-서버 소프트웨어 애플리케이션로서, 웹에서 이용 가능한 소프트웨어 애플리케이션로서, 및/또는 모바일 애플리케이션으로서 또한 이용 가능할 수 있다.
개시된 실시예들의 상기 설명은 관련 기술 분야에서 통상의 기술자가 본 출원의 내용을 사용하거나 또는 만드는 것을 제공하도록 제공된다. 이들 실시예들에 대한 다양한 수정예들은 당해 기술분야의 통상의 기술자들에 용이하게 명확해질 것이고, 본 출원에서 설명된 일반 원리들은 본 출원의 취지 또는 범위를 벗어나지 않고서 다른 실시예들에 적용될 수 있다. 따라서, 본 출원에 제공된 설명 및 도면들은 현재 선호되는 실시예를 나타내고 따라서 본 출원에 의해 광범위하게 고려되는 내용을 나타낸다는 것이 이해될 것이다. 본 출원의 범위는 당해 기술분야의 통상의 기술자들에 명백하게 될 수 있는 다른 실시예들을 완벽하게 아우르고 따라서 본 출원의 범위가 제한되지 않는다는 것이 추가로 이해된다.

Claims (66)

  1. 샘플의 디지털 이미지를 획득하기 위해 샘플을 스캐닝하기 위한 시스템에 있어서, 상기 시스템은 :
    샘플을 지지하도록 구성된 스테이지(stage);
    상기 스테이지에 직교하는 단일 광축(optical axis)를 갖는 대물렌즈;
    영상 센서(imaging sensor);
    포커싱 센서(focusing sensor); 및
    상기 대물렌즈에 광학적으로 결합되고 그리고 상기 대물렌즈의 광축에 대응하는 FOV(field of view)를 수신하고 동시에 적어도 상기 FOV의 제 1 부분을 상기 영상 센서에 그리고 적어도 상기 FOV의 제 2 부분을 상기 포커싱 센서에 제공하도록 구성된 적어도 하나의 제 1 빔 분배기(beam splitter)를 포함하는, 시스템.
  2. 청구항 1에 있어서, 상기 FOV의 제 1 부분은 상기 FOV의 제 1 영역이고, 상기 FOV의 제 2 부분은 상기 FOV의 상기 제 1 영역으로부터 오프셋된 상기 FOV의 제 2 영역인, 시스템.
  3. 청구항 2에 있어서, 상기 제 1 영역은 상기 FOV의 중심 영역인, 시스템.
  4. 청구항 3에 있어서, 상기 FOV의 제 2 영역은 스캐닝 방향에서 상기 FOV의 제 1 영역에 선행하는, 시스템.
  5. 청구항 3에 있어서, 상기 FOV의 제 2 영역은 스캐닝 방향에서 상기 FOV의 제 1 영역을 뒤따르는, 시스템.
  6. 청구항 1에 있어서, 상기 FOV의 제 1 부분은 상기 FOV의 제 2 부분과 동일한, 시스템.
  7. 청구항 1 내지 6 중 어느 하나의 항에 있어서, 상기 샘플은 조직 샘플이고, 상기 스테이지는 상기 조직 샘플을 지지하는 기판을 지지하도록 구성된, 시스템.
  8. 청구항 7에 있어서, 상기 기판은 슬라이드(slide)인, 시스템.
  9. 청구항 1 내지 8 중 어느 하나의 항에 있어서, 상기 스테이지는 상기 대물렌즈의 광축에 대하여 상기 샘플을 움직이는 전동 스테이지인, 시스템.
  10. 청구항 1 내지 9 중 어느 하나의 항에 있어서, 상기 포커싱 센서는 광 경로를 따라서 상기 FOV의 제 2 부분을 수신하고, 상기 포커싱 센서는 상기 광 경로에 대하여 각도에서 틸트되어, 상기 FOV의 제 2 부분은 이미지가 상이한 초점 거리들을 나타내는 픽셀들을 포함할 때 상기 포커싱 센서에 의해 획득되는, 시스템.
  11. 청구항 10에 있어서, 상기 포커싱 센서상에 적어도 하나의 지점은 상기 영상 센서와 초점 거리가 같은(parfocal), 시스템.
  12. 청구항 1 내지 11 중 어느 하나의 항에 있어서, 상기 포커싱 센서는 복수의 영역들을 포함하고, 상기 포커싱 센서의 각각의 영역은 별개의 광 경로를 따라서 상기 FOV의 제 2 부분을 수신하고, 상기 포커싱 센서는 상기 별개의 광 경로에 대하여 각도에서 틸트되어, 상기 FOV의 제 2 부분은 이미지가 포커싱 센서의 다른 영역들과 다른 초점 거리에서 상기 포커싱 센서의 각각의 영역에 의해 획득되는, 시스템.
  13. 청구항 12에 있어서, 상기 복수의 영역들 중 하나 영역상에 적어도 하나의 지점은 상기 영상 센서와 초점 거리가 같은(parfocal), 시스템.
  14. 청구항 12 또는 13에 있어서, 포커싱 광학기기(focusing optics)를 더 포함하고, 상기 포커싱 광학기기는 빔을 분열시키고 상기 적어도 하나의 제 1 빔 분배기에 광학적으로 결합된 적어도 하나의 제 2 빔 분배기를 포함하여, 상기 별개의 광 경로들로 상기 FOV의 제 2 부분을 전달하는, 시스템.
  15. 청구항 14에 있어서, 상기 적어도 하나의 제 2 빔 분배기는 복수의 제 2 빔 분배기들을 포함하고, 상기 복수의 제 2 빔 분배기들의 각각은 상기 포커싱 센서로부터 동일 거리에 위치되는, 시스템.
  16. 청구항 14 또는 15에 있어서, 상기 포커싱 광학기기는 상기 분열 빔을 상기 별개의 광 경로들 중 하나의 광 경로로 반사시키는 적어도 하나의 미러를 더 포함하는, 시스템.
  17. 청구항 15에 있어서, 상기 포커싱 광학기기는 상기 분열 빔을 상기 별개의 광 경로들 중 하나의 광 경로로 반사시키는 적어도 하나의 미러를 더 포함하고, 상기 적어도 하나의 미러는 상기 복수의 제 2 빔 분배기들과 상기 포커싱 센서로부터 동일한 거리에 위치되는, 시스템.
  18. 청구항 12 내지 17 중 어느 하나의 항에 있어서, 상기 포커싱 센서의 모든 영역들은 단일 라인 센서내에 있는, 시스템.
  19. 청구항 12 내지 17 중 어느 하나의 항에 있어서, 상기 포커싱 센서의 각각의 영역은 별개의 라인 센서를 포함하는, 시스템.
  20. 청구항 1 내지 9 중 어느 하나의 항에 있어서, 상기 포커싱 센서는 복수의 영역들을 포함하고, 상기 포커싱 센서의 각각의 영역은 별개의 광 경로를 따라서 상기 FOV의 제 2 부분을 수신하고, 상기 포커싱 센서는 상기 별개의 광 경로의 각각에 대하여 직교하고, 상기 별개의 광 경로들의 각각은 상이한 초점 거리를 가져서, 상기 FOV의 제 2 부분은 상기 포커싱 센서의 다른 영역들과 상이한 초점 거리에서 포커싱 센서의 각각의 영역에 의해 획득되는, 시스템.
  21. 청구항 20에 있어서, 상기 복수의 영역들 중 하나 영역상에 적어도 하나의 지점은 상기 영상 센서와 초점 거리가 같은(parfocal), 시스템.
  22. 청구항 20 또는 21에 있어서, 포커싱 광학기기를 더 포함하고, 상기 포커싱 광학기기는 빔을 분열시키고 상기 적어도 하나의 제 1 빔 분배기에 광학적으로 결합된 적어도 하나의 제 2 빔 분배기를 포함하여, 상기 별개의 광 경로들로 상기 FOV의 제 2 부분을 전달하는, 시스템.
  23. 청구항 22에 있어서, 상기 적어도 하나의 제 2 빔 분배기는 복수의 제 2 빔 분배기들을 포함하고, 상기 복수의 제 2 빔 분배기들의 각각은 상기 다른 복수의 제 2 빔 분배기들의 각각과 상기 포커싱 센서로부터 상이한 거리에 위치되는, 시스템.
  24. 청구항 22 또는 23에 있어서, 상기 포커싱 광학기기는 상기 분열 빔을 상기 별개의 광 경로들 중 하나의 광 경로로 반사시키는 적어도 하나의 미러를 더 포함하는, 시스템.
  25. 청구항 24에 있어서, 상기 적어도 하나의 미러는 복수의 미러들을 포함하고, 상기 복수의 미러들의 각각은 상기 다른 복수의 미러들의 각각과 상기 포커싱 센서로부터 상이한 거리에 위치되는, 시스템.
  26. 청구항 25에 있어서, 상기 포커싱 광학기기는 복수의 유리 블럭(glass block)들을 더 포함하고, 상기 복수의 유리 블럭들의 각각은 상기 복수의 미러들 중 하나의 미러와 상기 포커싱 센서의 복수의 영역들 중 하나의 영역 사이에 위치되는, 시스템.
  27. 청구항 20 내지 26 중 어느 하나의 항에 있어서, 상기 포커싱 광학기기는 적어도 두개의 튜브 렌즈들을 더 포함하고, 적어도 두개의 튜브 렌즈들 중 각각은 적어도 하나의 제 2 빔 분배기와 상기 포커싱 센서의 복수의 영역들 중 하나의 영역 사이의 상기 별개의 광 경로들 중 상이한 광 경로상에 위치되고, 상기 분열 빔을 상기 하나의 영역으로 집속시키는, 시스템.
  28. 청구항 20 내지 27 중 어느 하나의 항에 있어서, 상기 포커싱 센서의 모든 영역들은 단일 라인 센서내에 있는, 시스템.
  29. 청구항 20 내지 27 중 어느 하나의 항에 있어서, 상기 포커싱 센서의 각각의 영역은 별개의 라인 센서를 포함하는, 시스템.
  30. 청구항 29에 있어서, 상기 별개의 라인 센서들 중 적어도 하나는 상기 별개의 라인 센서들 중 적어도 하나의 다른 하나와 별개의 평면내에 있는, 시스템.
  31. 청구항 1 내지 9 중 어느 하나의 항에 있어서, 상기 포커싱 센서는 제 1 부분 및 제 2 부분을 포함하고, 상기 포커싱 센서의 제 1 부분은 제 1 광 경로를 따라서 상기 FOV의 제 2 부분을 수신하고 상기 제 1 광 경로에 대하여 제 1 각도에서 틸트되고, 상기 포커싱 센서의 제 2 부분은 상기 제 1 광 경로로부터 분리되고, 상기 제 1 각도에 역전되고 제 2 광 경로에 대하여 제 2 각도에서 틸트되는 상기 제 2 광 경로를 따라서 상기 FOV의 제 2 부분을 수신하는, 시스템.
  32. 청구항 31에 있어서, 상기 포커싱 센서의 제 1 부분 및 상기 포커싱 센서의 제 2 부분 양쪽 위에 적어도 하나의 지점은 상기 영상 센서와 초점 거리가 같은, 시스템.
  33. 청구항 31 또는 32에 있어서, 상기 포커싱 센서의 제 1 부분은 제 1 이미지를 획득하고, 상기 포커싱 센서의 제 2 부분은 제 2 이미지를 획득하고, 상기 제 1 이미지는 상기 제 1 이미지의 제 1 측면으로부터 상기 제 1 이미지의 제 2 측면으로의 방향에서 초점 거리들을 감소시켜서 획득된 픽셀들을 포함하고, 상기 제 2 이미지는 상기 제 2 이미지의 제 1 측면으로부터 상기 제 2 이미지의 제 2 측면으로의 방향에서 초점 거리들을 증가시켜 획득된 픽셀들을 포함하는, 시스템.
  34. 청구항 1 내지 9 중 어느 하나의 항에 있어서, 상기 포커싱 센서는 제 1 영역 및 제 2 영역을 포함하고, 상기 제 1 영역은 제 1 광 경로를 따라서 상기 FOV의 제 2 부분을 수신하고, 상기 제 2 영역은 제 2 광 경로를 따라서 상기 FOV의 미러링된 제 2 부분을 수신하고, 상기 포커싱 센서는 상기 제 1 광 경로 및 상기 제 2 광 경로의 각각에 대하여 각도에서 틸트되는, 시스템.
  35. 청구항 34에 있어서, 상기 포커싱 센서의 제 1 영역 및 상기 포커싱 센서의 제 2 영역 양쪽 위에 적어도 하나의 지점은 상기 영상 센서와 초점 거리가 같은, 시스템.
  36. 청구항 34 또는 35에 있어서, 상기 FOV의 제 2 부분은 초점 거리에서 상기 포커싱 센서의 제 1 영역에 의해 수신되고, 상기 FOV의 미러링된 제 2 부분은 상기 동일한 초점 거리에서 상기 포커싱 센서의 제 2 영역에 의해 수신되는, 시스템.
  37. 청구항 34 또는 36 중 어느 하나의 항에 있어서, 상기 포커싱 센서의 제 1 영역은 상기 FOV의 제 2 부분의 제 1 이미지를 획득하고, 상기 포커싱 센서의 제 2 영역은 상기 FOV의 미러링된 제 2 부분의 제 2 이미지를 획득하고, 상기 제 1 이미지는 상기 제 1 이미지의 제 1 측면으로부터 상기 제 1 이미지의 제 2 측면으로의 방향에서 초점 거리들을 감소시켜서 획득된 픽셀들을 포함하고, 상기 제 2 이미지는 상기 제 1 이미지와 동일한 방향에서 초점 거리들을 감소시켜서 획득된 픽셀들을 포함하는, 시스템.
  38. 청구항 34 내지 37 중 어느 하나의 항에 있어서, 포커싱 광학기기를 더 포함하고, 상기 포커싱 광학기기는 빔을 분열시키고 상기 적어도 하나의 제 1 빔 분배기에 광학적으로 결합된 적어도 하나의 제 2 빔 분배기를 포함하여, 상기 제 1 광 경로 및 상기 제 2 광 경로로 상기 FOV의 제 2 부분을 전달하는, 시스템.
  39. 청구항 38에 있어서, 상기 포커싱 광학기기는 상기 분열 빔을 상기 상기 제 1 광 경로 및 상기 제 2 광 경로 중 하나로 반사시키는 적어도 하나의 미러를 더 포함하는, 시스템.
  40. 청구항 38 또는 39에 있어서, 상기 포커싱 광학기기는 상기 FOV의 미러링된 제 2 부분을 형성하기 위해 상기 FOV의 제 2 부분을 플립(flip)하는 상기 포커싱 센서의 제 2 영역과 상기 적어도 하나의 제 1 빔 분배기사이에, 상기 제 2 광 경로에 도브 프리즘(dove prism)을 더 포함하는, 시스템.
  41. 청구항 38 또는 39에 있어서, 상기 적어도 하나의 미러는 제 1 미러 및 제 2 미러를 포함하고, 상기 제 2 광 경로는 상기 제 1 미러로부터 상기 제 2 미러상으로 반사, 다시 상기 제 2 미러로부터 상기 적어도 하나의 제 2 빔 분배기로 반사, 및 상기 적어도 하나의 제 2 빔 분배기로부터 상기 포커싱 센서의 제 2 영역으로 경로를 포함하여, 상기 FOV의 제 2 부분이 상기 FOV의 미러링된 제 2 부분을 형성하기 위해 플립되는, 시스템.
  42. 청구항 1 내지 41 중 어느 하나의 항에 있어서, 상기 포커싱 센서상에 하나의 지점은 상기 영상 센서와 초점 거리가 같은, 시스템.
  43. 청구항 42에 있어서, 상기 하나의 초점 거리가 같은 지점은 상기 포커싱 센서의 중심에 있는, 시스템.
  44. 청구항 42 또는 43에 있어서, 스캐닝될 상기 샘플의 각각의 부분에 대하여 :
    상기 포커싱 센서로부터 상기 샘플의 부분의 포커싱 이미지를 획득하고;
    상기 영상 센서로부터 상기 샘플의 부분의 메인 이미지를 획득하고;
    상기 포커싱 센서상에 복수의 위치들의 각각에 대하여, 상기 포커싱 센서상의 해당 위치에 대응하는 상기 포커싱 이미지의 영역에 대한 콘트라스트 측정값을 산출하고;
    상기 영상 센서상에 복수의 위치들의 각각에 대하여, 상기 영상 센서상의 해당 위치에 대응하는 상기 메인 이미지의 영역에 대한 콘트라스트 측정값을 산출하고;
    상기 포커싱 이미지와 상기 메인 이미지간의 관계를 결정하고;
    상기 관계에 대한 피크를 결정하고;
    상기 피크에 대응하는 상기 포커싱 센서상의 위치와 상기 포커싱 센서와 상기 영상 센서 사이의 초점 거리가 같은 지점간의 거리에 기초하여 타겟 표면을 업데이트하고; 및
    다음 타겟 표면으로 이동하는 상기 대물렌즈에 대한 위치를 결정하도록 구성된, 프로세서를 더 포함하는, 시스템.
  45. 청구항 44에 있어서, 상기 프로세서는 :
    상기 결정된 위치로 상기 대물렌즈를 이동시키고; 및
    스캐닝될 상기 샘플의 다음 부분에 대한 새로운 포커싱 이미지 및 메인 이미지를 획득하도록 더 구성되는, 시스템.
  46. 청구항 45에 있어서, 상기 프로세서는 스캐닝될 상기 샘플의 각각의 부분에 대하여 상기 포커싱 이미지와 상기 메인 이미지간의 관계를 결정하도록 더 구성된, 시스템.
  47. 청구항 46에 있어서, 상기 포커싱 이미지와 상기 메인 이미지 간의 관계는 상기 포커싱 이미지의 콘트라스트 측정값과 상기 메인 이미지의 콘트라스트 측정값 간의 비율을 포함하는, 시스템.
  48. 청구항 46에 있어서, 상기 포커싱 이미지와 상기 메인 이미지 간의 관계는 상기 포커싱 이미지의 콘트라스트 측정값과 상기 메인 이미지의 콘트라스트 측정값 간의 차이를 포함하는, 시스템.
  49. 청구항 44 내지 48 중 어느 하나의 항에 있어서, 상기 관계에 대한 피크를 결정하는 것은 :
    상기 관계에 대한 최상-피팅(best-fit) 커브를 산출하는 것; 및
    상기 최상-피팅 커브의 피크를 결정하는 것을 더 포함하는, 시스템.
  50. 청구항 44 내지 49 중 어느 하나의 항에 있어서, 상기 포커싱 센서상의 상기 복수의 위치들의 각각은 상기 대물렌즈에 대한 위치에 매핑되고, 상기 대물렌즈에 대한 위치를 결정하는 것은 상기 결정된 피크에 대응하는 상기 포커싱 센서상에 위치에 매핑된 상기 대물렌즈에 대한 위치를 결정하는 것을 포함하는, 시스템.
  51. 청구항 44 내지 49 중 어느 하나의 항에 있어서, 상기 관계에 대한 피크를 제공하는 상기 대물렌즈의 위치를 결정하는 것은 상기 피크가 상기 업데이트된 타겟 표면상에 있을 때까지 상기 대물렌즈를 이동시키기 위한 피드백 루프를 이용하는 것을 포함하는, 시스템.
  52. 청구항 51에 있어서, 상기 피드백 루프를 이용하여 상기 대물렌즈의 움직임의 방향은 상기 포커싱 이미지와 상기 포커싱 이미지의 미러 이미지간의 관계에 기초하고, 상기 포커싱 이미지는 상기 제 1 이미지의 제 1 측면으로부터 상기 제 1 이미지의 제 2 측면으로의 방향에서 초점 거리들을 감소시켜서 획득된 픽셀들을 포함하고, 상기 포커싱 이미지의 미러 이미지는 상기 포커싱 이미지와 동일한 방향에서 초점 거리들을 감소시켜서 획득된 픽셀들을 포함하는, 시스템.
  53. 청구항 52에 있어서, 상기 포커싱 이미지와 상기 포커싱 이미지의 미러 이미지 간의 관계는 상기 포커싱 이미지의 콘트라스트 측정값과 상기 포커싱 이미지의 미러 이미지의 콘트라스트 측정값 간의 비율을 포함하는, 시스템.
  54. 청구항 52에 있어서, 상기 포커싱 이미지와 상기 포커싱 이미지의 미러 이미지 간의 관계는 상기 포커싱 이미지의 콘트라스트 측정값과 상기 포커싱 이미지의 미러 이미지의 콘트라스트 측정값 간의 차이를 포함하는, 시스템.
  55. 자동의, 실시간 포커싱을 위한 방법에 있어서, 상기 방법은 스캐닝될 샘플의 각각의 부분에 대하여:
    상기 샘플의 부분이 영상 센서에 의해 센싱되기 전에, 센싱될 때 또는 그 후에,
    포커싱 센서로부터 상기 샘플의 부분의 포커싱 이미지를 획득하고, 상기 포커싱 센서에 의해 센싱된 FOV(field of view)의 부분은 상기 영상 센서에 의해 센싱된 상기 FOV부분으로부터 오프셋되어, 스캔 방향에서, 상기 포커싱 센서는 상기 영상 센서가 상기 FOV의 동일한 부분을 센싱하기 전에, 동일한 시간 또는 그 후에, 상기 FOV의 부분을 센싱하고 상기 포커싱 센서상의 하나의 지점은 상기 영상 센서와 초점 거리가 같고,
    상기 포커싱 센서상에 복수의 위치들의 각각에 대하여, 상기 포커싱 센서상의 해당 위치에 대응하는 상기 포커싱 이미지의 영역에 대한 콘트라스트 측정값을 산출하고,
    상기 포커싱 이미지와 상기 영상 센서에 의해 획득된 상기 샘플의 부분의 메인 이미지 간의 관계를 결정하고,
    상기 관계에 대한 피크를 결정하고,
    상기 피크에 대응하는 상기 포커싱 센서상의 위치와 상기 초점 거리가 같은 지점간의 거리에 기초하여 타겟 표면을 업데이트하고, 및
    다음 타겟 표면으로 이동하는 대물렌즈에 대한 위치를 결정하고; 및
    상기 대물렌즈가 상기 결정된 위치에 있는 동안 상기 영상 센서로부터 상기 샘플의 부분의 이미지를 획득하도록 슬라이드 스캐너내 프로세서를 이용하는 단계를 포함하는, 방법.
  56. 청구항 55에 있어서, 상기 관계에 대한 피크를 결정하는 단계는 :
    상기 관계에 대한 최상-피팅(best-fit) 커브를 산출하는 단계; 및
    상기 최상-피팅 커브의 피크를 결정하는 단계를 포함하는, 방법.
  57. 청구항 55 또는 56에 있어서, 상기 포커싱 센서상의 상기 복수의 위치들의 각각은 상기 대물렌즈에 대한 위치에 매핑되고, 상기 대물렌즈에 대한 위치를 결정하는 단계는 상기 결정된 피크에 대응하는 상기 업데이트된 타겟 표면상의 위치에 매핑된 상기 대물렌즈에 대한 위치를 결정하는 단계를 포함하는, 방법.
  58. 청구항 55 내지 57 중 어느 하나의 항에 있어서, 상기 관계에 대한 피크를 제공하는 상기 대물렌즈의 위치를 결정하는 단계는 상기 피크가 상기 업데이트된 타겟 표면상에 있을 때까지 상기 대물렌즈를 이동시키기 위한 피드백 루프를 이용하는 단계를 포함하는, 방법.
  59. 청구항 58에 있어서, 스캐닝될 상기 샘플의 각각의 부분에 대하여 상기 샘플의 부분이 상기 영상 센서에 의해 센싱되기 전에, 동일한 시간에 또는 그 후에, 상기 포커싱 이미지를 획득하는 것과 동시에 상기 포커싱 이미지의 미러 이미지를 획득하는 것을 더 포함하고, 상기 피드백 루프를 이용하여 상기 대물렌즈의 움직임의 방향은 상기 포커싱 이미지와 상기 포커싱 이미지의 미러 이미지간의 관계에 기초하고, 상기 포커싱 이미지는 상기 제 1 이미지의 제 1 측면으로부터 상기 제 1 이미지의 제 2 측면으로의 방향에서 초점 거리들을 감소시켜서 획득된 픽셀들을 포함하고, 상기 포커싱 이미지의 미러 이미지는 상기 포커싱 이미지와 동일한 방향에서 초점 거리들을 감소시켜서 획득된 픽셀들을 포함하는, 방법.
  60. 청구항 59에 있어서, 상기 포커싱 이미지와 상기 포커싱 이미지의 미러 이미지 간의 관계는 상기 포커싱 이미지의 콘트라스트 측정값과 상기 포커싱 이미지의 미러 이미지의 콘트라스트 측정값 간의 비율을 포함하는, 방법.
  61. 비-일시적 컴퓨터 판독가능한 매체에 있어서, 그 위에 저장된 명령들을 갖고, 상기 명령들은 프로세서에 의해 실행될 때 상기 프로세서로 하여금 스캐닝될 샘플의 각각의 부분에 대하여 :
    상기 샘플의 부분이 영상 센서에 의해 센싱되기 전에, 센싱될 때 또는 그 후에,
    포커싱 센서로부터 상기 샘플의 부분의 포커싱 이미지를 획득하고, 상기 포커싱 센서에 의해 센싱된 FOV(field of view)의 부분은 상기 영상 센서에 의해 센싱된 상기 FOV부분으로부터 오프셋되어, 스캔 방향에서, 상기 포커싱 센서는 상기 영상 센서가 상기 FOV의 동일한 부분을 센싱하기 전에, 동일한 시간 또는 그 후에, 상기 FOV의 부분을 센싱하고 하나의 지점은 상기 영상 센서와 초점 거리가 같고,
    상기 포커싱 센서상에 복수의 위치들의 각각에 대하여, 상기 포커싱 센서상의 해당 위치에 대응하는 상기 포커싱 이미지의 영역에 대한 콘트라스트 측정값을 산출하고,
    상기 포커싱 이미지와 상기 영상 센서에 의해 획득된 상기 샘플의 부분의 메인 이미지 간의 관계를 결정하고,
    상기 관계에 대한 피크를 결정하고,
    상기 피크에 대응하는 상기 포커싱 센서상의 위치와 상기 초점 거리가 같은 지점간의 거리에 기초하여 타겟 표면을 업데이트하고,
    다음 타겟 표면으로 이동하는 대물렌즈에 대한 위치를 결정하고, 및
    상기 결정된 위치로 상기 대물렌즈를 이동시키고; 및
    상기 대물렌즈가 상기 결정된 위치에 있는 동안 상기 영상 센서로부터 상기 샘플의 부분의 이미지를 획득하게 하는, 비-일시적 컴퓨터 판독가능한 매체.
  62. 청구항 61에 있어서, 상기 관계에 대한 피크를 결정하는 단계는 :
    상기 관계에 대한 최상-피팅(best-fit) 커브를 산출하는 단계; 및
    상기 최상-피팅 커브의 피크를 결정하는 단계를 포함하는, 비-일시적 컴퓨터 판독가능한 매체.
  63. 청구항 61 또는 62에 있어서, 상기 포커싱 센서상의 상기 복수의 위치들의 각각은 상기 대물렌즈에 대한 위치에 매핑되고, 상기 대물렌즈에 대한 위치를 결정하는 단계는 상기 결정된 피크에 대응하는 상기 업데이트된 타겟 표면상의 위치에 매핑된 상기 대물렌즈에 대한 위치를 결정하는 단계를 포함하는, 비-일시적 컴퓨터 판독가능한 매체.
  64. 청구항 61 내지 63 중 어느 하나의 항에 있어서, 상기 대물렌즈에 대한 위치를 결정하는 단계는 상기 피크가 상기 업데이트된 타겟 표면상에 있을 때까지 상기 대물렌즈를 이동시키기 위한 피드백 루프를 이용하는 단계를 포함하는, 비-일시적 컴퓨터 판독가능한 매체.
  65. 청구항 64에 있어서, 상기 명령들은 추가로 상기 프로세서가 스캐닝될 상기 샘플의 각각의 부분에 대하여 상기 샘플의 부분이 상기 영상 센서에 의해 센싱되기 전에, 동일한 시간에 또는 그 후에, 상기 포커싱 이미지를 획득하는 것과 동시에 상기 포커싱 이미지의 미러 이미지를 획득하게 하고, 상기 피드백 루프를 이용하여 상기 대물렌즈의 움직임의 방향은 상기 포커싱 이미지와 상기 포커싱 이미지의 미러 이미지간의 관계에 기초하고, 상기 포커싱 이미지는 상기 제 1 이미지의 제 1 측면으로부터 상기 제 1 이미지의 제 2 측면으로의 방향에서 초점 거리들을 감소시켜서 획득된 픽셀들을 포함하고, 상기 포커싱 이미지의 미러 이미지는 상기 포커싱 이미지와 동일한 방향에서 초점 거리들을 감소시켜서 획득된 픽셀들을 포함하는, 비-일시적 컴퓨터 판독가능한 매체.
  66. 청구항 65에 있어서, 상기 포커싱 이미지와 상기 포커싱 이미지의 미러 이미지 간의 관계는 상기 포커싱 이미지의 콘트라스트 측정값과 상기 포커싱 이미지의 미러 이미지의 콘트라스트 측정값 간의 비율을 포함하는, 비-일시적 컴퓨터 판독가능한 매체.
KR1020187009072A 2015-09-24 2016-09-23 라인 스캔 영상내 실시간 포커싱 KR20180058730A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562232229P 2015-09-24 2015-09-24
US62/232,229 2015-09-24
PCT/US2016/053581 WO2017053891A1 (en) 2015-09-24 2016-09-23 Real-time focusing in line scan imaging

Publications (1)

Publication Number Publication Date
KR20180058730A true KR20180058730A (ko) 2018-06-01

Family

ID=58387414

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187009072A KR20180058730A (ko) 2015-09-24 2016-09-23 라인 스캔 영상내 실시간 포커싱

Country Status (9)

Country Link
US (2) US10634894B2 (ko)
EP (1) EP3353601A4 (ko)
JP (1) JP6865740B2 (ko)
KR (1) KR20180058730A (ko)
CN (1) CN108139650B (ko)
AU (1) AU2016326723B2 (ko)
BR (1) BR112018005822A2 (ko)
CA (1) CA3000053C (ko)
WO (1) WO2017053891A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11422350B2 (en) 2015-09-24 2022-08-23 Leica Biosystems Imaging, Inc. Real-time focusing in line scan imaging
KR20230024112A (ko) * 2021-08-11 2023-02-20 주식회사 뷰웍스 영상 획득 장치 및 이를 이용한 초점 위치 판별 방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11709155B2 (en) 2017-09-18 2023-07-25 Waters Technologies Corporation Use of vapor deposition coated flow paths for improved chromatography of metal interacting analytes
US11709156B2 (en) 2017-09-18 2023-07-25 Waters Technologies Corporation Use of vapor deposition coated flow paths for improved analytical analysis
JP2019062462A (ja) * 2017-09-27 2019-04-18 キヤノン株式会社 表示装置およびその制御装置、ならびにそれらの制御方法
KR102419163B1 (ko) * 2017-09-29 2022-07-08 라이카 바이오시스템즈 이미징 인크. 실시간 오토포커스 포커싱 알고리즘
CN111183385B (zh) 2017-09-29 2022-04-08 徕卡生物系统成像股份有限公司 实时自动聚焦扫描
EP3625605B1 (en) * 2017-09-29 2022-08-17 Leica Biosystems Imaging, Inc. Two-dimensional and three-dimensional fixed z scanning
AU2018375358B2 (en) * 2017-11-28 2021-02-04 Leica Biosystems Imaging, Inc. Dual processor image processing
US11055105B2 (en) * 2018-08-31 2021-07-06 Micron Technology, Inc. Concurrent image measurement and execution
CN112714886B (zh) * 2018-09-28 2023-03-21 仪景通株式会社 显微镜系统、投影单元以及图像投影方法
CN112714888B (zh) 2018-09-28 2023-02-17 仪景通株式会社 显微镜系统、投影单元以及图像投影方法
WO2020066043A1 (ja) 2018-09-28 2020-04-02 オリンパス株式会社 顕微鏡システム、投影ユニット、及び、画像投影方法
CN109342322A (zh) * 2018-10-23 2019-02-15 南京光声超构材料研究院有限公司 时域热反射谱测量中的自动聚焦方法
CN109905618B (zh) * 2019-03-26 2021-03-16 中国科学院长春光学精密机械与物理研究所 夹心成像单元结构及一步正样的设计方法
JP2022542625A (ja) * 2019-08-06 2022-10-06 ライカ バイオシステムズ イメージング インコーポレイテッド スライド走査システムにおけるリアルタイム合焦
WO2021026374A1 (en) 2019-08-06 2021-02-11 Leica Biosystems Imaging, Inc. Graphical user interface for slide-scanner control
US11918936B2 (en) 2020-01-17 2024-03-05 Waters Technologies Corporation Performance and dynamic range for oligonucleotide bioanalysis through reduction of non specific binding
US11053540B1 (en) 2020-01-17 2021-07-06 Element Biosciences, Inc. High performance fluorescence imaging module for genomic testing assay
CN111866387B (zh) * 2020-07-27 2021-11-02 支付宝(杭州)信息技术有限公司 深度图像成像系统和方法
JP2022049808A (ja) * 2020-09-17 2022-03-30 オリンパス株式会社 撮影装置、撮影システム、及び、制御方法
CN111932542B (zh) * 2020-10-14 2021-02-02 深圳市瑞图生物技术有限公司 一种基于多焦距的图像识别方法及装置、存储介质
JP2022127536A (ja) * 2021-02-19 2022-08-31 株式会社キーエンス 拡大観察装置、拡大画像観察方法、拡大画像観察プログラム及びコンピュータで読み取り可能な記録媒体並びに記憶した機器
CN113031243B (zh) * 2021-03-26 2021-08-31 杭州辰景光电科技有限公司 一种基于波导片的反射式片上数字全息显微装置
CN113281874A (zh) * 2021-06-30 2021-08-20 成都易迅光电科技有限公司 一种伸缩多镜头模组
CN117908219A (zh) * 2024-03-06 2024-04-19 东莞市沃德普自动化科技有限公司 一种对焦模组、自动对焦显微成像系统及方法

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3967110A (en) * 1973-09-21 1976-06-29 Corning Glass Works Automatic focusing system
US4636627A (en) 1983-01-17 1987-01-13 Canon Kabushiki Kaisha Focus detecting apparatus
US5756307A (en) 1991-09-20 1998-05-26 The United States Of America As Represented By The Department Of Health And Human Services Sequence of human dopamine transporter cDNA
JP2966311B2 (ja) * 1995-03-10 1999-10-25 科学技術振興事業団 顕微測光装置
JPH08320430A (ja) 1995-05-23 1996-12-03 Nikon Corp 自動焦点検出装置
JPH09189850A (ja) * 1996-01-09 1997-07-22 Olympus Optical Co Ltd オートフォーカス顕微鏡
JPH1152224A (ja) 1997-06-04 1999-02-26 Hitachi Ltd 自動焦点検出方法およびその装置並びに検査装置
US6091075A (en) 1997-06-04 2000-07-18 Hitachi, Ltd. Automatic focus detection method, automatic focus detection apparatus, and inspection apparatus
US20060060781A1 (en) 1997-08-11 2006-03-23 Masahiro Watanabe Charged-particle beam apparatus and method for automatically correcting astigmatism and for height detection
US6640014B1 (en) * 1999-01-22 2003-10-28 Jeffrey H. Price Automatic on-the-fly focusing for continuous image acquisition in high-resolution microscopy
US6839469B2 (en) * 2000-01-21 2005-01-04 Lam K. Nguyen Multiparallel three dimensional optical microscopy system
US6724489B2 (en) 2000-09-22 2004-04-20 Daniel Freifeld Three dimensional scanning camera
AU2001297843A1 (en) 2000-10-12 2002-12-23 Amnis Corporation Imaging and analyzing parameters of small moving objects such as cells
DE10127284A1 (de) 2001-06-05 2002-12-12 Zeiss Carl Jena Gmbh Autofokussiereinrichtung für ein optisches Gerät
JP2004046132A (ja) 2002-05-17 2004-02-12 Olympus Corp 自動焦点調節装置
US6760154B1 (en) 2002-06-04 2004-07-06 Biotechs, Inc. Microscope system with continuous autofocus
JP4370554B2 (ja) 2002-06-14 2009-11-25 株式会社ニコン オートフォーカス装置およびオートフォーカス付き顕微鏡
DE10319182B4 (de) 2003-04-29 2008-06-12 Carl Zeiss Jena Gmbh Verfahren und Anordnung zur Bestimmung der Fokusposition bei der Abbildung einer Probe
US7330574B2 (en) 2003-05-08 2008-02-12 Ometrix, Inc. Best-focus estimation by lateral scanning
WO2005010495A2 (en) 2003-07-22 2005-02-03 Trestle Corporation System and method for generating digital images of a microscope slide
JP2005070225A (ja) 2003-08-21 2005-03-17 Tokyo Seimitsu Co Ltd 表面画像投影装置及び表面画像投影方法
JP2005114859A (ja) * 2003-10-03 2005-04-28 Nikon Corp 顕微鏡
WO2005057193A1 (en) 2003-11-18 2005-06-23 Applied Materials Israel, Ltd Inspection system with auto-focus
US7813579B2 (en) 2004-05-24 2010-10-12 Hamamatsu Photonics K.K. Microscope system
US7232980B2 (en) 2004-05-24 2007-06-19 Hamamatsu Photonics K.K. Microscope system
US8164622B2 (en) 2005-07-01 2012-04-24 Aperio Technologies, Inc. System and method for single optical axis multi-detector microscope slide scanner
JP4680052B2 (ja) 2005-12-22 2011-05-11 シスメックス株式会社 標本撮像装置及びこれを備える標本分析装置
AU2007215302A1 (en) 2006-02-10 2007-08-23 Hologic, Inc. Method and apparatus and computer program product for collecting digital image data from microscope media-based specimens
JP5094048B2 (ja) 2006-06-09 2012-12-12 株式会社日立ハイテクノロジーズ 外観検査装置
DE102006027836B4 (de) * 2006-06-16 2020-02-20 Carl Zeiss Microscopy Gmbh Mikroskop mit Autofokuseinrichtung
US7769219B2 (en) * 2006-12-11 2010-08-03 Cytyc Corporation Method for assessing image focus quality
DE102007017598A1 (de) 2007-04-13 2008-10-16 Carl Zeiss Microimaging Gmbh Verfahren und Anordnung zum Positionieren eines Lichtblattes in der Fokusebene einer Detektionsoptik
US7576307B2 (en) 2007-04-30 2009-08-18 General Electric Company Microscope with dual image sensors for rapid autofocusing
US8179432B2 (en) 2007-04-30 2012-05-15 General Electric Company Predictive autofocusing
US8878923B2 (en) 2007-08-23 2014-11-04 General Electric Company System and method for enhanced predictive autofocusing
JP4885156B2 (ja) 2008-02-07 2012-02-29 株式会社日立製作所 フォーカス制御装置及び方法
WO2010067256A1 (en) 2008-12-09 2010-06-17 Koninklijke Philips Electronics N.V. Autofocus for a microscope system.
EP2244484B1 (en) 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
US8304704B2 (en) 2009-07-27 2012-11-06 Sensovation Ag Method and apparatus for autofocus using a light source pattern and means for masking the light source pattern
EP2491452A4 (en) 2009-10-19 2015-03-11 Ventana Med Syst Inc IMAGING SYSTEM AND TECHNIQUES
ES2561937T3 (es) 2009-12-30 2016-03-01 Koninklijke Philips N.V. Sensor para microscopia
EP2572226A1 (en) 2010-05-18 2013-03-27 Koninklijke Philips Electronics N.V. Autofocus imaging
WO2011161594A1 (en) 2010-06-24 2011-12-29 Koninklijke Philips Electronics N.V. Autofocus based on differential measurements
US8175452B1 (en) 2010-10-26 2012-05-08 Complete Genomics, Inc. Method and system for imaging high density biochemical arrays with sub-pixel alignment
CA2837226A1 (en) 2011-05-25 2012-11-29 Huron Technologies International Inc. 3d pathology slide scanner
GB201113071D0 (en) 2011-07-29 2011-09-14 Ffei Ltd Method and apparatus for image scanning
EP2758825B1 (en) 2011-09-21 2016-05-18 Huron Technologies International Inc. Slide scanner with a tilted image plane
US9402036B2 (en) 2011-10-17 2016-07-26 Rudolph Technologies, Inc. Scanning operation with concurrent focus and inspection
JP6019998B2 (ja) 2012-02-17 2016-11-02 ソニー株式会社 撮像装置、撮像制御プログラム及び撮像方法
ES2953897T3 (es) * 2012-05-02 2023-11-16 Leica Biosystems Imaging Inc Enfoque en tiempo real en imagenología de exploración lineal
GB2505691B (en) 2012-09-07 2018-02-21 Ffei Ltd Method and apparatus for image scanning
EP2947487A4 (en) * 2013-01-17 2016-08-24 Hamamatsu Photonics Kk IMAGE-DEFINITION APPARATUS AND METHOD FOR FOCUSING AN IMAGE-DEFINITION DEVICE
CN105008975B (zh) 2013-01-17 2018-06-26 浜松光子学株式会社 图像取得装置以及图像取得装置的聚焦方法
EP2947490A4 (en) 2013-01-17 2016-08-31 Hamamatsu Photonics Kk IMAGE ACQUISITION DEVICE AND FOCUSING METHOD FOR IMAGE ACQUISITION DEVICE
JP2014178474A (ja) 2013-03-14 2014-09-25 Sony Corp デジタル顕微鏡装置、その合焦位置探索方法およびプログラム
WO2014174919A1 (ja) 2013-04-26 2014-10-30 浜松ホトニクス株式会社 画像取得装置及び画像取得装置のフォーカス方法
JP6010505B2 (ja) 2013-06-11 2016-10-19 浜松ホトニクス株式会社 画像取得装置及び画像取得装置のフォーカス方法
JP6394850B2 (ja) 2013-09-20 2018-09-26 大学共同利用機関法人自然科学研究機構 補償光学系及び光学装置
TWI515503B (zh) 2013-12-09 2016-01-01 聯詠科技股份有限公司 自動對焦影像擷取裝置與影像擷取方法
CN108139650B (zh) 2015-09-24 2020-10-30 徕卡生物系统公司 线扫描成像中的实时聚焦

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11422350B2 (en) 2015-09-24 2022-08-23 Leica Biosystems Imaging, Inc. Real-time focusing in line scan imaging
KR20230024112A (ko) * 2021-08-11 2023-02-20 주식회사 뷰웍스 영상 획득 장치 및 이를 이용한 초점 위치 판별 방법
US12101538B2 (en) 2021-08-11 2024-09-24 Vieworks Co., Ltd. Image acquisition device and method for adjusting focus position thereof

Also Published As

Publication number Publication date
CN108139650A (zh) 2018-06-08
CA3000053A1 (en) 2017-03-30
US10634894B2 (en) 2020-04-28
JP2018534610A (ja) 2018-11-22
AU2016326723A1 (en) 2018-04-12
CA3000053C (en) 2023-07-04
EP3353601A4 (en) 2019-10-02
AU2016326723B2 (en) 2021-11-11
US20200218053A1 (en) 2020-07-09
US11422350B2 (en) 2022-08-23
WO2017053891A1 (en) 2017-03-30
JP6865740B2 (ja) 2021-04-28
EP3353601A1 (en) 2018-08-01
BR112018005822A2 (pt) 2018-10-09
CN108139650B (zh) 2020-10-30
US20180275388A1 (en) 2018-09-27

Similar Documents

Publication Publication Date Title
US11422350B2 (en) Real-time focusing in line scan imaging
US11243387B2 (en) Real-time focusing in line scan imaging
JP5989109B2 (ja) 蛍光顕微鏡システムの標準化
US9235041B2 (en) System and method for single optical axis multi-detector microscope slide scanner
US8731260B2 (en) Data management in a linear-array-based microscope slide scanner
JP2017194700A5 (ko)
JP2017194699A5 (ko)
US11454781B2 (en) Real-time autofocus focusing algorithm
JP5129166B2 (ja) 単一光軸マルチ検出器スライドガラススキャンシステム及び方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal