KR20220115866A - Image non-uniformity mitigation systems and methods - Google Patents

Image non-uniformity mitigation systems and methods Download PDF

Info

Publication number
KR20220115866A
KR20220115866A KR1020220009261A KR20220009261A KR20220115866A KR 20220115866 A KR20220115866 A KR 20220115866A KR 1020220009261 A KR1020220009261 A KR 1020220009261A KR 20220009261 A KR20220009261 A KR 20220009261A KR 20220115866 A KR20220115866 A KR 20220115866A
Authority
KR
South Korea
Prior art keywords
image
sffc
map
cropped
scaling
Prior art date
Application number
KR1020220009261A
Other languages
Korean (ko)
Other versions
KR102661043B1 (en
Inventor
스테파니 린
딜런 엠. 로드리게즈
조세프 코스트르제바
Original Assignee
플리어 커머셜 시스템즈, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 플리어 커머셜 시스템즈, 인코포레이티드 filed Critical 플리어 커머셜 시스템즈, 인코포레이티드
Publication of KR20220115866A publication Critical patent/KR20220115866A/en
Application granted granted Critical
Publication of KR102661043B1 publication Critical patent/KR102661043B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Abstract

Provided is a technology for facilitating the mitigation of image non-uniformity for an imaging system and method. As one embodiment of the present invention, the method includes cutting the inside of the image based on defects in the image for obtaining a cropped image. The method further includes cutting a supplemental flat field correction (SFFC) map based on the detects in the image for obtaining a cropped SFFC map. The method includes determining a scaling value of a scaling section at least based on a cost function. The method further includes scaling the SFFC map based on the scaling value for obtaining a scaled SFFC map. In addition, related apparatuses and systems are provided.

Description

이미지 불균일 완화 시스템 및 방법{IMAGE NON-UNIFORMITY MITIGATION SYSTEMS AND METHODS}IMAGE NON-UNIFORMITY MITIGATION SYSTEMS AND METHODS

하나 이상의 실시형태는 일반적으로 이미징에 관한 것이고, 보다 구체적으로는 예를 들어 이미지 불균일 완화 시스템 및 방법에 관한 것이다.One or more embodiments relate generally to imaging, and more particularly to, for example, image non-uniformity mitigation systems and methods.

이미징 시스템은 검출기들의 어레이를 포함할 수 있으며, 각 검출기는 2차원 이미지의 일부를 생성하는 픽셀로서 기능을 한다. 가시광 이미지 검출기, 적외선 이미지 검출기, 또는 이미지를 캡처하기 위한 이미지 검출기 어레이에 제공될 수 있는 다른 유형의 이미지 검출기와 같은 다양한 이미지 검출기가 있다. 일 예로서, 원하는 파장에서 전자기(EM: electromagnetic) 방사선을 검출하기 위해 복수의 센서가 이미지 검출기 어레이에 제공될 수 있다. 적외선 이미징과 같은 일부 경우들에서, 검출기에 의해 캡처된 이미지 데이터의 판독은 판독집적회로(ROIC: readout integrated circuit )에 의해 시간-다중화 방식으로 수행될 수 있다. 판독되는 이미지 데이터는 예를 들어 처리, 저장, 및/또는 디스플레이 등을 위해 다른 회로에 전달될 수 있다. 일부 경우에서는, 검출기 어레이와 ROIC의 조합을 FPA(초점 평면 어레이: focal plane array)라고 할 수 있다. FPA 및 이미지 처리를 위한 프로세스 기술의 발전으로 인해 이미징 시스템은 역량이 향상되고 더욱 정교해졌다.The imaging system may include an array of detectors, each detector functioning as a pixel generating a portion of a two-dimensional image. There are various image detectors, such as visible light image detectors, infrared image detectors, or other types of image detectors that may be provided in an image detector array for capturing images. As an example, a plurality of sensors may be provided in the image detector array to detect electromagnetic (EM) radiation at a desired wavelength. In some cases, such as infrared imaging, reading of image data captured by a detector may be performed in a time-multiplexed manner by a readout integrated circuit (ROIC). The read image data may be passed to other circuitry for processing, storage, and/or display, for example. In some cases, the combination of a detector array and an ROIC may be referred to as a focal plane array (FPA). Advances in FPA and process technology for image processing have made imaging systems more capable and more sophisticated.

본 개시내용은 불균일 완화 시스템 및 방법을 제공하는 것이다.SUMMARY The present disclosure provides a non-uniformity mitigation system and method.

하나 이상의 실시형태에서, 방법은 크롭 이미지(cropped image)를 얻기 위해 이미지 내의 결함에 기초하여 이미지를 잘라내는(cropping) 단계를 포함한다. 이 방법은 잘라낸 보충적 플랫 필드 보정(SFFC: Supplemental Flat Field Correction) 맵을 얻기 위해 이미지 내의 결함에 기초하여 SFFC 맵을 잘라내는 단계를 더 포함한다. 이 방법은 적어도 비용 함수에 기초하여 스케일링 항(scaling term)의 스케일링 값을 결정하는 단계를 더 포함한다. 상기 방법은 스케일링된 SFFC 맵을 얻기 위해 상기 스케일링 값에 기초하여 상기 SFFC 맵을 스케일링하는 단계를 더 포함한다.In one or more embodiments, a method includes cropping an image based on defects in the image to obtain a cropped image. The method further includes cropping the SFFC map based on the defects in the image to obtain a cropped Supplemental Flat Field Correction (SFFC) map. The method further includes determining a scaling value of a scaling term based at least on the cost function. The method further includes scaling the SFFC map based on the scaling value to obtain a scaled SFFC map.

하나 이상의 실시형태에서, 시스템은 SFFC 맵을 저장하도록 구성된 메모리를 포함한다. 이 시스템은 크롭 이미지를 얻기 위해 이미지 내의 결함에 기초하여 이미지를 잘라내고 또한 크롭 SFFC 맵을 얻기 위해 이미지 내의 결함에 기초하여 SFFC 맵을 잘라내도록 구성된 처리 회로를 더 포함한다. 이 처리 회로는 적어도 비용 함수에 기초하여 스케일링 항의 스케일링 값을 결정하도록 추가로 구성된다. 상기 처리 회로는 스케일링된 SFFC 맵을 얻기 위해 상기 스케일링 값에 기초하여 SFFC 맵을 스케일링하도록 추가로 구성된다.In one or more embodiments, a system includes a memory configured to store an SFFC map. The system further includes processing circuitry configured to crop the image based on the defects in the image to obtain a cropped image and also crop the SFFC map based on the defects in the image to obtain a cropped SFFC map. The processing circuitry is further configured to determine a scaling value of the scaling term based at least on the cost function. The processing circuitry is further configured to scale the SFFC map based on the scaling value to obtain a scaled SFFC map.

본 개시내용의 범위는 참조에 의해 이 섹션에 통합되는 청구범위에 의해 정의된다. 하나 이상의 실시형태에 대한 다음의 상세한 설명을 고려함으로써, 본 개시내용의 실시형태들에 대한 더 완전한 이해는 물론 추가적인 이점들의 실현이 당해 기술분야의 통상의 기술자에게 제공될 것이다. 간략하게 먼저 설명될 첨부된 도면들을 참조할 것이다. The scope of the present disclosure is defined by the claims, which are incorporated in this section by reference. A more complete understanding of the embodiments of the present disclosure as well as the realization of additional advantages will be provided to those skilled in the art upon consideration of the following detailed description of one or more embodiments. Reference will be made to the accompanying drawings, which will be briefly described first.

도 1은 본 개시내용의 하나 이상의 실시형태에 따른 예시적인 이미징 시스템의 블록도를 도시한다.
도 2는 본 개시내용의 하나 이상의 실시형태에 따른 예시적인 이미지 센서 어셈블리의 블록도를 예시한다.
도 3은 본 개시내용의 하나 이상의 실시형태에 따른 예시적인 이미지 센서 어셈블리를 도시한다.
도 4 및 5는 본 개시내용의 하나 이상의 실시형태에 따른 이미지 불균일 완화를 용이하게 하기 위한 예시적인 시스템을 도시한다.
도 6은 본 개시내용의 하나 이상의 실시형태에 따라 비용 함수를 최소화하기 위해 스칼라 값(scalar value)을 반복적으로 조정하기 위한 예시적인 시스템을 도시한다.
도 7은 본 개시내용의 하나 이상의 실시형태에 따른 이미지 불균일 완화를 용이하게 하기 위한 예시적인 프로세스의 흐름도를 도시한다.
도 8a는 결함이 있는 이미지를 도시한다.
도 8b는 본 개시내용의 하나 이상의 실시형태에 따라 도 8a의 이미지에 대해 불균일 완화를 수행하여 얻은 이미지를 도시한다.
본 개시내용의 실시형태 및 이들의 이점은 다음의 상세한 설명을 참조함으로써 가장 잘 이해된다. 다양한 구성요소의 크기 및 이 구성요소들 사이의 거리는 도면에서 축척으로 그려지지 않았음을 주목해야 한다. 도면들 중 하나 이상에서 도시된 유사한 요소를 식별하기 위해 유사한 참조 번호가 사용됨을 이해해야 한다.
1 depicts a block diagram of an exemplary imaging system in accordance with one or more embodiments of the present disclosure.
2 illustrates a block diagram of an example image sensor assembly in accordance with one or more embodiments of the present disclosure.
3 illustrates an example image sensor assembly in accordance with one or more embodiments of the present disclosure.
4 and 5 illustrate example systems for facilitating image non-uniformity mitigation in accordance with one or more embodiments of the present disclosure.
6 illustrates an example system for iteratively adjusting a scalar value to minimize a cost function in accordance with one or more embodiments of the present disclosure.
7 depicts a flow diagram of an example process for facilitating image non-uniformity mitigation in accordance with one or more embodiments of the present disclosure.
Fig. 8a shows a defective image.
8B depicts an image obtained by performing non-uniformity mitigation on the image of FIG. 8A in accordance with one or more embodiments of the present disclosure.
Embodiments of the present disclosure and their advantages are best understood by reference to the following detailed description. It should be noted that the sizes of the various components and the distances between these components are not drawn to scale in the drawings. It should be understood that like reference numbers are used to identify like elements shown in one or more of the drawings.

이하에서 설명하는 상세한 설명은 대상 기술의 다양한 구성을 설명하기 위한 것이며, 대상 기술이 실시될 수 있는 유일한 구성을 나타내는 것은 아니다. 첨부된 도면은 여기에 포함되며 상세한 설명의 일부를 구성한다. 상세한 설명은 해당 기술의 완전한 이해를 제공하기 위한 목적으로 특정 세부 사항을 포함한다. 그러나 대상 기술이 본 명세서에 기재된 특정 세부사항에 제한되지 않고 하나 이상의 실시형태를 사용하여 실시될 수 있음이 당해 기술분야의 통상의 기술자에게 명백하고 자명할 것이다. 하나 이상의 사례에서, 구조 및 구성요소는 대상 기술의 개념을 모호하게 하는 것을 피하기 위해 블록 다이어그램 형태로 표시된다. 본 개시내용의 하나 이상의 실시형태는 하나 이상의 도면에 의해 예시되고 및/또는 하나 이상의 도면과 관련하여 설명되며 청구범위에 기재되어 있다.The detailed description set forth below is for describing various configurations of the target technology, and does not represent the only configuration in which the target technology can be implemented. The accompanying drawings are incorporated herein and constitute a part of the detailed description. The detailed description includes specific details for the purpose of providing a thorough understanding of the subject technology. However, it will be apparent and apparent to one of ordinary skill in the art that the subject technology is not limited to the specific details set forth herein and that it may be practiced using one or more embodiments. In one or more instances, structures and components are shown in block diagram form in order to avoid obscuring the concepts of the subject technology. One or more embodiments of the present disclosure are illustrated by and/or described in connection with one or more drawings and are set forth in the claims.

이미지의 불균일 완화를 용이하게 하기 위해 다양한 기술이 제공된다. 일부 실시형태에서, 이미징 시스템은 검출기 어레이 및 판독 회로를 포함한다. 검출기 어레이는 검출기(예를 들어, 검출기 픽셀, 검출기 요소, 또는 단순히 픽셀로도 지칭됨)를 포함한다. 각각의 검출기 픽셀은 입사 EM 방사선(radiation)을 검출하고 장면의 검출된 EM 방사선을 나타내는 이미지 데이터(예를 들어, 적외선 이미지 데이터)를 생성한다. 일부 실시형태에서, 검출기 어레이는 적외선(예를 들어, 열적외선)을 검출하는데 사용된다. 적외선 이미지(예: 열적외선 이미지)의 픽셀에 대해 픽셀의 각 출력 값은 온도, 디지털 숫자 값(count value), 전체 온도 범위의 백분율, 또는 일반적으로 온도에 매핑될 수 있는 임의의 값으로서 표현/제공되고 및/또는 이에 대응할 수 있다. 예를 들어, 픽셀에 의해 출력되는 13,000의 디지털 숫자 값은 160℃의 온도를 나타낼 수 있다.Various techniques are provided to facilitate image non-uniformity mitigation. In some embodiments, the imaging system includes a detector array and a readout circuit. A detector array includes detectors (eg, also referred to as detector pixels, detector elements, or simply pixels). Each detector pixel detects incident EM radiation and generates image data (eg, infrared image data) representative of the detected EM radiation of the scene. In some embodiments, the detector array is used to detect infrared (eg, thermal infrared). For a pixel in an infrared image (e.g. a thermal infrared image), each output value of the pixel is expressed as a temperature, a digital count value, a percentage of the total temperature range, or in general any value that can be mapped to a temperature. provided and/or corresponding thereto. For example, a digital numeric value of 13,000 output by a pixel may represent a temperature of 160°C.

일부 실시형태에서, 검출기 어레이까지 광학 경로에서의 결함과 관련된 것들과 같은 이미지 내의 장면 불균일은 해당 이미지에 스케일링된 SFFC 맵(예를 들어, SFFC 이미지라고도 함)을 적용함으로써 완화(예: 감소 또는 제거)된다. SFFC 맵은 SFFC 값을 포함한다. 일부 경우에는, 상기 결함은 웨이퍼-레벨 패키지징된 센서와 같은 이미징 시스템의 결함 또는 잔해를 포함할 수 있다. 이러한 결함은 덮개, 창 또는 FPA의 시야 내 이미징 시스템의 기타 구성요소에 있을 수 있다. 일 예로서, 일부 경우에는, 덮개가 FPA에 가까울 수 있으며, 이러한 근접으로 인해 덮개의 임의의 결함이 양호한 초점을 갖게 된다. 다른 예로서, 창의 내부 표면 위의 결함은 FPA에 더 가깝고 더 잘 초점이 맞춰지는 경향이 있어, 일반적으로 더 작지만 강하게 나타나는 반면, 창의 외부 표면 위의 결함은 일반적으로 더 크지만 더 확산된다. 이러한 결함은 일반적으로 직경이 FPA의 여러 픽셀에 걸쳐 있고 SFFC 맵에서 감지될 수 있는 불균일이다. FPA와 관련된 이러한 결함은 일반적으로 위치가 일정하게 유지되므로 FPA에 의해 캡처된 이미지에 일관되게 존재한다. 일부 경우에는, SFFC 맵이 평탄화될 수 있다. 일부 이미지 및/또는 이미징 시스템의 경우, SFFC 맵을 평탄화하면 결함을 격리하는 데 도움이 될 수 있다. 평탄화(flattened) SFFC 맵은 SFFC 맵을 다운샘플링/업샘플링하고 SFFC 맵을 감산하여 평탄화 SFFC 맵을 제공함으로써 SFFC 맵으로부터 얻어질 수 있다. 다른 경우에는 SFFC 맵이 평탄화되지 않는다(예를 들면, 평탄화가 결함을 격리하는 데 도움이 되지 않음).In some embodiments, scene non-uniformities within an image, such as those associated with defects in the optical path to the detector array, are mitigated (eg, reduced or eliminated) by applying a scaled SFFC map (eg, also referred to as an SFFC image) to that image. )do. The SFFC map contains SFFC values. In some cases, the defect may include a defect or debris of an imaging system, such as a wafer-level packaged sensor. Such defects may be in the cover, window, or other component of the imaging system within the field of view of the FPA. As an example, in some cases, the lid may be close to the FPA, such proximity that any defect in the lid will have a good focus. As another example, defects on the inner surface of a window tend to be closer to the FPA and better focused, and are generally smaller but more intense, whereas defects on the outer surface of the window are generally larger but more diffuse. These defects are typically non-uniformities whose diameter spans several pixels of the FPA and can be detected in the SFFC map. These defects associated with FPA are typically present consistently in images captured by FPA as their position remains constant. In some cases, the SFFC map may be flattened. For some imaging and/or imaging systems, flattening the SFFC map can help isolate defects. A flattened SFFC map may be obtained from the SFFC map by downsampling/upsampling the SFFC map and subtracting the SFFC map to provide a flattened SFFC map. In other cases, the SFFC map is not planarized (eg, planarization does not help isolate defects).

스케일링된(scaled) SFFC 맵은 SFFC 맵에 스케일링 항(P)을 적용하여 얻을 수 있다. 일부 실시형태에서, 스케일링 항(P)의 값을 결정하는 것은 비용 함수를 활용한다. 이때, 비용함수는 P의 함수이고 FVAL(P)로 나타낼 수 있다. 상기 값은 스칼라 값일 수 있다(예를 들어, 스케일링 값 또는 스케일링 팩터(scaling factor)로도 지칭됨). 상기 비용 함수는 이미지와 연관된 품질의 표현(예를 들어, 수학적 표현)을 제공할 수 있다. 일 양태에서, SFFC 맵에 적용할 스케일링 항(P)의 값의 수렴을 허용하기 위해 비용 함수를 최소화하도록(예를 들어, 더 높은 품질의 이미지에 접근하도록) 최소화 프로세스(예를 들어, 반복적 최소화 프로세스)가 수행될 수 있다. 일 양태에서, P는 스케일링 항(P) 또는 스케일링 항(P)의 값을 지칭할 수 있다. 스케일링된 SFFC 맵은 그 다음 보정된 이미지(예를 들어, 불균일 보정된 이미지)를 얻기 위해 이미지에 적용될 수 있다.A scaled SFFC map can be obtained by applying a scaling term (P) to the SFFC map. In some embodiments, determining the value of the scaling term P utilizes a cost function. In this case, the cost function is a function of P and can be expressed as FVAL(P) . The value may be a scalar value (eg, also referred to as a scaling value or a scaling factor). The cost function may provide a representation (eg, a mathematical representation) of a quality associated with the image. In one aspect, a minimization process (e.g., iterative minimization) to minimize the cost function (e.g., to access a higher quality image) to allow convergence of the values of the scaling term (P) to apply to the SFFC map. process) can be performed. In an aspect, P may refer to a scaling term (P) or a value of a scaling term (P). The scaled SFFC map may then be applied to the image to obtain a corrected image (eg, non-uniformity corrected image).

일부 양태에서, 스케일링 항(P)은 이미지의 일부에 기초하여 결정될 수 있다. 일부 양태에서, 이미지의 일부에 기초하여 결정되지만, 스케일링 항(P)은 전체 이미지의 불균일을 보정하기 위해 전체 이미지에 적용될 수도 있다. 국부적으로 결정된 스케일링 항의 전체 이미지에의 이러한 적용은 계산 복잡성 및/또는 계산 시간을 감소시킬 수 있다. 일 양태에서, 이미지의 상기 일부는 이미지에서 캡처된 결함을 포함할 수 있다. 일부 경우에는, 이 결함은 상기 이미지에 표현된 최악의 결함으로 간주되는 결함일 수 있다. 스케일링 항(P)의 이 값은 이미지의 다른 결함뿐만 아니라 최악의 결함을 완화하는 데 적용할 수 있다. 이미지 내의 결함(예: 최악의 결함을 포함하는)은 이미징 시스템의 사용자에 의해(예를 들어, 인간의 눈에 의한 상기 이미지의 시각적 검사를 통해) 및/또는 기계에 의해 결정/식별될 수 있다. 일부 경우에는, 사용자 및/또는 기계는 결함의 크기 및/또는 상기 이미지 내의 결함의 강도를 기초로 최악의 결함을 결정할 수 있다.In some aspects, the scaling term (P) may be determined based on a portion of the image. Although determined based on a portion of the image in some aspects, the scaling term (P) may be applied to the entire image to correct for non-uniformity of the overall image. Such application of the locally determined scaling term to the entire image may reduce computational complexity and/or computational time. In an aspect, said portion of an image may include a defect captured in the image. In some cases, this defect may be considered the worst defect represented in the image. This value of the scaling term (P) is applicable to mitigate the worst defects as well as other defects in the image. Defects in an image (eg, including worst-case defects) may be determined/identified by a user of the imaging system (eg, via visual inspection of said image by the human eye) and/or by a machine. . In some cases, the user and/or machine may determine the worst defect based on the size of the defect and/or the intensity of the defect in the image.

일부 실시형태에서, 이미지 처리 파이프라인은 주요 처리 경로와 백그라운드 처리 경로로 구분될 수 있다. 주요 처리 파이프라인의 동작들은 이미지 또는 비디오가 데이터 저장소에 기록되고 저장될 때 그들에 대해 수행되는 처리를 포함할 수 있다. 상기 주요 처리 경로는 이미지를 캡처하고, 스케일링 항(P)을 SFFC 맵에 적용하여 스케일링된 SFFC 맵을 얻고, 스케일링된 SFFC 맵을 상기 이미지에 적용하는 것을 포함할 수 있다. 일부 경우에는, 스케일링 항(P)은 상기 주요 처리 경로에서 감쇠될 수 있다. 일부 경우에는, 입력 이미지를 캡처할 때, 해당 시점에 SFFC를 적용하는 데 사용된 이득이 캡처될 수 있다. 상기 주요 처리 경로에는 자동 이득 제어, 기타 유형의 잡음 억제, 이득 및 오프셋 조정, 공간적 필터링, 시간적 필터링, 방사측정 변환(radiometry conversions)(예: 적외선 이미지를 위해), 및/또는 디스플레이, 저장 및/또는 추가 처리를 위한 적절한 이미지 데이터를 생성하기 위한 기타 동작들과 같은 동작들이 포함될 수도 있다. 상기 백그라운드 처리 경로는 상기 이미지에 대한 스케일링 항(P)의 값을 찾기 위한 최소화 탐색 및 관련 동작들(예를 들어, 비용 함수 계산에서 사용하기 위한 이미지 및 SFFC 맵 자르기와 구배(gradient) 계산)을 수행할 수 있다. 상기 백그라운드 처리 경로의 동작은 이미지 또는 비디오 기록의 중단이나 지연을 방지하기 위해 상기 주요 처리 경로 외부에서 수행될 수 있다. 일부 실시형태에서, 상기 스케일링 항은 백그라운드 프로세스로서가 아니라 프레임마다(예를 들어, 실시간으로) 결정될 수 있다. In some embodiments, the image processing pipeline may be divided into a main processing path and a background processing path. Operations in the main processing pipeline may include processing performed on images or videos as they are recorded and stored in the data store. The main processing path may include capturing an image, applying a scaling term (P) to the SFFC map to obtain a scaled SFFC map, and applying the scaled SFFC map to the image. In some cases, the scaling term (P) may be attenuated in the main processing path. In some cases, when capturing the input image, the gain used to apply the SFFC at that point in time may be captured. The main processing paths include automatic gain control, other types of noise suppression, gain and offset adjustment, spatial filtering, temporal filtering, radiometry conversions (eg, for infrared images), and/or display, storage and/or display, storage and/or or other operations to generate appropriate image data for further processing. The background processing path performs a minimization search and related operations to find the value of the scaling term (P) for the image (e.g. cropping an image and SFFC map for use in cost function calculation and calculating a gradient). can be done The operation of the background processing path may be performed outside the main processing path to avoid interruption or delay of image or video recording. In some embodiments, the scaling term may be determined per frame (eg, in real time) rather than as a background process.

불균일 완화를 위한 다양한 실시형태가 적외선 이미징(예를 들어, 열적외선 이미징)과 관련하여 설명되지만, 불균일 완화는 다른 파장 대역의 이미지 데이터에도 적용될 수 있다. 여기에 개시된 방법 및 시스템의 다양한 실시형태는 가시광 이미징 시스템, 적외선 이미징 시스템, 가시광 및 적외선 이미징 기능을 갖는 이미징 시스템, 단파 적외선(SWIR: short-wave infrared) 이미징 시스템, LIDAR(Light Detection and Ranging) 이미징 시스템, RADAR(radar detection and ranging) 이미징 시스템, 중파(MMW: millimeter wavelength) 이미징 시스템, 초음파 이미징 시스템, X선 이미징 시스템, 모바일 디지털 카메라, 비디오 감시 시스템, 비디오 처리 시스템, 또는 EM 스펙트럼의 하나 또는 여러 부분에서 이미지 데이터를 얻기 위해 필요할 수 있는 기타 시스템 또는 장치와 같은 다양한 장치 및 시스템에 포함되거나 이들로서 구현될 수 있다. Although various embodiments for non-uniformity mitigation are described in the context of infrared imaging (eg, thermal infrared imaging), non-uniformity mitigation may also be applied to image data of other wavelength bands. Various embodiments of the methods and systems disclosed herein include a visible light imaging system, an infrared imaging system, an imaging system with visible and infrared imaging capabilities, a short-wave infrared (SWIR) imaging system, and a Light Detection and Ranging (LIDAR) imaging. system, a radar detection and ranging (RADAR) imaging system, a millimeter wavelength (MMW) imaging system, an ultrasound imaging system, an X-ray imaging system, a mobile digital camera, a video surveillance system, a video processing system, or one or more of the EM spectrum. It may be included in or implemented as a variety of devices and systems, such as other systems or devices that may be required to obtain image data from a portion.

이제 도면을 참조하면, 도 1은 본 개시의 하나 이상의 실시형태에 따른 예시적인 이미징 시스템(100)(예를 들어, 적외선 카메라, 태블릿 컴퓨터, 랩탑, 개인 휴대 정보 단말기(PDA), 모바일 장치, 데스크톱 컴퓨터, 또는 다른 전자 장치)의 블록도를 도시한다. 그러나 도시된 구성요소들 모두가 요구되는 것은 아니며, 하나 이상의 실시형태는 도면에 도시되지 않은 추가 구성요소를 포함할 수도 있다. 구성요소들의 배열 및 유형의 변경이 여기에 설명된 청구범위의 사상 또는 범위를 벗어나지 않고 이루어질 수 있다. 추가 구성요소, 상이한 구성요소들 및/또는 더 적은 수의 구성요소가 제공될 수도 있다.Referring now to the drawings, FIG. 1 illustrates an exemplary imaging system 100 (eg, infrared camera, tablet computer, laptop, personal digital assistant (PDA), mobile device, desktop) in accordance with one or more embodiments of the present disclosure. a block diagram of a computer, or other electronic device). However, not all illustrated components are required, and one or more embodiments may include additional components not shown in the drawings. Changes in the arrangement and type of elements may be made without departing from the spirit or scope of the claims set forth herein. Additional components, different components and/or fewer components may be provided.

이미징 시스템(100)은 본 개시내용의 일 실시형태에 따라 이미지를 캡처하고 처리하기 위해 이용될 수 있다. 이미징 시스템(100)은 EM 방사선의 하나 이상의 범위(예를 들어, 파장대역)를 검출하고 대표적인 데이터(예를 들어, 하나 이상의 정지 이미지 프레임 또는 비디오 이미지 프레임)를 제공하는 임의의 유형의 이미징 시스템을 나타낼 수 있다. 이미징 시스템(100)은, 예를 들어 이미징 시스템(100)의 소형화 및 보호를 용이하게 하기 위해, 이미징 시스템(100)의 구성요소를 적어도 부분적으로 둘러싸는 하우징을 포함할 수 있다. 예를 들어, 도 1에서 '175'로 지시된 실선 상자는 이미징 시스템(100)의 하우징을 나타낼 수 있다. 상기 하우징은 도 1의 실선 상자 내에 도시된 것보다 더 많은, 더 적은, 및/또는 상이한 이미징 시스템(100)의 구성요소를 포함할 수 있다. 일 실시형태에서, 이미징 시스템(100)은 휴대용 장치를 포함할 수 있고, 예를 들어 이미지의 저장 및/또는 디스플레이가 필요한 차량 또는 비 이동식 설비에 통합될 수도 있다. 상기 차량은 육상기반 차량(예: 자동차, 트럭), 해상기반 차량, 항공 차량(예: 무인 항공기(UAV: unmanned aerial vehicle)), 우주 차량, 또는 일반적으로 이미징 시스템(100)을 통합(예를 들어, 내부에 설치, 장착 등)할 수 있는 모든 유형의 차량일 수 있다. 다른 예로서, 이미징 시스템(100)은 하나 이상 유형의 마운트(mount)를 통해 다양한 형태의 고정된 장소(예를 들면, 가정용 보안 마운트, 캠프장 마운트 또는 실외 마운트, 또는 기타 장소)에 결합될 수도 있다. Imaging system 100 may be used to capture and process images in accordance with an embodiment of the present disclosure. Imaging system 100 may be any type of imaging system that detects one or more ranges (eg, wavelength bands) of EM radiation and provides representative data (eg, one or more still image frames or video image frames). can indicate Imaging system 100 may include a housing that at least partially encloses components of imaging system 100 , for example, to facilitate miniaturization and protection of imaging system 100 . For example, the solid box labeled '175' in FIG. 1 may represent the housing of the imaging system 100 . The housing may include more, fewer, and/or different components of the imaging system 100 than those shown in the solid box of FIG. 1 . In one embodiment, imaging system 100 may include a portable device and may be integrated, for example, in a vehicle or non-mobile facility where storage and/or display of images is required. The vehicle may be a land-based vehicle (eg, a car, a truck), a sea-based vehicle, an air vehicle (eg, an unmanned aerial vehicle (UAV)), a space vehicle, or in general an integrated imaging system 100 (eg, For example, it can be any type of vehicle that can be installed inside, mounted, etc.). As another example, imaging system 100 may be coupled to various types of fixed locations (eg, home security mounts, campsite mounts or outdoor mounts, or other locations) via one or more types of mounts. .

일 구현에 따르면, 이미징 시스템(100)은 처리 구성요소(105), 메모리 구성요소(110), 이미지 캡처 구성요소(115), 이미지 인터페이스(120), 제어 구성요소(125), 디스플레이 구성요소(130), 감지 구성요소(135), 및/또는 네트워크 인터페이스(140) 를 포함한다. 다양한 실시형태에 따르면, 처리 구성요소(105)는 프로세서, 마이크로프로세서, 중앙처리장치(CPU), 그래픽 처리 유닛(GPU), 싱글-코어 프로세서, 멀티-코어 프로세서, 마이크로컨트롤러, 프로그래머블 논리장치(PLD)(예: 필드 프로그래머블 게이트 어레이(FPGA)), 주문형 집적회로(ASIC), 디지털신호처리(DSP) 장치, 또는 하드웨어 배선, 소프트웨어 명령 실행, 또는 이 둘의 조합에 의해, 본 개시내용의 실시형태들을 위해 본 명세서에서 논의된 다양한 동작을 수행하도록 구성될 수 있는 기타 논리장치 중 하나 이상을 포함한다. 처리 구성요소(105)는 이러한 동작들을 수행하기 위해 이미징 시스템(100)의 다양한 기타 구성요소들(예를 들어, 110, 115, 120, 125, 130, 135, 140 등)과 인터페이스하고 통신하도록 구성될 수 있다. 예를 들어, 처리 구성요소(105)는 이미징 캡처 구성요소(115)로부터 수신된 캡처된 이미지 데이터를 처리하고, 이 이미지 데이터를 메모리 구성요소(110)에 저장하고, 및/또는 메모리 구성요소(110)로부터 저장된 이미지 데이터를 검색하도록 구성될 수 있다. 일 양태에서, 처리 구성요소(105)는 다양한 시스템 제어 동작(예를 들어, 이미징 시스템(100)의 다양한 구성요소들의 통신 및 동작을 제어하기 위해) 및 기타 이미지 처리 동작(예를 들어, 데이터 변환, 비디오 분석 등)을 수행하도록 구성될 수 있다. According to one implementation, imaging system 100 includes a processing component 105 , a memory component 110 , an image capture component 115 , an image interface 120 , a control component 125 , a display component ( 130 ), a sensing component 135 , and/or a network interface 140 . According to various embodiments, processing component 105 is a processor, microprocessor, central processing unit (CPU), graphics processing unit (GPU), single-core processor, multi-core processor, microcontroller, programmable logic unit (PLD). ) (e.g., field programmable gate arrays (FPGAs)), application specific integrated circuits (ASICs), digital signal processing (DSP) devices, or by hardware wiring, software instruction execution, or a combination of both, in an embodiment of the present disclosure. and one or more of other logic devices that may be configured to perform the various operations discussed herein. The processing component 105 is configured to interface and communicate with various other components of the imaging system 100 (eg, 110, 115, 120, 125, 130, 135, 140, etc.) to perform these operations. can be For example, processing component 105 may process captured image data received from imaging capture component 115 , store the image data in memory component 110 , and/or memory component ( 110) may be configured to retrieve stored image data. In one aspect, the processing component 105 is configured to perform various system control operations (eg, to control communication and operation of various components of the imaging system 100 ) and other image processing operations (eg, data conversion). , video analysis, etc.).

일부 경우들에서, 처리 구성요소(105)는 픽셀 값들에 대해 불균일 보정(NUC: nonuniformity correction)(예를 들어, 플랫 필드 보정(FFC: flat field correction) 또는 기타 교정 기술), 공간적 및/또는 시간적 필터링, 및/또는 방사측정 변환과 같은 동작을 수행할 수 있다. 예를 들어, FFC 보정 프로세스(예를 들면, FFC 이벤트라고도 함)는 일반적으로, 검출기 회로(165)의 이미지의 픽셀 간 출력의 변동(예를 들어, 이미지 검출기 회로(165)의 개별 마이크로볼로미터들 간의 변동)에 의해 및/또는 광학 경로의 왜곡에 의해 발생하는 아티팩트(artifacts)를 프레임에서 제거하기 위해 디지털 이미징에서 수행되는 교정 기술을 지칭할 수 있다. 하나의 경우에, 이미징 시스템(100)은 이미지 검출기 회로(165)를 선택적으로 차단하기 위한 내부 구조물(예를 들어, 셔터, 덮개, 커버, 패들)을 포함할 수 있다. 상기 구조물은 이미지 검출기 회로(165)의 검출기들에 균일한 장면을 제공/제시하기 위해 사용될 수도 있다. 상기 검출기들은 장면으로부터 효과적으로 차단된다. 일 양태에서, FFC 이벤트는 이미징 시스템(100)의 셔터가 이미지 검출기 회로(165)를 덮도록 폐쇄 위치에 있는 동안 다수의 프레임을 캡처하고 평균화하는 것을 포함할 수 있으며, 그리하여 이미지 검출기 회로(165)가 상기 구조물의 이미지 데이터를 캡처하고 상기 장면에 대해 차단된다. 다른 경우에서, FFC 이벤트는 외부 FFC 소스의 사용을 포함할 수 있으며, 여기서 외부 FFC 소스를 볼 때 이미지들의 방사측정 데이터가 정확하도록 보정이 캡처된 이미지 데이터에 적용된다. 일반적으로, 내부 FFC 소스 및/또는 외부 FFC 소스는 정확히 알려진 온도에 있다. 내부 소스(예를 들어, 내부 구조물) 및/또는 외부 소스의 캡처된 프레임은 판독회로(170)에 의해(예를 들어, 판독회로(170)에 의해 출력된 프레임을 수신하는 처리 회로에 의해) 출력된 프레임들에 적용될 FFC 보정 항을 갱신하기 위해 누적 및 이용되고 일반적으로 이미징 시스템(100)의 출력으로서는 제공되지 않는다. 일부 경우들에서, 교정 이벤트는 주기적으로 및/또는 사용자 명령에 따라 수행될 수 있다.In some cases, processing component 105 may perform nonuniformity correction (NUC) (eg, flat field correction (FFC) or other correction technique), spatial and/or temporal, for pixel values. It may perform operations such as filtering, and/or radiometric transformation. For example, an FFC calibration process (eg, also referred to as an FFC event) typically involves variations in the pixel-to-pixel output of the image of the detector circuit 165 (eg, individual microbolometers of the image detector circuit 165 ). It may refer to a correction technique performed in digital imaging to remove artifacts from the frame caused by distortion of the optical path) and/or by distortion of the optical path. In one case, imaging system 100 may include internal structures (eg, shutters, lids, covers, paddles) for selectively blocking image detector circuitry 165 . The structure may be used to provide/present a uniform scene to the detectors of the image detector circuit 165 . The detectors are effectively isolated from the scene. In an aspect, the FFC event may include capturing and averaging a number of frames while the shutter of the imaging system 100 is in a closed position to cover the image detector circuitry 165 , and thus the image detector circuitry 165 . captures image data of the structure and is blocked for the scene. In other cases, the FFC event may include the use of an external FFC source, where corrections are applied to the captured image data so that the radiometric data of the images is accurate when viewing the external FFC source. In general, the internal FFC source and/or the external FFC source are at a precisely known temperature. The captured frames of the internal source (eg, internal structures) and/or external sources are read by the read circuitry 170 (eg, by processing circuitry that receives the frames output by the read circuitry 170 ). It is accumulated and used to update the FFC correction term to be applied to the output frames and is generally not provided as an output of the imaging system 100 . In some cases, a calibration event may be performed periodically and/or according to a user command.

일부 양태에서, 상기 FFC 값들은 이미징 시스템(100)의 다양한 광학 경로와 연관된 불균일에 대해 보정하는 데 사용될 수 있다. SFFC 값은 또한 이러한 불균일을 추가로 보정하기 위해 결정되고 이미지 데이터에 적용될 수 있다. FFC 값 및/또는 SFFC 값 및 관련 동작들을 결정하기 위한 시스템 및 방법의 예는 미국 특허출원공개번호 2020/0005440 및 2020/0154063에 제공되어 있으며, 이것들은 그 전체가 참조로 여기에 포함된다.In some aspects, the FFC values may be used to correct for non-uniformities associated with various optical paths of imaging system 100 . An SFFC value can also be determined and applied to the image data to further correct for this non-uniformity. Examples of systems and methods for determining FFC values and/or SFFC values and related operations are provided in US Patent Application Publication Nos. 2020/0005440 and 2020/0154063, which are incorporated herein by reference in their entirety.

일 실시형태에서, 메모리 구성요소(110)는 적외선 이미지 데이터 및 정보를 포함하는 데이터 및 정보를 저장하도록 구성된 하나 이상의 메모리 장치를 포함한다. 메모리 구성요소(110)는, 랜덤 액세스 메모리(RAM), 동적 RAM(DRAM), 정적 RAM(SRAM), 비휘발성 랜덤 액세스 메모리(NVRAM), 읽기전용 메모리(ROM), 프로그래머블 읽기전용 메모리(PROM), 삭제 가능한 프로그래머블 읽기전용 메모리(EPROM), 전기적으로 삭제 가능한 프로그래머블 읽기전용 메모리(EEPROM), 플래시 메모리, 하드 디스크 드라이브, 및/또는 기타 유형의 메모리와 같은 휘발성 및 비휘발성 메모리 장치를 포함하는 하나 이상의 다양한 유형의 메모리 장치를 포함할 수 있다. 위에서 논의된 바와 같이, 처리 구성요소(105)는 방법 및 프로세스 단계 및/또는 동작을 수행하기 위해 메모리 구성요소(110)에 저장된 소프트웨어 명령을 실행하도록 구성될 수 있다. 하나 이상의 실시형태에서, 이러한 명령은, 처리 구성요소(105)에 의해 실행될 때, 이미징 시스템(100)이 스케일링 항을 생성하고 불균일을 완화하기 위한 동작을 수행하게 할 수 있다. 처리 구성요소(105) 및/또는 이미지 인터페이스(120)는 이미지 캡처 구성요소(115)에 의해 캡처된 이미지 또는 디지털 이미지 데이터를 메모리 구성요소(110)에 저장하도록 구성될 수 있다. 처리 구성요소(105)는 FFC 값, SFFC 값, 처리된(예를 들어, 불균일 보정된) 정지 및/또는 비디오 이미지, 및/또는 기타 데이터를 메모리 구성요소(110)에 저장하도록 구성될 수 있다.In one embodiment, memory component 110 includes one or more memory devices configured to store data and information, including infrared image data and information. Memory component 110 includes random access memory (RAM), dynamic RAM (DRAM), static RAM (SRAM), non-volatile random access memory (NVRAM), read-only memory (ROM), programmable read-only memory (PROM) , one or more volatile and non-volatile memory devices, such as erasable programmable read-only memory (EPROM), electrically erasable programmable read-only memory (EEPROM), flash memory, hard disk drives, and/or other types of memory. It may include various types of memory devices. As discussed above, processing component 105 may be configured to execute software instructions stored in memory component 110 to perform method and process steps and/or operations. In one or more embodiments, these instructions, when executed by the processing component 105 , may cause the imaging system 100 to perform operations to generate a scaling term and mitigate non-uniformities. Processing component 105 and/or image interface 120 may be configured to store images or digital image data captured by image capture component 115 in memory component 110 . Processing component 105 may be configured to store FFC values, SFFC values, processed (eg, non-uniformity corrected) still and/or video images, and/or other data to memory component 110 . .

일부 실시형태에서, 별도의 기계판독가능 매체(145)(예를 들어, 하드 드라이브, 콤팩트디스크, 디지털 비디오디스크 또는 플래시 메모리와 같은 메모리)가, 이미지 데이터 처리와 관련된 방법 및 동작과 같은 다양한 방법 및 동작을 수행하기 위해 컴퓨터(예: 논리 장치 또는 프로세서-기반 시스템)에 의해 실행되거나 액세스될 수 있는 소프트웨어 명령 및/또는 구성 데이터를 저장할 수 있다. 일 양태에서, 상기 기계판독가능 매체(145)는 휴대용일 수 있고 및/또는 이미징 시스템(100)과 별도로 위치할 수 있으며, 여기서 저장된 소프트웨어 명령 및/또는 데이터는 기계판독가능 매체(145)를 이미징 시스템에 연결함으로써 및/또는 이미징 시스템(100)이 기계판독 가능 매체(145)로부터 (예를 들어, 유선 링크 및/또는 무선 링크를 통해) 다운로드함으로써 이미징 시스템(100)에 제공된다. 다양한 모듈이 처리 구성요소(105)의 일부로서 소프트웨어 및/또는 하드웨어에 통합될 수 있으며, 여기서 상기 모듈들을 위한 코드(예를 들어, 소프트웨어 또는 구성 데이터)는 예를 들어 메모리 구성요소(110)에 저장된다.In some embodiments, a separate machine-readable medium 145 (eg, a memory such as a hard drive, compact disk, digital video disk, or flash memory) may be provided in a variety of ways, such as methods and operations related to image data processing, and It may store software instructions and/or configuration data that can be executed or accessed by a computer (eg, a logical device or processor-based system) to perform an operation. In an aspect, the machine-readable medium 145 may be portable and/or located separately from the imaging system 100 , where stored software instructions and/or data image the machine-readable medium 145 . The imaging system 100 is provided to the imaging system 100 by coupling to the system and/or by downloading the imaging system 100 from the machine-readable medium 145 (eg, via a wired link and/or a wireless link). Various modules may be incorporated into software and/or hardware as part of the processing component 105 , where code (eg, software or configuration data) for the modules may be, for example, in the memory component 110 . is saved

이미징 시스템(100)은 장면(160)의 이미지 및/또는 비디오를 캡처하고 처리하기 위한, 비디오 및/또는 스틸 카메라와 같은, 이미징 장치를 나타낼 수 있다. 이와 관련하여, 이미징 시스템(100)의 이미지 캡처 구성요소(115)는 특정 스펙트럼 또는 양식(modality)으로 장면(160)의 이미지(예를 들어, 정지 및/또는 비디오 이미지)를 캡처하도록 구성될 수 있다. 이미지 캡처 구성요소(115)는 이미지 검출기 회로(165)(예를 들어, 열적외선 검출기 회로) 및 판독 회로(170)(예를 들어, ROIC)를 포함한다. 예를 들어, 이미지 캡처 구성요소(115)는 장면(160)으로부터 근적외선, 중적외선 및/또는 원적외선 스펙트럼의 IR 방사선을 검출하고 상기 방사선을 나타내는 IR 이미지(예를 들어, IR 이미지 데이터 또는 신호)를 제공하도록 구성된 IR 이미징 센서(예를 들어, IR 이미징 센서 어레이)를 포함할 수 있다. 예를 들어, 이미지 검출기 회로(165)는 약 700nm 내지 약 2mm 또는 그 일부의 범위의 파장을 가진 IR 방사선을 캡처(예를 들어, 검출, 감지)할 수 있다. 예를 들어, 일부 양태들에서, 이미지 검출기 회로(165)는 단파 IR(SWIR) 방사선, 중파 IR(MWIR: mid-wave IR) 방사선(예를 들어, 2㎛ 내지 5㎛의 파장을 갖는 EM 방사선), 및/또는 장파 IR(LWIR) 방사선(예를 들어, 7㎛ 내지 14㎛의 파장을 갖는 EM 방사선), 또는 임의의 원하는 IR 파장(예를 들어, 일반적으로 0.7㎛ 내지 14㎛ 범위)에 민감(예를 들어, 더 잘 검출)할 수 있다. 다른 양태에서, 이미지 검출기 회로(165)는 가시광, 자외선 등과 같은 EM 스펙트럼의 하나 이상의 다른 파장대역으로부터 방사선을 캡처할 수도 있다.Imaging system 100 may represent an imaging device, such as a video and/or still camera, for capturing and processing images and/or video of scene 160 . In this regard, the image capture component 115 of the imaging system 100 may be configured to capture images (eg, still and/or video images) of the scene 160 with a particular spectrum or modality. have. Image capture component 115 includes image detector circuitry 165 (eg, thermal infrared detector circuit) and readout circuitry 170 (eg, ROIC). For example, image capture component 115 detects IR radiation in the near infrared, mid-infrared, and/or far-infrared spectrum from scene 160 and generates an IR image (eg, IR image data or signal) representative of the radiation. and an IR imaging sensor (eg, an IR imaging sensor array) configured to provide. For example, the image detector circuit 165 may capture (eg, detect, sense) IR radiation having a wavelength in the range of about 700 nm to about 2 mm or a portion thereof. For example, in some aspects, the image detector circuit 165 is configured with short wave IR (SWIR) radiation, mid-wave IR (MWIR) radiation (eg, EM radiation having a wavelength between 2 μm and 5 μm). ), and/or long wave IR (LWIR) radiation (eg, EM radiation having a wavelength between 7 μm and 14 μm), or at any desired IR wavelength (eg, generally in the range of 0.7 μm to 14 μm). may be sensitive (eg, better detectable). In another aspect, the image detector circuit 165 may capture radiation from one or more other wavelength bands of the EM spectrum, such as visible light, ultraviolet light, and the like.

이미지 검출기 회로(165)는 장면(160)과 연관된 이미지 데이터(예를 들어, 적외선 이미지 데이터)를 캡처할 수 있다. 이미지를 캡처하기 위해, 이미지 검출기 회로(165)는 장면(160)의 이미지 데이터(예를 들어, EM 방사선 형태의)를 검출하고 장면(160)에 기초하여 상기 이미지의 픽셀 값을 생성할 수 있다. 이미지는 프레임 또는 이미지 프레임으로 지칭될 수 있다. 일부 경우들에서, 이미지 검출기 회로(165)는 특정 파장대역의 방사선을 검출하고, 검출된 방사선을 전기 신호(예를 들어, 전압, 전류 등)로 변환하고, 상기 전기 신호를 기반으로 픽셀 값을 생성할 수 있는 검출기들의 어레이(예를 들어, 픽셀들의 어레이라고도 함)를 포함할 수 있다. 어레이 내의 각각의 검출기는 상기 이미지 데이터의 각각의 부분을 캡처하고 검출기에 의해 캡처된 각각의 부분에 기초하여 픽셀 값을 생성할 수 있다. 검출기에 의해 생성된 픽셀 값은 검출기의 출력으로 지칭될 수 있다. 비 제한적인 예로서, 각각의 검출기는 애벌랜치 광다이오드, 적외선 광검출기, 양자 우물(quantum well) 적외선 광검출기, 마이크로볼로미터, 또는 EM 방사선(예를 들어, 특정 파장의)을 픽셀 값으로 변환할 수 있는 기타 검출기와 같은 광검출기일 수 있다. 상기 검출기들의 어레이는 행과 열로 배열될 수 있다. 일 실시형태에서, 이미지 검출기 회로(165)는 장면(160)의 물체(들)로부터 에너지 플럭스(예를 들어, 열적외선 에너지 플럭스)를 수신하고 이 에너지 플럭스를 장면(160) 내의 물체(들)의 온도를 나타내는 데이터 값으로 변환할 수 있다. 이미징 시스템(100)은 이미지 검출기 회로(165)에 의해 수신된 에너지 양으로부터 이미지 검출기 회로(165)에 의해 생성되는 데이터 값으로의 정확한 변환을 보장하기 위해 방사측정으로 교정될 수 있다. 일부 경우들에서, 불확실성 인자는 플럭스-온도 변환과 관련된 파라미터들에 기초할 수 있다.Image detector circuitry 165 may capture image data (eg, infrared image data) associated with scene 160 . To capture an image, image detector circuitry 165 may detect image data (eg, in the form of EM radiation) of scene 160 and generate pixel values of the image based on scene 160 . . An image may be referred to as a frame or an image frame. In some cases, the image detector circuit 165 detects radiation of a specific wavelength band, converts the detected radiation into an electrical signal (eg, voltage, current, etc.), and calculates a pixel value based on the electrical signal. It may include an array of detectors capable of generating (eg, also referred to as an array of pixels). Each detector in the array may capture a respective portion of the image data and generate a pixel value based on each portion captured by the detector. The pixel values generated by the detector may be referred to as the output of the detector. As a non-limiting example, each detector can convert an avalanche photodiode, infrared photodetector, quantum well infrared photodetector, microbolometer, or EM radiation (e.g., of a specific wavelength) into pixel values. It may be a photodetector, such as other detectors with The array of detectors may be arranged in rows and columns. In one embodiment, the image detector circuit 165 receives an energy flux (eg, a thermal infrared energy flux) from the object(s) in the scene 160 and transmits the energy flux to the object(s) in the scene 160 . can be converted to a data value representing the temperature of Imaging system 100 may be radiometrically calibrated to ensure an accurate conversion from the amount of energy received by image detector circuitry 165 to data values generated by image detector circuitry 165 . In some cases, the uncertainty factor may be based on parameters related to the flux-temperature conversion.

상기 이미지는, 픽셀들을 포함하고 장면(160)과 관련된 이미지 데이터의 표현인 데이터 구조이거나 데이터 구조로서 고려될 수 있으며, 여기서 각 픽셀은 상기 장면의 일부에서 방출되거나 반사되고 상기 픽셀 값을 생성하는 검출기에 의해 수신된 EM 방사선을 나타내는 픽셀 값을 가진다. 문맥에 기초하여, 픽셀은 상기 생성된 픽셀 값들로부터 형성된 이미지의 연관된 픽셀 값 또는 픽셀(예를 들어, 픽셀 위치, 픽셀 좌표)을 생성하는 이미지 검출기 회로(165)의 검출기를 지칭할 수 있다. 일 실시형태에서, 상기 이미지는 열적외선 이미지 데이터에 기초한 열적외선 이미지일 수 있다(예를 들어, 열이미지(thermal image)라고도 함). 상기 열적외선 이미지의 각 픽셀 값은 장면(160)의 해당 부분의 온도를 나타낸다.The image can be or can be considered a data structure or a data structure that includes pixels and is a representation of image data associated with a scene 160 , where each pixel is emitted or reflected from a portion of the scene and produces the pixel value. has a pixel value representing the EM radiation received by Based on context, a pixel may refer to a detector of the image detector circuitry 165 that generates a pixel (eg, pixel location, pixel coordinate) or associated pixel value of an image formed from the generated pixel values. In an embodiment, the image may be a thermal infrared image based on thermal infrared image data (eg, also referred to as a thermal image). Each pixel value of the thermal infrared image represents the temperature of that part of the scene 160 .

일 양태에서, 이미지 검출기 회로(165)에 의해 생성된 픽셀 값은 상기 검출된 방사선을 변환함으로써 얻어진 전기 신호에 기초하여 생성된 디지털 숫자 값으로 표현될 수 있다. 예를 들어, 이미지 검출기 회로(165)가 ADC(analog-to-digital) 회로를 포함하거나 이에 결합되는 경우, ADC 회로는 전기 신호에 기초하여 디지털 숫자 값을 생성할 수 있다. 14비트를 사용하여 전기 신호를 표현할 수 있는 ADC 회로의 경우, 디지털 숫자 값의 범위는 0에서 16,383 사이일 수 있다. 이런 경우에, 검출기의 픽셀 값은 ADC 회로에서 출력되는 디지털 숫자 값일 수 있다. 다른 경우(예를 들어, ADC 회로가 없는 경우)에, 픽셀 값은 본질적으로 전기 신호의 값이거나 이를 나타내는 값을 갖는 아날로그일 수 있다. 예를 들어, 적외선 이미징의 경우, 이미지 검출기 회로(165)(예를 들어, IR 이미지 검출기 회로)에 입사되어 검출되는 더 많은 양의 IR 방사선은 더 높은 디지털 숫자 값 및 더 높은 온도와 연관된다.In one aspect, the pixel values generated by the image detector circuitry 165 may be represented as digital numeric values generated based on electrical signals obtained by converting the detected radiation. For example, if the image detector circuit 165 includes or is coupled to analog-to-digital (ADC) circuitry, the ADC circuitry may generate a digital numeric value based on the electrical signal. For an ADC circuit that can represent an electrical signal using 14 bits, the digital numeric value can range from 0 to 16,383. In this case, the pixel value of the detector may be a digital numeric value output from the ADC circuit. In other cases (eg, in the absence of ADC circuitry), the pixel value may be essentially the value of an electrical signal or analog having a value representing it. For example, for infrared imaging, a higher amount of IR radiation incident upon and detected by image detector circuit 165 (eg, IR image detector circuit) is associated with a higher digital numeric value and higher temperature.

적외선 이미징의 경우, 이미지 검출기 회로(165)(및 존재하는 경우 관련된 ADC 회로)와 관련된 특성은, 비 제한적인 예로서, 동적 범위, 안정적으로 나타낼 수 있는 최저 온도, 안정적으로 표현될 수 있는 최고 온도, 및 민감도를 포함할 수 있다. 상기 동적 범위는 이미지 검출기 회로(165)에 의해 캡처될 수 있고 적외선 이미지로 표현될 수 있는 최저 온도와 최고 온도 사이의 범위(예를 들어, 차이)일 수 있거나 이를 나타낼 수 있다. 이와 관련하여, 상기 최저 온도 미만인 장면(160)의 영역은 이미징 시스템(100)의 잡음 층(noise floor)에 묻힐 수 있고 IR 이미지에서 바랜 것처럼 및/또는 잡음이 있는 것처럼 보일 수 있다. 상기 최고 온도 초과의 장면(160)의 영역은 적외선 이미지에서 포화를 유발하며, 여기서 포화된 영역은 최고 온도의 영역과 동일한 방식(예를 들어, 동일한 색상 값 또는 동일한 그레이스케일 값을 사용하여)으로 표현된다. 예를 들어, 이미지 검출기 회로(165)가 ADC 회로를 사용하여 디지털 숫자 값을 생성할 때, 최고 온도 이상의 온도는 모두 ADC 회로가 나타낼 수 있는 가장 높은 값(예를 들어, 14비트 ADC 회로의 경우 16,383)에 매핑될 수 있고, 최저 온도 이하의 온도는 모두 ADC 회로가 나타낼 수 있는 가장 낮은 값(예: 0)에 매핑될 수 있다. 즉, 적외선 이미지는 최고 온도 초과의 영역과 최고 온도의 영역을 구분하지 않고, 최저 온도 미만의 영역과 최저 온도의 영역을 구분하지 않는다.For infrared imaging, characteristics associated with image detector circuitry 165 (and associated ADC circuitry, if any) include, by way of non-limiting example, dynamic range, the lowest temperature that can be stably represented, and the highest temperature that can be stably represented. , and sensitivity. The dynamic range may be or represent a range (eg, a difference) between the lowest and highest temperatures that may be captured by the image detector circuitry 165 and represented in an infrared image. In this regard, areas of the scene 160 that are below the lowest temperature may be buried in the noise floor of the imaging system 100 and may appear faded and/or noisy in the IR image. Regions of the scene 160 above the highest temperature cause saturation in the infrared image, where the saturated regions are in the same way (e.g., using the same color values or the same grayscale values) as regions of the highest temperature. is expressed For example, when the image detector circuit 165 uses an ADC circuit to generate a digital numeric value, any temperature above the highest temperature is the highest value that the ADC circuit can represent (eg, for a 14-bit ADC circuit). 16,383), and any temperature below the lowest temperature can be mapped to the lowest value (eg, 0) that the ADC circuit can represent. That is, the infrared image does not distinguish the region above the maximum temperature from the region with the highest temperature, and does not distinguish the region below the lowest temperature from the region with the lowest temperature.

판독 회로(170)는, 이미지 데이터를 검출하는 이미지 검출기 회로(165)와, 판독 회로(170)에 의해 판독되는 바와 같은 상기 검출된 이미지 데이터를 처리하는 처리 구성요소(105) 사이의 인터페이스로서 이용될 수 있으며, 판독 회로(170)에서 처리 구성요소(105)로의 데이터 통신은 이미지 인터페이스(120)에 의해 용이해진다. 이미지 캡처 프레임 레이트는 이미지가 이미지 검출기 회로(165)에 의해 순차적으로 검출되고 판독 회로(170)에 의해 처리 구성요소(105)에 제공되는 속도(예를 들어, 초당 이미지들)를 지칭할 수 있다. 판독 회로(170)는 통합 시간(integration time)(예를 들어, 통합 주기)라고도 함)에 따라 이미지 검출기 회로(165)에 의해 생성된 픽셀 값을 판독할 수 있다. The readout circuitry 170 serves as an interface between the image detector circuitry 165 for detecting image data and a processing component 105 for processing the detected image data as read out by the readout circuitry 170 . data communication from the readout circuitry 170 to the processing component 105 is facilitated by the image interface 120 . The image capture frame rate may refer to the rate (eg, images per second) at which images are sequentially detected by the image detector circuitry 165 and provided to the processing component 105 by the readout circuitry 170 . . The readout circuitry 170 may read out the pixel values generated by the image detector circuitry 165 according to an integration time (eg, also referred to as an integration period).

다양한 실시형태에서, 이미지 검출기 회로(165)와 판독 회로(170)의 조합은 FPA이거나, FPA를 포함하거나, 또는 FPA를 함께 제공할 수 있다. 일부 양태들에서, 이미지 검출기 회로(165)는 마이크로볼로미터들의 어레이를 포함하는 열 이미지 검출기 회로일 수 있고, 이미지 검출기 회로(165)와 판독 회로(170)의 조합은 마이크로볼로미터 FPA로 지칭될 수 있다. 일부 경우들에서, 마이크로볼로미터 어레이가 행과 열로 배열될 수 있다. 마이크로볼로미터는 IR 방사선을 검출하고 검출된 IR 방사선에 기초하여 픽셀 값을 생성할 수 있다. 예를 들어, 일부 경우들에서, 마이크로볼로미터는 열 에너지 형태의 IR 방사선을 검출하고 검출된 열 에너지의 양에 기초하여 픽셀 값을 생성하는 열 IR 검출기일 수 있다. 마이크로볼로미터는 입사 IR 방사선을 흡수하고 마이크로볼로미터에서 상응하는 온도 변화를 생성할 수 있다. 이 온도 변화는 마이크로볼로미터의 저항 변화와 관련이 있다. 각 마이크로볼로미터가 픽셀로 작동하면, 각 마이크로볼로미터의 저항 변화를 시간-다중화된 전기 신호로 번역함으로써 상기 입사 IR 방사선의 2차원 이미지 또는 그림 표현이 생성될 수 있다. 상기 번역은 ROIC에 의해 수행될 수 있다. 마이크로볼로미터 FPA는 비정질 실리콘(a-Si), 바나듐 산화물(VOx), 이들의 조합과 같은 IR 검출 물질, 및/또는 기타 검출 물질(들)을 포함할 수 있다. 일 양태에서, 마이크로볼로미터 FPA의 경우, 상기 통합 시간은 마이크로볼로미터가 바이어스되는 시간 간격이거나 이를 나타낼 수 있다. 이 경우 더 긴 통합 시간은 IR 신호의 더 높은 이득과 연관될 수 있지만, 더 많은 IR 방사선이 수집되지는 않는다. IR 방사선은 마이크로볼로미터에 의해 열 에너지 형태로 수집될 수 있다.In various embodiments, the combination of image detector circuitry 165 and readout circuitry 170 may be, include, or provide an FPA together. In some aspects, image detector circuit 165 may be a thermal image detector circuit comprising an array of microbolometers, and the combination of image detector circuit 165 and read circuit 170 may be referred to as a microbolometer FPA. . In some cases, the microbolometer array may be arranged in rows and columns. The microbolometer may detect IR radiation and generate pixel values based on the detected IR radiation. For example, in some cases, the microbolometer may be a thermal IR detector that detects IR radiation in the form of thermal energy and generates a pixel value based on an amount of detected thermal energy. The microbolometer can absorb incident IR radiation and produce a corresponding temperature change in the microbolometer. This temperature change is related to the resistance change of the microbolometer. When each microbolometer acts as a pixel, a two-dimensional image or pictorial representation of the incident IR radiation can be created by translating the resistance change of each microbolometer into a time-multiplexed electrical signal. The translation may be performed by ROIC. The microbolometer FPA may include an IR detection material, such as amorphous silicon (a-Si), vanadium oxide (VOx), combinations thereof, and/or other detection material(s). In one aspect, for a microbolometer FPA, the integration time may be or represent a time interval at which the microbolometer is biased. A longer integration time in this case may be associated with a higher gain of the IR signal, but no more IR radiation is collected. IR radiation can be collected in the form of thermal energy by a microbolometer.

일부 경우들에서, 이미지 캡처 구성요소(115)에는, 일부 파장의 방사선을 통과시키지만 다른 파장의 방사선을 실질적으로 차단하도록 구성된 하나 이상의 필터가 포함될 수 있다. 예를 들어, 이미지 캡처 구성요소(115)는, 다른 파장의 IR 방사선은 실질적으로 차단하면서 일부 파장의 IR 방사선을 통과시키도록 구성된 하나 이상의 필터(예를 들어, MWIR 필터, 열적 IR 필터, 및 협대역 필터)를 포함하는 IR 이미징 장치일 수 있다. 이 예에서, 그러한 필터는 IR 파장의 원하는 대역에 대한 증가된 감도를 위해 이미지 캡처 구성요소(115)를 맞추는데 이용될 수 있다. 일 양태에서, IR 이미징 장치가 열적 IR 이미지를 캡처하도록 맞춤화될 때 상기 IR 이미징 장치는 열적 이미징 장치로 지칭될 수 있다. 열적 범위 밖의 적외선 IR 이미지를 캡처하도록 맞춤화된 IR 이미징 장치를 포함하는 다른 이미징 장치는 비 열적 이미징 장치라고 할 수 있다.In some cases, image capture component 115 may include one or more filters configured to pass some wavelengths of radiation but substantially block other wavelengths of radiation. For example, image capture component 115 may include one or more filters (eg, MWIR filters, thermal IR filters, and narrow filters configured to pass IR radiation of some wavelengths while substantially blocking IR radiation of other wavelengths). band filter). In this example, such a filter may be used to tailor the image capture component 115 for increased sensitivity to a desired band of IR wavelengths. In an aspect, an IR imaging device may be referred to as a thermal imaging device when it is customized to capture a thermal IR image. Other imaging devices, including IR imaging devices that are tailored to capture infrared IR images outside of the thermal range, may be referred to as non-thermal imaging devices.

하나의 특정한, 비 제한적인 예에서, 이미지 캡처 구성요소(115)는 근적외선(NIR), SWIR, MWIR, LWIR 및/또는 초장파 IR(VLWIR)을 포함하는 IR 방사선에 반응하는 검출기들의 FPA를 갖는 IR 이미징 센서를 포함할 수 있다. 일부 다른 실시형태에서, 대안으로 또는 추가로, 이미지 캡처 구성요소(115)는 임의의 소비자 카메라(예를 들어, 가시광선 카메라)에서 발견할 수 있는 CMOS(Complementary Metal Oxide Semiconductor) 센서 또는 CCD(Charge-Coupled Device) 센서를 포함할 수 있다. In one specific, non-limiting example, image capture component 115 is an IR having an FPA of detectors responsive to IR radiation including near infrared (NIR), SWIR, MWIR, LWIR and/or very long wave IR (VLWIR). It may include an imaging sensor. In some other embodiments, alternatively or additionally, the image capture component 115 may be a Complementary Metal Oxide Semiconductor (CMOS) sensor or Charge -Coupled Device) may include a sensor.

이미지 캡처 구성요소(115)에 구현될 수 있는 다른 이미징 센서에는 광자 혼합 장치(PMD: photonic mixer device) 이미징 센서 또는 기타 ToF(Time of Flight) 이미징 센서, LIDAR 이미징 장치, RADAR 이미징 장치, 밀리미터 이미징 장치, 양전자 방출 단층촬영(PET: positron emission tomography) 스캐너, 단일 광자 방출 컴퓨터 단층 촬영(SPECT: single photon emission computed tomography) 스캐너, 초음파 이미징 장치, 또는 특정 양식 및/또는 스펙트럼에서 작동하는 기타 이미징 장치가 포함된다. 특정 양식 및/또는 스펙트럼(예: 적외선 스펙트럼 등)의 이미지를 캡처하도록 구성된 이러한 이미징 센서들 중 일부의 경우, 이것들은 예를 들어 일반적인 CMOS-기반 또는 CCD-기반 이미징 센서 또는 기타 이미징 센서, 이미징 스캐너, 또는 다양한 양식의 이미징 장치와 비교할 때, 저주파 음영(shading)을 가진 이미지를 생성하는 경향이 있다. Other imaging sensors that may be implemented in image capture component 115 include photonic mixer device (PMD) imaging sensors or other time of flight (ToF) imaging sensors, LIDAR imaging devices, RADAR imaging devices, millimeter imaging devices. , including positron emission tomography (PET) scanners, single photon emission computed tomography (SPECT) scanners, ultrasound imaging devices, or other imaging devices operating in a specific modality and/or spectrum. do. In the case of some of these imaging sensors configured to capture images of a specific modality and/or spectrum (eg, the infrared spectrum, etc.), they may be, for example, a typical CMOS-based or CCD-based imaging sensor or other imaging sensor, imaging scanner , or when compared to various types of imaging devices, it tends to produce images with low frequency shading.

이미지 캡처 구성요소(115)에 의해 제공되는 이미지, 또는 이 이미지에 대응하는 디지털 이미지 데이터는, 각각의 이미지 치수(픽셀 치수라고도 함)와 연관될 수 있다. 이미지 치수 또는 픽셀 치수는 일반적으로 한 이미지의 픽셀 수를 나타내며, 이것은 예를 들어 2차원 이미지의 경우 너비와 높이를 곱하거나, 또는 이미지의 관련 치수 또는 모양에 적절하게 표현될 수 있다. 따라서, 기본 해상도를 갖는 이미지는, 예를 들어 이미지를 처리하고 분석하는 비용을 줄이기 위해, 더 작은 크기(예를 들어, 더 작은 픽셀 치수를 가짐)로 크기 조정될 수 있다. 상기 크기 조정된 이미지의 분석에 기초하여 필터(예를 들어, 불균일 추정치(non-uniformity estimate))가 생성될 수 있다. 그런 다음 상기 필터는, 이미지에 적용하기 전에, 이미지의 기본 해상도와 치수로 크기 조정될 수 있다.An image provided by the image capture component 115 , or digital image data corresponding to the image, may be associated with a respective image dimension (also referred to as a pixel dimension). An image dimension or pixel dimension generally refers to the number of pixels in an image, which can be expressed, for example, by multiplying the width and height in the case of a two-dimensional image, or as appropriate to the relevant dimensions or shape of the image. Thus, an image having a native resolution may be resized to a smaller size (eg, having a smaller pixel dimension), eg, to reduce the cost of processing and analyzing the image. A filter (eg, a non-uniformity estimate) may be generated based on the analysis of the scaled image. The filter can then be scaled to the image's native resolution and dimensions before being applied to the image.

이미지 인터페이스(120)는, 일부 실시형태에서, 외부 장치(예를 들어, 원격 장치(150) 및/또는 기타 장치)에 의해 생성되거나 거기에 저장된 이미지(예를 들어, 디지털 이미지 데이터)를 수신하기 위해 상기 외부 장치와 인터페이스하도록 구성된 적절한 입력 포트, 커넥터, 스위치, 및/또는 회로를 포함할 수 있다. 일 양태에서, 이미지 인터페이스(120)는 이미지 데이터와 관련된 메타데이터를 제공하기 위한 직렬 인터페이스 및 원격측정 라인을 포함할 수 있다. 상기 수신된 이미지 또는 이미지 데이터는 처리 구성요소(105)에 제공될 수 있다. 이와 관련하여, 상기 수신된 이미지 또는 이미지 데이터는 처리 구성요소(105)에 의한 처리에 적합한 신호 또는 데이터로 변환될 수 있다. 예를 들어, 일 실시형태에서, 이미지 인터페이스(120)는 아날로그 비디오 데이터를 수신하고 이를 처리 구성요소(105)에 제공될 적절한 디지털 데이터로 변환하도록 구성될 수 있다. Image interface 120, in some embodiments, is configured to receive images (eg, digital image data) generated by or stored thereon by an external device (eg, remote device 150 and/or other devices). It may include suitable input ports, connectors, switches, and/or circuitry configured to interface with the external device for this purpose. In one aspect, image interface 120 may include a serial interface and telemetry line for providing metadata related to image data. The received image or image data may be provided to a processing component 105 . In this regard, the received image or image data may be converted into a signal or data suitable for processing by the processing component 105 . For example, in one embodiment, image interface 120 may be configured to receive analog video data and convert it to appropriate digital data to be provided to processing component 105 .

이미지 인터페이스(120)는 다양한 표준 비디오 포트를 포함할 수 있으며, 이것은 비디오 플레이어, 비디오 카메라, 또는 표준 비디오 신호를 생성할 수 있는 기타 장치에 연결될 수 있고, 상기 수신된 비디오 신호를 처리 구성요소(105)에 의한 처리에 적합한 디지털 비디오/이미지 데이터로 변환할 수 있다. 일부 실시형태에서, 이미지 인터페이스(120)는 또한 이미지 캡처 구성요소(115)와 인터페이스하여 그로부터 이미지(예: 이미지 데이터)를 수신하도록 구성될 수 있다. 다른 실시형태에서, 이미지 캡처 구성요소(115)는 처리 구성요소(105)와 직접 인터페이스할 수 있다. Image interface 120 may include various standard video ports, which may be connected to a video player, video camera, or other device capable of generating standard video signals, and may process the received video signals into processing component 105 . ) can be converted into digital video/image data suitable for processing by In some embodiments, image interface 120 may also be configured to interface with and receive images (eg, image data) from image capture component 115 . In other embodiments, the image capture component 115 may interface directly with the processing component 105 .

제어 구성요소(125)는, 일 실시형태에서, 사용자 입력 및/또는 인테페이스 장치, 예를 들면 회전 가능한 노브(예를 들어, 전위차계), 푸시 버튼, 슬라이드 바, 키보드, 및/또는 사용자 입력 제어 신호를 생성하도록 구성된 기타 장치를 포함한다. 처리 구성요소(105)는 제어 구성요소(125)를 통해 사용자로부터 제어 입력 신호를 감지하고 그로부터 수신된 임의의 감지된 제어 입력 신호에 응답하도록 구성될 수 있다. 처리 구성요소(105)는, 당해 기술분야의 통상의 기술자에 의해 일반적으로 이해되는 바와 같이, 이러한 제어 입력 신호를 값으로 해석하도록 구성될 수 있다. 일 실시형태에서, 제어 구성요소(125)는 사용자와 인터페이스하고 사용자 입력 제어 값을 수신하도록 구성된 푸시 버튼을 갖는 제어 유닛(예를 들어, 유선 또는 무선 핸드헬드 제어 유닛)을 포함할 수 있다. 일 구현에서, 상기 제어 유닛의 푸시 버튼은, 자동 초점, 메뉴 활성화 및 선택, 시야, 밝기, 대비, 노이즈 필터링, 이미지 향상, 및/또는 이미징 시스템 또는 카메라의 다양한 기타 기능과 같은 이미징 시스템(100)의 다양한 기능을 제어하기 위해 사용될 수도 있다.The control component 125, in one embodiment, is a user input and/or interface device, such as a rotatable knob (eg, a potentiometer), a push button, a slide bar, a keyboard, and/or a user input control signal. other devices configured to create The processing component 105 may be configured to sense a control input signal from a user via the control component 125 and to respond to any sensed control input signal received therefrom. The processing component 105 may be configured to interpret such a control input signal as a value, as is commonly understood by one of ordinary skill in the art. In one embodiment, the control component 125 may include a control unit (eg, a wired or wireless handheld control unit) having a push button configured to interface with a user and receive user input control values. In one implementation, the push buttons of the control unit are configured to enable the imaging system 100, such as autofocus, menu activation and selection, field of view, brightness, contrast, noise filtering, image enhancement, and/or various other functions of the imaging system or camera. It can also be used to control various functions of

디스플레이 구성요소(130)는 일 실시형태에서 이미지 디스플레이 장치(예를 들어, 액정 디스플레이(LCD)) 또는 일반적으로 알려진 다양한 다른 유형의 비디오 디스플레이 또는 모니터를 포함한다. 처리 구성요소(105)는 이미지 데이터 및 정보를 디스플레이 구성요소(130)에 표시하도록 구성될 수 있다. 처리 구성요소(105)는 메모리 구성요소(110)로부터 이미지 데이터 및 정보를 검색하고 임의의 검색된 이미지 데이터 및 정보를 디스플레이 구성요소(130)에 표시하도록 구성될 수 있다. 디스플레이 구성요소(130)는 이미지 데이터와 정보를 디스플레이하기 위해 처리 구성요소(105)에 의해 이용될 수 있는 디스플레이의 회로를 포함할 수 있다. 디스플레이 구성요소(130)는 이미지 캡처 구성요소(115), 처리 구성요소(105), 및/또는 이미지 인터페이스(120)로부터 직접 이미지 데이터 및 정보를 수신하도록 구성될 수 있다, 또는 이미지 데이터 및 정보는 처리 구성요소(105)를 통해 메모리 구성요소(110)로부터 전송될 수도 있다.Display component 130 includes, in one embodiment, an image display device (eg, a liquid crystal display (LCD)) or various other types of generally known video displays or monitors. The processing component 105 may be configured to display image data and information on the display component 130 . Processing component 105 may be configured to retrieve image data and information from memory component 110 and display any retrieved image data and information to display component 130 . Display component 130 may include circuitry in a display that may be utilized by processing component 105 to display image data and information. Display component 130 may be configured to receive image data and information directly from image capture component 115 , processing component 105 , and/or image interface 120 , or image data and information It may also be transmitted from the memory component 110 via the processing component 105 .

감지 구성요소(135)는, 일 실시형태에서, 통상의 기술자에 의해 이해되는 바와 같이, 애플리케이션 또는 구현 요구사항에 따라 다양한 유형의 하나 이상의 센서를 포함한다. 감지 구성요소(135)의 센서들은 데이터 및/또는 정보를 적어도 처리 구성요소(105)에 제공한다. 일 양태에서, 처리 구성요소(105)는 감지 구성요소(135)와 통신하도록 구성될 수 있다. 다양한 구현에서, 감지 구성요소(135)는 환경 조건에 관한 정보, 예를 들면 외부 온도, 조명 조건(예: 낮, 밤, 황혼, 및/또는 새벽), 습도 수준, 특정 기상 조건(예: 맑음, 비 및/또는 눈), 거리(예: 레이저 거리 측정기 또는 ToF 카메라), 및/또는 터널 또는 다른 유형의 폐쇄공간에 들어갔거나 나갔는지를 제공할 수 있다. 감지 구성요소(135)는 이미지 캡처 구성 요소(115)에 의해 제공되는 이미지 데이터에(예를 들어, 이미지 외관에) 영향을 미칠 수 있는 다양한 조건(예를 들어, 환경 조건)을 모니터링하기 위해 통상의 기술자에게 일반적으로 알려진 바와 같은 종래의 센서를 나타낼 수 있다.The sensing component 135, in one embodiment, includes one or more sensors of various types depending on the application or implementation requirements, as would be understood by one of ordinary skill in the art. The sensors of the sensing component 135 provide data and/or information to at least the processing component 105 . In an aspect, the processing component 105 may be configured to communicate with the sensing component 135 . In various implementations, sensing component 135 may provide information regarding environmental conditions, such as external temperature, lighting conditions (eg, day, night, dusk, and/or dawn), humidity levels, and specific weather conditions (eg, sunny). , rain and/or snow), distance (eg, laser range finder or ToF camera), and/or whether you have entered or exited a tunnel or other type of enclosure. The sensing component 135 is typically for monitoring various conditions (eg, environmental conditions) that may affect the image data (eg, image appearance) provided by the image capture component 115 . It may refer to a conventional sensor as generally known to those skilled in the art.

일부 구현들에서, 감지 구성요소(135)(예를 들어, 하나 이상의 센서들)는 유선 및/또는 무선 통신을 통해 처리 구성요소(105)에 정보를 중계하는 장치들을 포함할 수 있다. 예를 들어, 감지 구성요소(135)는, 로컬 브로드캐스트(예를 들어, 무선 주파수(RF) 전송을 통해, 모바일 또는 셀룰러 네트워크를 통해, 및/또는 기반시설의 정보 비콘을 통해(예를 들어, 교통 또는 고속도로 정보 비콘 기반시설), 또는 다양한 기타 유선 및/또는 무선 기술을 통해, 위성으로부터 정보를 수신하도록 구성될 수 있다. 일부 실시형태에서, 처리 구성요소(105)는 감지 구성요소(135)로부터 검색된 정보(예를 들어, 감지 데이터)를 사용하여 이미지 캡처 구성요소(115)의 구성을 수정할 수 있다(예를 들어, 광 감도 레벨을 조정하거나, 이미지 캡처 구성요소(115)의 방향 및 각도를 조정하거나나, 조리개(aperture)를 조정하는 등). In some implementations, sensing component 135 (eg, one or more sensors) may include devices that relay information to processing component 105 via wired and/or wireless communication. For example, the sensing component 135 may be configured to perform a local broadcast (eg, via radio frequency (RF) transmission), via a mobile or cellular network, and/or via an information beacon of an infrastructure (eg, , traffic or highway information beacon infrastructure), or various other wired and/or wireless technologies, etc. In some embodiments, the processing component 105 may include the sensing component 135 . ) may be used to modify the configuration of the image capture component 115 (eg, to adjust the light sensitivity level, or the orientation of the image capture component 115 and Adjusting the angle, adjusting the aperture, etc.).

일부 실시형태에서, 이미징 시스템(100)의 다양한 구성요소는 네트워크(155)를 통해 분산되고 서로 통신할 수 있다. 이와 관련하여, 이미징 시스템(100)은 네트워크(155)를 통한 이미징 시스템(100)의 다양한 구성요소들 간의 유선 및/또는 무선 통신을 용이하게 하도록 구성된 네트워크 인터페이스(140)를 포함할 수 있다. 그러한 실시형태에서, 구성요소들은 또한 원하는 경우 이미징 시스템(100)의 특정 애플리케이션을 위해 복제될 수 있다. 즉, 동일하거나 유사한 동작을 위해 구성된 구성요소는 네트워크를 통해 분산될 수 있다. 또한, 다양한 구성요소들 중 임의의 하나의 전부 또는 일부는 원하는 경우, 네트워크 인터페이스(140)를 거쳐 네트워크(155)를 통해 이미징 시스템(100)의 다양한 구성요소들과 통신하는 원격 장치(150)(예를 들어, 종래의 디지털 비디오 레코더(DVR), 이미지 처리를 위해 구성된 컴퓨터, 및/또는 기타 장치)의 적절한 구성요소를 사용하여 구현될 수 있다. 따라서, 예를 들어, 처리 구성요소(105)의 전부 또는 일부, 메모리 구성요소(110)의 전부 또는 일부, 및/또는 디스플레이 구성요소(130)의 일부 또는 전부가 원격 장치(150)에서 구현되거나 복제될 수 있다. 일부 실시형태에서, 이미징 시스템(100)은 이미징 센서(예를 들어, 이미지 캡처 구성요소(115))를 포함하지 않을 수 있지만, 대신에 처리 구성요소(105) 및/또는 이미징 시스템(100)의 기타 구성요소들과 별도로 또는 원격 위치된 이미징 센서로부터 이미지 또는 이미지 데이터를 수신한다. 이미징 시스템(100)의 분산된 구현들의 다른 많은 조합이 본 개시의 범위 및 정신을 벗어나지 않고 가능하다는 것을 이해해야 한다.In some embodiments, the various components of imaging system 100 may be distributed and communicate with each other via network 155 . In this regard, imaging system 100 may include network interface 140 configured to facilitate wired and/or wireless communication between various components of imaging system 100 over network 155 . In such an embodiment, components may also be replicated for a particular application of imaging system 100 if desired. That is, components configured for the same or similar operation may be distributed over a network. In addition, all or some of any one of the various components may, if desired, be configured with a remote device 150 ( For example, it may be implemented using suitable components of a conventional digital video recorder (DVR), a computer configured for image processing, and/or other devices). Thus, for example, all or a portion of the processing component 105 , all or a portion of the memory component 110 , and/or some or all of the display component 130 are implemented on the remote device 150 or can be duplicated. In some embodiments, imaging system 100 may not include an imaging sensor (eg, image capture component 115 ), but instead of processing component 105 and/or imaging system 100 . Receive image or image data from an imaging sensor located separately or remotely from other components. It should be understood that many other combinations of distributed implementations of imaging system 100 are possible without departing from the scope and spirit of the present disclosure.

또한, 다양한 실시형태에서, 이미징 시스템(100)의 다양한 구성요소는, 원하는 대로 또는 애플리케이션 또는 요구사항에 따라, 결합 및/또는 구현되거나 구현되지 않을 수 있다. 일 예에서, 처리 구성요소(105)는 메모리 구성요소(110), 이미지 캡처 구성요소(115), 이미지 인터페이스(120), 디스플레이 구성요소(130), 감지 구성요소(135), 및/또는 네트워크 인터페이스(140)와 결합될 수 있다. 다른 예에서, 처리 구성요소(105)는, 처리 구성요소(105)의 특정 기능이 이미지 캡처 구성요소(115) 내의 회로(예를 들어, 프로세서, 마이크로프로세서, 논리 장치, 마이크로컨트롤러 등)에 의해 수행되도록, 이미지 캡처 구성요소(115)와 결합될 수 있다. Further, in various embodiments, the various components of imaging system 100 may or may not be combined and/or implemented, as desired or depending on an application or requirement. In one example, processing component 105 includes memory component 110 , image capture component 115 , image interface 120 , display component 130 , sensing component 135 , and/or a network It may be coupled with the interface 140 . In another example, processing component 105 is configured such that certain functions of processing component 105 are implemented by circuitry (eg, processor, microprocessor, logic device, microcontroller, etc.) within image capture component 115 . may be coupled with the image capture component 115 to be performed.

도 2는 본 개시내용의 하나 이상의 실시형태에 따른 예시적인 이미지 센서 어셈블리(200)의 블록도를 예시한다. 그러나 도시된 구성요소 모두가 요구되는 것은 아니며, 하나 이상의 실시형태는 도면에 도시되지 않은 추가 구성요소를 포함할 수 있다. 구성요소들의 배열 및 유형의 변경은 여기에 설명된 청구범위의 사상 또는 범위를 벗어나지 않고 이루어질 수 있다. 추가 구성요소, 상이한 구성요소 및/또는 더 적은 수의 구성요소가 제공될 수 있다. 일 실시형태에서, 이미지 센서 어셈블리(200)는 예를 들어 도 1의 이미지 캡처 구성요소(115)로서 구현되는 FPA일 수 있다. 2 illustrates a block diagram of an example image sensor assembly 200 in accordance with one or more embodiments of the present disclosure. However, not all illustrated components are required, and one or more embodiments may include additional components not shown in the drawings. Changes in the arrangement and type of elements may be made without departing from the spirit or scope of the claims set forth herein. Additional components, different components, and/or fewer components may be provided. In one embodiment, the image sensor assembly 200 may be, for example, an FPA implemented as the image capture component 115 of FIG. 1 .

이미지 센서 어셈블리(200)는 단위 셀 어레이(205), 열 다중화기(210, 215), 열 증폭기(220, 225), 행 다중화기(230), 제어 바이어스 및 타이밍 회로(235), 디지털-아날로그 변환기(DAC)(240), 및 데이터 출력 버퍼(245)를 포함한다. 몇몇 양태에서, 단위 셀 어레이(205) 및 기타 구성요소의 및/또는 이에 속하는 동작들은 시스템 클록 및/또는 동기화 신호(예를 들어, 라인 동기화(LSYNC) 신호)에 따라 수행될 수 있다. 단위 셀 어레이(205)는 단위 셀들의 어레이를 포함한다. 일 양태에서, 각각의 단위 셀은 검출기(예를 들어, 픽셀) 및 인터페이스 회로를 포함할 수 있다. 각 단위 셀의 인터페이스 회로는 단위 셀의 검출기에 의해 제공되는 검출 신호(예를 들어, 검출 전류, 검출 전압)에 응답하여 출력 전압 또는 출력 전류와 같은 출력 신호를 제공할 수 있다. 상기 출력 신호는 검출기에 의해 수신된 EM 방사선의 크기를 나타낼 수 있고 이미지 픽셀 데이터 또는 단순히 이미지 데이터로서 지칭될 수 있다. 열 다중화기 (215), 열 증폭기 (220), 행 다중화기 (230), 및 데이터 출력 버퍼(245)는 단위 셀 어레이(205)로부터의 출력 신호를 데이터 출력 신호로서 데이터 출력 라인(250) 상에 제공하는데 사용될 수 있다. 데이터 출력 라인(250) 상의 데이터의 출력 신호는 이미지 센서 어셈블리(200)의 하류의 구성요소들, 예를 들어 처리 회로(예를 들어, 도 1의 처리 구성요소(105)), 메모리(예를 들어, 도 1의 메모리 구성요소(110)), 디스플레이 장치(예를 들어, 도 1의 메모리 구성요소(110)), 및/또는 기타 구성요소에 제공되어 상기 출력 신호의 처리, 저장, 및/또는 디스플레이가 수행될 수 있다. 상기 데이터 출력 신호는 이미지 센서 어셈블리(200)에 대한 픽셀 값들로 구성된 이미지일 수 있다. 이와 관련하여, 열 다중화기(215), 열 증폭기(220), 행 다중화기(230) 및 데이터 출력 버퍼(245)는 집합적으로 이미지 센서 어셈블리(200)의 ROIC(또는 그 일부)를 제공할 수 있다. 일 양태에서, 상기 인터페이스 회로는 ROIC의 일부로 간주되거나, 검출기들과 ROIC 사이의 인터페이스로 간주될 수 있다. 일부 실시형태에서, 이미지 센서 어셈블리(200)의 구성요소는 단위 셀 어레이(205) 및 ROIC가 단일 다이(die)의 일부일 수 있도록 구현될 수 있다. 일 실시형태에서, 이미지 센서 어셈블리(200)의 구성요소들은 단위 셀 어레이(205)가 ROIC에 혼화(hybridization)(예를 들어, 접합(bonding), 접속(joint), 짝짓기(mating))되도록 구현될 수 있다. 이러한 혼화의 예는 도 3과 관련하여 설명된다.The image sensor assembly 200 includes a unit cell array 205 , column multiplexers 210 and 215 , column amplifiers 220 and 225 , a row multiplexer 230 , a control bias and timing circuit 235 , and digital-to-analog. a converter (DAC) 240 , and a data output buffer 245 . In some aspects, operations of and/or pertaining to unit cell array 205 and other components may be performed according to a system clock and/or synchronization signal (eg, a line synchronization (LSYNC) signal). The unit cell array 205 includes an array of unit cells. In an aspect, each unit cell may include a detector (eg, a pixel) and interface circuitry. The interface circuit of each unit cell may provide an output signal such as an output voltage or an output current in response to a detection signal (eg, detection current, detection voltage) provided by the detector of the unit cell. The output signal may represent the magnitude of the EM radiation received by the detector and may be referred to as image pixel data or simply image data. The column multiplexer 215 , the column amplifier 220 , the row multiplexer 230 , and the data output buffer 245 receive the output signal from the unit cell array 205 as a data output signal on the data output line 250 . can be used to provide The output signal of the data on the data output line 250 may include components downstream of the image sensor assembly 200 , such as processing circuitry (eg, processing component 105 in FIG. 1 ), memory (eg, For example, memory component 110 of FIG. 1 ), a display device (eg, memory component 110 of FIG. 1 ), and/or other components may be provided to process, store, and/or process the output signal; Alternatively, display may be performed. The data output signal may be an image composed of pixel values for the image sensor assembly 200 . In this regard, the column multiplexer 215 , the column amplifier 220 , the row multiplexer 230 , and the data output buffer 245 may collectively provide the ROIC (or a portion thereof) of the image sensor assembly 200 . can In an aspect, the interface circuitry may be considered part of the ROIC, or an interface between the detectors and the ROIC. In some embodiments, the components of the image sensor assembly 200 may be implemented such that the unit cell array 205 and the ROIC may be part of a single die. In one embodiment, the components of the image sensor assembly 200 are implemented such that the unit cell array 205 is hybridized (eg, bonded, jointed, mated) to the ROIC. can be An example of such blending is described with respect to FIG. 3 .

열 증폭기(225)는 일반적으로 주어진 애플리케이션(아날로그 및/또는 디지털)에 적합한 임의의 열(column) 처리 회로를 나타낼 수 있으며, 아날로그 신호용 증폭기 회로에 국한되지 않는다. 이와 관련하여, 열 증폭기(225)는 이러한 양태에서 보다 일반적으로 열 프로세서로 지칭될 수 있다. 아날로그 버스 상의 아날로그 신호 및/또는 디지털 버스 상의 디지털 신호와 같은, 열 증폭기(225)에 의해 수신된 신호는 신호의 아날로그 또는 디지털 특성에 따라 처리될 수 있다. 일 예로서, 열 증폭기(225)는 디지털 신호를 처리하기 위한 회로를 포함할 수 있다. 다른 예로서, 열 증폭기(225)는 단위 셀 어레이(205)로부터의 디지털 신호가 열 다중화기(215)에 도달하기 위해 횡단하는 경로(예를 들어, 처리 없이)일 수 있다. 다른 예로서, 열 증폭기(225)는 아날로그 신호를 디지털 신호로 변환하는(예를 들어, 디지털 숫자 값을 얻기 위해) ADC를 포함할 수 있다. 이러한 디지털 신호는 열 다중화기(215)에 제공될 수 있다.Column amplifier 225 may generally represent any column processing circuit suitable for a given application (analog and/or digital), and is not limited to amplifier circuitry for analog signals. In this regard, thermal amplifier 225 may be referred to more generally in this respect as a thermal processor. Signals received by column amplifier 225, such as analog signals on an analog bus and/or digital signals on a digital bus, may be processed according to the analog or digital characteristics of the signal. As an example, the column amplifier 225 may include circuitry for processing digital signals. As another example, the column amplifier 225 may be a path (eg, without processing) that the digital signal from the unit cell array 205 traverses to reach the column multiplexer 215 . As another example, column amplifier 225 may include an ADC that converts an analog signal to a digital signal (eg, to obtain a digital numeric value). This digital signal may be provided to the column multiplexer 215 .

각각의 단위 셀은, 예를 들어 온도의 변화, 제조 편차, 및/또는 기타 요인에 기인하는 단위 셀의 상이한 응답 특성을 보상하기 위해 단위 셀의 검출기를 바이어스하기 위한 바이어스 신호(예를 들어, 바이어스 전압, 바이어스 전류)를 수신할 수 있다. 예를 들어, 제어 바이어스 및 타이밍 회로(235)는 바이어스 신호를 생성하고 이를 단위 셀에 제공할 수 있다. 각 단위 셀에 적절한 바이어스 신호를 제공함으로써, 단위 셀 어레이(205)는 단위 셀의 검출기에 입사하는 광(예를 들어, IR 광)에 응답하여 정확한 이미지 데이터를 제공하도록 효과적으로 교정될 수 있다. 일 양태에서, 제어 바이어스 및 타이밍 회로(235)는 논리 회로이거나, 이를 포함하거나, 논리 회로의 일부일 수 있다.Each unit cell is provided with a bias signal (eg, bias signal) for biasing the detector of the unit cell to compensate for different response characteristics of the unit cell due to, for example, changes in temperature, manufacturing variations, and/or other factors. voltage, bias current). For example, the control bias and timing circuit 235 may generate a bias signal and provide it to a unit cell. By providing an appropriate bias signal to each unit cell, the unit cell array 205 can be effectively calibrated to provide accurate image data in response to light (eg, IR light) incident on the unit cell's detector. In an aspect, the control bias and timing circuit 235 may be, include, or be part of a logic circuit.

제어 바이어스 및 타이밍 회로(235)는 단위 셀 어레이(205)의 주소지정 부분으로부터 이미지 데이터의 액세스 및 판독을 허용하기 위해 단위 셀 어레이(205)를 주소지정하기 위한 제어 신호를 생성할 수 있다. 단위 셀 어레이(205)는 행 단위로 단위 셀 어레이(205)로부터 이미지 데이터를 액세스 및 판독하도록 주소지정 될 수 있지만, 다른 구현에서 단위 셀 어레이(205)는 열 단위로 또는 다른 방식으로 주소지정될 수 있다. The control bias and timing circuit 235 may generate a control signal for addressing the unit cell array 205 to allow access and reading of image data from the addressed portion of the unit cell array 205 . The unit cell array 205 may be addressed to access and read image data from the unit cell array 205 on a row-by-row basis, although in other implementations the unit cell array 205 may be addressed column-by-column or otherwise. can

제어 바이어스 및 타이밍 회로(235)는 바이어스 값 및 타이밍 제어 전압을 생성할 수 있다. 일부 경우에, DAC(240)는 데이터 입력 신호라인(255) 상의 데이터 입력 신호로서 또는 그 일부로서 수신된 바이어스 값을 바이어스 신호(예를 들어, 아날로그 신호라인(들)(260) 상의 아날로그 신호)로 변환할 수 있으며, 이 바이어스 신호는 열 다중화기(210), 열 증폭기(220) 및 행 다중화기(230)의 동작을 통해 각각의 단위 셀에 제공된다. 예를 들어, DAC(240)는 단위 셀들에 대해 디지털 제어 신호(예를 들어, 비트로서 제공된)를 적절한 아날로그 신호 레벨을 구동할 수 있다. 일부 기술에서, 0 또는 1의 디지털 제어 신호는 각각 적절한 논리 저전압 레벨 또는 적절한 논리 고전압 레벨로 구동될 수 있다. 다른 양태에서, 제어 바이어스 및 타이밍 회로(235)는 바이어스 신호(예를 들어, 아날로그 신호)를 생성하고 DAC(240)를 이용하지 않고 상기 바이어스 신호를 단위 셀에 제공할 수 있다. 이와 관련하여, 일부 구현은 DAC(240), 데이터 입력 신호라인(255), 및/또는 아날로그 신호라인(들)(260)을 포함하지 않는다. 일 실시형태에서, 제어 바이어스 및 타이밍 회로(235)는 도 1의 이미지 캡처 구성요소(115) 및/또는 처리 구성요소(105)이거나, 이를 포함하거나, 그 일부이거나, 그렇지 않으면 이에 결합될 수 있다.The control bias and timing circuit 235 may generate a bias value and a timing control voltage. In some cases, DAC 240 converts a bias value received as or as part of a data input signal on data input signal line 255 to a bias signal (eg, an analog signal on analog signal line(s) 260 ). , and this bias signal is provided to each unit cell through the operation of the column multiplexer 210 , the column amplifier 220 , and the row multiplexer 230 . For example, DAC 240 may drive a digital control signal (eg, provided as a bit) to an appropriate analog signal level for the unit cells. In some techniques, a digital control signal of 0 or 1 may be driven to an appropriate logic low voltage level or an appropriate logic high voltage level, respectively. In another aspect, the control bias and timing circuit 235 may generate a bias signal (eg, an analog signal) and provide the bias signal to a unit cell without using the DAC 240 . In this regard, some implementations do not include DAC 240 , data input signal line 255 , and/or analog signal line(s) 260 . In one embodiment, the control bias and timing circuit 235 may be, include, be part of, or otherwise coupled to the image capture component 115 and/or the processing component 105 of FIG. 1 . .

일 실시형태에서, 이미지 센서 어셈블리(200)는 이미징 시스템(예를 들어, 100)의 일부로서 구현될 수 있다. 이미지 센서 어셈블리(200)의 다양한 구성요소에 더하여, 이미징 시스템은 또한 하나 이상의 프로세서, 메모리, 로직, 디스플레이, 인터페이스, 광학계(예를 들어, 렌즈, 거울, 빔스플리터), 및/또는 다양한 구현에 적절할 수 있는 기타 구성요소를 포함할 수 있다. 일 양태에서, 데이터 출력 라인(250) 상의 데이터 출력 신호는 추가 처리를 위해 프로세서(미도시)에 제공될 수 있다. 예를 들어, 데이터 출력 신호는 이미지 센서 어셈블리(200)의 단위 셀들로부터의 픽셀 값들로 형성된 이미지일 수 있다. 프로세서들은 불균일 보정(예를 들어, FFC 또는 기타 교정 기법), 공간적 및/또는 시간적 필터링, 및/또는 기타 동작과 같은 동작을 수행할 수 있다. 이미지(예를 들어, 처리된 이미지)는 메모리(예를 들어, 이미징 시스템 외부 또는 내부)에 저장되고 및/또는 디스플레이 장치(예를 들어, 이미징 시스템 외부의 및/또는 자체에 통합된)에 표시될 수 있다. 도 2의 다양한 구성요소는 단일 칩 또는 다중 칩에 구현될 수 있다. 또한, 다양한 구성요소들이 한 세트의 개별 블록들로 예시되어 있지만, 다양한 블록들은 함께 병합되거나 도 2에 도시된 다양한 블록들이 별개의 블록들으로 분리될 수 있다. In one embodiment, the image sensor assembly 200 may be implemented as part of an imaging system (eg, 100 ). In addition to the various components of the image sensor assembly 200, the imaging system may also be suitable for one or more processors, memories, logic, displays, interfaces, optics (eg, lenses, mirrors, beamsplitters), and/or various implementations. Other components may be included. In an aspect, the data output signal on data output line 250 may be provided to a processor (not shown) for further processing. For example, the data output signal may be an image formed by pixel values from unit cells of the image sensor assembly 200 . Processors may perform operations such as non-uniformity correction (eg, FFC or other correction techniques), spatial and/or temporal filtering, and/or other operations. Images (eg, processed images) are stored in memory (eg, external to or internal to the imaging system) and/or displayed on a display device (eg, external to and/or integrated into the imaging system) can be The various components of FIG. 2 may be implemented on a single chip or multiple chips. Also, although the various components are illustrated as a set of individual blocks, the various blocks may be merged together or the various blocks shown in FIG. 2 may be separated into separate blocks.

도 2에서, 단위 셀 어레이(205)는 8x8(예를 들어, 8행 및 8열)의 단위 셀들로 도시된다. 그러나 단위 셀 어레이(205)은 다른 어레이 크기일 수 있다. 비 제한적인 예로서, 단위 셀 어레이(205)는 512x512(예를 들면, 512행 및 512열의 단위 셀), 1024 x1024, 2048x2048, 4096x4096, 8192x8192, 및/또는 다른 어레이 크기를 가질 수 있다. 일부의 경우들에서, 상기 어레이 크기는 열 크기와 다른 행 크기(예를 들어, 행 내의 검출기의 수)를 가질 수 있다. 프레임 레이트의 예는 30㎐, 60㎐, 120Hz를 포함할 수 있다. 일 양태에서, 단위 셀 어레이(205)의 각 단위 셀은 픽셀을 나타낼 수 있다.In FIG. 2 , the unit cell array 205 is shown as 8x8 (eg, 8 rows and 8 columns) of unit cells. However, the unit cell array 205 may have other array sizes. As a non-limiting example, unit cell array 205 may have 512x512 (eg, 512 rows and 512 columns of unit cells), 1024x1024, 2048x2048, 4096x4096, 8192x8192, and/or other array sizes. In some cases, the array size may have a row size (eg, number of detectors in a row) different from the column size. Examples of frame rates may include 30 Hz, 60 Hz, and 120 Hz. In one aspect, each unit cell of the unit cell array 205 may represent a pixel.

일부 실시형태에서, 이미지 센서 어셈블리(200)의 구성요소들은 검출기 어레이(예를 들어, 마이크로볼로미터와 같은 적외선 검출기들의 어레이) 및 판독 회로가 단일 다이의 일부일 수 있도록 구현될 수 있다. 다른 실시형태에서, 이미지 센서 어셈블리(200)의 구성요소들은 검출기 어레이가 판독 회로에 혼화(예를 들어, 접합)되도록 구현될 수 있다. 예를 들어, 도 3은 본 개시내용의 하나 이상의 실시형태에 따른 예시적인 이미지 센서 어셈블리(300)를 도시한다. 그러나 도시된 구성요소 모두가 요구되는 것은 아니며, 하나 이상의 실시형태는 도면에 도시되지 않은 추가 구성요소를 포함할 수 있다. 구성요소들의 배열 및 유형의 변경이 여기에 설명된 청구범위의 사상 또는 범위를 벗어나지 않고 이루어질 수 있다. 추가 구성요소, 상이한 구성요소 및/또는 더 적은 수의 구성요소가 제공될 수 있다. 일 실시형태에서, 이미지 센서 어셈블리(300)는 이미지 센서 어셈블리(200)일 수 있거나, 이를 포함할 수 있거나, 이미지 센서 어셈블리(200)의 일부일 수 있다. In some embodiments, the components of image sensor assembly 200 may be implemented such that a detector array (eg, an array of infrared detectors such as a microbolometer) and readout circuitry may be part of a single die. In another embodiment, the components of the image sensor assembly 200 may be implemented such that the detector array is compatible with (eg, bonded to) a readout circuit. For example, FIG. 3 illustrates an example image sensor assembly 300 in accordance with one or more embodiments of the present disclosure. However, not all illustrated components are required, and one or more embodiments may include additional components not shown in the drawings. Changes in the arrangement and type of elements may be made without departing from the spirit or scope of the claims set forth herein. Additional components, different components, and/or fewer components may be provided. In one embodiment, the image sensor assembly 300 may be, include, or be part of the image sensor assembly 200 .

이미지 센서 어셈블리(300)는 소자 웨이퍼(305), 판독 회로(310), 및 소자 웨이퍼(305)를 판독 회로(310)에 접합(예를 들어, 기계적으로 및 전기적으로 접합)하기 위한 접점(315)을 포함한다. 소자 웨이퍼(305)는 검출기(예를 들어, 단위 셀 어레이(205))를 포함할 수 있다. 예를 들어, 검출기는 InGaAs형 검출기일 수 있다. 접점(315)은 소자 웨이퍼(305)의 검출기와 판독 회로(310)를 접합할 수 있다. 접점(315)은 소자 웨이퍼(305)의 검출기의 전도성 접점, 판독 회로(310)의 전도성 접점, 및/또는 상기 검출기의 전도성 접점 및 판독 회로(310)의 전도성 접점 사이의 금속 접합부를 포함할 수 있다. 일 실시형태에서, 소자 웨이퍼(305)는 접합-범프(예를 들면, 인듐 범프)를 사용하여 판독 회로(310)에 범프-접합될 수 있다. 접합-범프는 소자 웨이퍼(305) 및/또는 판독 회로(310) 상에 형성되어 소자 웨이퍼(305)와 판독 회로(310) 사이의 연결을 허용할 수 있다. 일 양태에서, 소자 웨이퍼(305)를 판독 회로(310)에 혼화하는 것은 소자 웨이퍼(305)(예를 들어, 소자 웨이퍼(305)의 검출기)를 판독 회로(310)에 접합하여 소자 웨이퍼(305)와 판독 회로(310)를 기계적으로 및 전기적으로 접합하는 것을 지칭할 수 있다. The image sensor assembly 300 includes a device wafer 305 , a read circuit 310 , and contacts 315 for bonding (eg, mechanically and electrically bonding) the device wafer 305 to the read circuit 310 . ) is included. The device wafer 305 may include a detector (eg, a unit cell array 205 ). For example, the detector may be an InGaAs type detector. Contact 315 may bond detector and readout circuit 310 of device wafer 305 . Contact 315 may include a conductive contact of a detector of the device wafer 305 , a conductive contact of a read circuit 310 , and/or a metal junction between the conductive contact of the detector and a conductive contact of the read circuit 310 . have. In one embodiment, the device wafer 305 may be bump-bonded to the read circuit 310 using a junction-bump (eg, indium bump). A junction-bump may be formed on the device wafer 305 and/or the read circuit 310 to allow a connection between the device wafer 305 and the read circuit 310 . In one aspect, blending the device wafer 305 to the read circuitry 310 bonds the device wafer 305 (eg, a detector of the device wafer 305) to the readout circuitry 310 to bond the device wafer 305 to the readout circuitry 310 . ) and the read circuit 310 mechanically and electrically.

도 4는 본 개시의 하나 이상의 실시형태에 따른 이미지 불균일 완화를 용이하게 하기 위한 예시적인 시스템(400)을 도시한다. 그러나 도시된 구성요소 모두가 요구되는 것은 아니며, 하나 이상의 실시형태는 도면에 도시되지 않은 추가 구성요소를 포함할 수 있다. 구성요소들의 배열 및 유형의 변경이 여기에 설명된 청구범위의 사상 또는 범위를 벗어나지 않고 이루어질 수 있다. 추가 구성요소, 다른 구성요소 및/또는 더 적은 수의 구성요소가 제공될 수 있다.4 illustrates an example system 400 for facilitating image non-uniformity mitigation in accordance with one or more embodiments of the present disclosure. However, not all illustrated components are required, and one or more embodiments may include additional components not shown in the drawings. Changes in the arrangement and type of elements may be made without departing from the spirit or scope of the claims set forth herein. Additional components, other components, and/or fewer components may be provided.

시스템(400)에서, 주 처리 경로는 보정된 이미지 데이터(410)(예를 들어, 불균일 보정된 이미지 데이터)를 얻기 위해 이미지 데이터(405)에 대해 불균일 보정을 수행하는 것을 포함한다. 이미지 데이터(405) 및 보정된 이미지 데이터(410)는 각각 이미지를 포함할 수 있다. 일부 경우에, 이미지 데이터(405)는 이득 및/또는 오프셋이 적용된 이미지를 포함할 수 있고, 따라서 이미지 데이터(405)는 이득/오프셋 이미지 후 데이터로 지칭될 수 있다.In system 400 , a primary processing path includes performing non-uniformity correction on image data 405 to obtain corrected image data 410 (eg, non-uniformity corrected image data). The image data 405 and the corrected image data 410 may each include an image. In some cases, image data 405 may include an image to which a gain and/or offset has been applied, and thus image data 405 may be referred to as post-gain/offset image data.

이미지 데이터(405)의 이미지(415)는 백그라운드 처리 경로에 제공될 수 있다. 이미지(415)는 이미지 데이터(405)의 스냅샷(snapshot)으로 지칭될 수 있다. 일부 경우에, 탭핑 회로(tapping circuit)는 스냅샷을 얻기 위해 스냅샷 및/또는 탭(tap)을 트리거링할 수 있다(예를 들어, 주기적으로, 비주기적으로, 및/또는 사용자 입력에 응답하여). 크로핑 회로(cropping circuit)(420)는 이미지(415)를 수신하고, 결함 데이터(425)에 기초하여 이미지(415)를 잘라내 크롭 이미지(cropped image)(430)를 얻는다. 결함 데이터(425)는 위치, 크기, 및/또는 이미지(415) 내 결함과 관련된 다른 데이터를 나타내는 데이터를 포함할 수 있다.The image 415 of the image data 405 may be provided to a background processing path. The image 415 may be referred to as a snapshot of the image data 405 . In some cases, a tapping circuit may trigger a snapshot and/or a tap to obtain the snapshot (eg, periodically, aperiodically, and/or in response to user input). ). A cropping circuit 420 receives the image 415 and crops the image 415 based on the defect data 425 to obtain a cropped image 430 . Defect data 425 may include data indicative of location, size, and/or other data related to defects in image 415 .

일 양태에서, 결함은 이미징 시스템(100)의 사용자(예를 들어, 인간의 눈에 의한 시각적 검사를 통해) 및/또는 기계에 의해 결정/식별될 수 있다. 일 실시형태에서, 결함 데이터(425)는 이미지(415)에서 최악의 결함으로 식별된 결함에 속할 수 있다. 예를 들어, 사용자 및/또는 기계는 이미지 내 결함의 크기 및/또는 결함의 강도에 기초하여 최악의 결함을 결정할 수 있다. 일부 양태에서, 크롭 이미지(430)는 이미지(415) 내의 결함(예를 들어, 최악의 결함)보다 크고 이를 포함한다. 크로핑 회로(420)가 결함의 크기보다 작은 고정된 크기 및/또는 최대 크기의 크롭 이미지를 생성하는 경우와 같은 일부 경우에, 크롭 이미지는 결함의 일부를 포함할 수 있다. In an aspect, a defect may be determined/identified by a user (eg, via visual inspection by a human eye) and/or a machine of the imaging system 100 . In one embodiment, the defect data 425 may belong to the defect identified as the worst defect in the image 415 . For example, the user and/or machine may determine the worst defect based on the size and/or intensity of the defect in the image. In some aspects, cropped image 430 is larger than and includes defects (eg, worst-case defects) in image 415 . In some cases, such as when the cropping circuit 420 generates a crop image of a fixed size and/or a maximum size that is smaller than the size of the defect, the crop image may include a portion of the defect.

크롭 이미지(430)에 대응하는(예를 들어, 이미지(415)에 대한 크롭 이미지(430)의 크기, 위치 및 형상에서) SFFC 맵(435)의 부분은 SFFC 맵(440)을 제공하기 위해 잘린다. 일부 경우에, 예를 들어 테스트/문제해결 목적으로 이미지 탭(image tap)이 SFFC 맵(435) 및/또는 크롭 SFFC 맵(cropped SFFC map)(440)에 대해 사용될 수 있다. 비 제한적인 예로서, 크롭 이미지(430) 및 크롭 SFFC 맵(440)은 32픽셀 x 32픽셀, 64픽셀 x 64픽셀, 32픽셀 x 64픽셀, 또는 다른 크기일 수 있다. 크롭 이미지(430) 및 크롭 SFFC 맵(440)은 다른 크기 및/또는 모양(예를 들어, 직사각형이 아닌 맵/이미지)일 수 있다. A portion of the SFFC map 435 corresponding to the cropped image 430 (eg, in the size, location, and shape of the cropped image 430 relative to the image 415 ) is cropped to provide the SFFC map 440 . . In some cases, for example, an image tap may be used for SFFC map 435 and/or cropped SFFC map 440 for testing/troubleshooting purposes. As a non-limiting example, the cropped image 430 and cropped SFFC map 440 may be 32 pixels by 32 pixels, 64 pixels by 64 pixels, 32 pixels by 64 pixels, or other sizes. The cropped image 430 and cropped SFFC map 440 may be of different sizes and/or shapes (eg, non-rectangular maps/images).

최소화 회로(445)는 크롭 이미지(430) 및 크롭 SFFC 맵(440)을 수신하고 스칼라 값(P)을 반복적으로 조정하여 비용 함수 FVAL(P)를 최소화한다. 일 실시형태에서, 상기 비용 함수는 다음에 의해 제공될 수 있다: The minimization circuit 445 receives the cropped image 430 and the cropped SFFC map 440 and iteratively adjusts the scalar value P to minimize the cost function FVAL(P). In one embodiment, the cost function may be provided by:

Figure pat00001
Figure pat00001

여기서

Figure pat00002
는 크롭 이미지(430)이고 NU(예를 들어, 불균일 추정)는 크롭 SFFC 맵(440)이다.
Figure pat00003
는 크롭 이미지로 지칭될 수 있고(예를 들어, 불균일 보정된 이미지, 깨끗해진 이미지, 보정된/깨끗해진 크롭 이미지 또는 보정된/깨끗해진 이미지 부분이라고도 함), 이는 크롭 이미지(430)로부터 크롭 SFFC ao맵(440)(스케일링 항(P)에 의해 스케일링 후)만큼 감산하여 형성된다. 일부 경우들에서,
Figure pat00004
P x NU는 0부터 1까지의 범위(0과 1을 포함)로 정규화될 수 있다. here
Figure pat00002
is a cropped image 430 and NU (eg, non-uniformity estimation) is a cropped SFFC map 440 .
Figure pat00003
may be referred to as a cropped image (eg, non-uniformity corrected image, cleared image, corrected/cleaned cropped image, or corrected/cleaned image portion), which is a cropped SFFC from cropped image 430 . It is formed by subtracting the ao map 440 (after scaling by the scaling term P). In some cases,
Figure pat00004
and P x NU can be normalized to a range from 0 to 1 (including 0 and 1).

일 양태에서, 최소화 회로(445)는 Nelder-Mead 스칼라 최소화 기법에 기초하여 비용 함수를 최소화하는 스케일링 항(P)에 대한 값을 결정할 수 있다. 일 양태에서, 좌표 하강 접근법, 입자 무리 최적화 접근법 등과 같은 다른 비선형 직접-탐색 최소화 접근법이 이용될 수 있다. 다른 실시형태는 비용 함수를 최소화하는 스케일링 항(P)의 값을 결정하기 위해 다른 최소화/최적화 프로세스를 이용할 수 있다. 스칼라 값 P를 결정하기 위해 활용되는 최소화/최적화 프로세스는 계산 복잡성, 계산 시간, 효율성 및/또는 기타 고려 사항에 기초하여 선택될 수 있다. In an aspect, the minimization circuit 445 can determine a value for the scaling term P that minimizes the cost function based on a Nelder-Mead scalar minimization technique. In an aspect, other non-linear direct-search minimization approaches may be used, such as coordinate descent approaches, particle swarm optimization approaches, and the like. Other embodiments may use other minimization/optimization processes to determine the value of the scaling term P that minimizes the cost function. The minimization/optimization process utilized to determine the scalar value P may be selected based on computational complexity, computation time, efficiency, and/or other considerations.

위에서 제시된 비용 함수 FVAL(P)에서,

Figure pat00005
이고, 여기서
Figure pat00006
, 및
Figure pat00007
는 크롭 이미지(430) 및 크롭 SFFC 맵(440)과 크기가 동일한 어레이이다. 어레이(x)의 구배는
Figure pat00008
에 의해 제공될 수 있다. 일 양태에서, 어레이(x)의 각 라인에 대한, 함수
Figure pat00009
Figure pat00010
는 어레이(x)의 라인(예를 들어, 행 또는 열)을 취하여 그것을 어레이(x)의 다른 라인에서 빼거나 그 역으로 한다. 일 예에서,
Figure pat00011
는 수직 방향으로 일어날 수 있으며 여기서 어레이(x)의 모든 행은 두 행 위로부터 감산되고(예를 들어, 3행의 픽셀 빼기 1행의 픽셀, 4행의 픽셀 빼기 2행의 픽셀, 5행의 픽셀 빼기 3행의 픽셀 등), 및/또는
Figure pat00012
는 수평 방향에서 일어날 수 있으며 여기서 어레이(x)의 모든 열은 두 열 위로부터 감산된다(예를 들어, 3열 픽셀 빼기 1열 픽셀, 4열 픽셀 빼기 2열 픽셀, 5열 픽셀 빼기 3열 픽셀 등). 상기 감산(빼기)는 반드시 2만큼 이격되어야 하는 것은 아니다(예를 들면, 라인 3 빼기 라인 1). 예를 들면, 서로 감산되는 라인들은 3 이상 이격될 수도 있다. 어레이(x)와 관련된 구배를 결정하는 다른 방식이 사용될 수도 있다. In the cost function FVAL(P) presented above,
Figure pat00005
and where
Figure pat00006
, and
Figure pat00007
is an array having the same size as the cropped image 430 and the cropped SFFC map 440 . The gradient of array (x) is
Figure pat00008
can be provided by In one aspect, for each line of array (x), a function
Figure pat00009
and
Figure pat00010
takes a line (eg, a row or column) of array (x) and subtracts it from another line of array (x) and vice versa. In one example,
Figure pat00011
can occur in the vertical direction where every row of array (x) is subtracted from above two rows (e.g., row 3 pixels minus row 1 pixels, row 4 pixels minus row 2 pixels, row 5 pixels) pixels minus 3 rows of pixels, etc.), and/or
Figure pat00012
can occur in the horizontal direction, where every column of array (x) is subtracted from above two columns (eg, column 3 pixels minus column 1 pixels, column 4 pixels minus column 2 pixels, column 5 pixels minus column 3 pixels) etc). The subtraction (subtraction) is not necessarily spaced apart by two (eg, line 3 minus line 1). For example, lines subtracted from each other may be spaced apart by three or more. Other ways of determining the gradient associated with array (x) may be used.

스케일링 항(P)의 값은 반복적으로 조정될 수 있고 대응하는 비용 함수 FVAL(P) 은 비용 함수 FVAL(P)을 최소화하는 P의 값을 얻도록(예를 들어, 이 값을 향해 수렴) 계산될 수 있다. 이러한 반복적 접근 하에서, 크롭 SFFC 맵(440)은 고정되는 반면 스케일링 항(P)의 값은 반복적으로 갱신된다. 각 갱신에는 P의 조정이 포함된다. 일부 경우들에서, P가 고정된 반복 횟수까지 계속 조정될 수 있다. 일부 경우들에서, P의 갱신이 필요한 만큼(예를 들어, 조건이 만족될 때까지) 반복될 수 있다. 예를 들어, P에 대한 몇 번의 조정 후에 비용 함수가 감소하지 않거나 충분하지 않게 감소될 때까지 상기 갱신은 반복될 수 있다. 일부 경우에서, 상기 반복의 하나 이상에서 스케일링 항(P)의 값은 예를 들어 이미지 데이터에 적용하기 위해 및/또는 테스트/문제해결 목적으로 판독을 위해 이용될 수 있다. The value of the scaling term (P) can be iteratively adjusted and the corresponding cost function FVAL(P) computed to obtain (e.g., converge toward) a value of P that minimizes the cost function FVAL(P). can Under this iterative approach, the crop SFFC map 440 is fixed while the value of the scaling term P is iteratively updated. Each update involves the adjustment of P. In some cases, P may continue to be adjusted up to a fixed number of iterations. In some cases, the update of P may be repeated as many times as necessary (eg, until a condition is satisfied). For example, after several adjustments to P, the update may be repeated until the cost function does not decrease or decreases insufficiently. In some cases, the value of the scaling term (P) in one or more of the iterations may be used, for example, for application to image data and/or for reading out for testing/troubleshooting purposes.

일부 경우들에서, 비용 함수를 최소화하기 위해 결정된 스케일링 항(P)에 대한 값은 (예를 들어, 상기 값이 이미지(415)에 적용될 수 있도록) 한 프레임 시간 내에서 수행되거나 다수의 프레임에 걸쳐 있을 수 있다. 일부 경우들에서, 비용 함수를 최소화하기 위해 결정된 스케일링 항(P)에 대한 값이 결정하는 데 여러 프레임이 걸리는 경우, 스케일링 항에 대해 이전에 결정된 값이 최소화 프로세스가 완료될 때까지 계속 사용될 수 있다. 상기 최소화 프로세스와 연관된 계산 시간은 크롭 이미지(430)의 크기, 크롭 SFFC 맵(440), 및 최소화 프로세스와 연관된 임의의 종료 조건에 적어도 기초할 수 있다. 일 실시형태에서, 상기 스케일링 항은 프레임마다(예를 들어, 실시간으로) 또는 주기적으로(예를 들어, 백그라운드에서) 결정될 수 있다.In some cases, the value for the scaling term P determined to minimize the cost function is performed within one frame time (eg, such that the value can be applied to image 415 ) or over multiple frames. there may be In some cases, if the value for the scaling term (P) determined to minimize the cost function takes several frames to determine, the previously determined value for the scaling term may continue to be used until the minimization process is complete. . The computation time associated with the minimization process may be based at least on the size of the cropped image 430 , the cropped SFFC map 440 , and any termination conditions associated with the minimization process. In an embodiment, the scaling term may be determined frame-by-frame (eg, in real-time) or periodically (eg, in the background).

감쇠 회로(450)는 비용 함수 FVAL(P)을 최소화하는(예를 들어, 원하는 종료 조건에 따라) 스케일링 항(P)의 값을 최소화 회로(445)로부터 수신한다. 감쇠 회로(450)는 또한 스케일링 항의 이전 값(Pprev)을 수신한다. 예를 들어, 이전 값(Pprev)은 이미지(415)를 수신하기 전에 백그라운드 처리 경로에 의해 수신된 이미지 데이터(405)로부터의 스냅샷에 기초하여 최소화 회로(445)에 의해 생성된 스케일링 항에 대한 값일 수 있다. 다른 예로서, 이전 값(Pprev)은 스케일링 항을 조정하는 이전 반복 동안(예를 들어, 비용 함수를 최소화하는 P를 결정하기 위한 최소화 프로세스가 완료되기 전에) 스케일링 항에 대해 얻어진 값일 수 있으며, 따라서 이 이전 값은 이미지(415)를 기초로 한다. 감쇠 회로(450)는 적어도 P 및 Pprev에 기초하여 감쇠된 스케일링 항(Pdamp)을 생성한다. 일 양태에서, 주 처리 경로에서 스케일링 항(P)의 감쇠는 스케일링 항(P)의 값의 조정으로 인한 이미지의 급격한 변화(shift)를 방지한다. 감쇠 회로(450)는 스케일링 항(P)에 감쇠 인자(예를 들어, 시간적 감쇠 인자)를 적용함으로써 감쇠된 스케일링 항(P)을 생성할 수 있다. The attenuation circuit 450 receives from the minimization circuit 445 the value of the scaling term P that minimizes the cost function FVAL(P) (eg, according to a desired termination condition). The attenuation circuit 450 also receives the previous value P prev of the scaling term. For example, the previous value P prev is based on a scaling term generated by the minimization circuit 445 based on a snapshot from the image data 405 received by the background processing path prior to receiving the image 415 . may be a value for As another example, the previous value (P prev ) may be the value obtained for the scaling term during a previous iteration of adjusting the scaling term (e.g., before the minimization process to determine P that minimizes the cost function is complete), This previous value is therefore based on image 415 . The damping circuit 450 generates a damped scaling term P damp based on at least P and P prev . In one aspect, the attenuation of the scaling term (P) in the main processing path prevents an abrupt shift of the image due to the adjustment of the value of the scaling term (P). The attenuation circuit 450 may generate the attenuated scaling term P by applying an attenuation factor (eg, a temporal attenuation factor) to the scaling term P.

일부 경우에, 감쇠 항은 알파 블렌딩(alpha blending), 무한 임펄스 응답(IIR) 필터링, 및/또는 기타 감쇠 기술을 사용하여 구현될 수 있다. 감쇠 항은 현재시간에서의 스케일링 항(P)의 값과 상기 현재시간 이전의 시간에서 결정된 스케일링 항(P)의 하나 이상의 값의 선형 조합(예를 들어, 가중 평균)에 기초할 수 있다. 감쇠 항은 적용된 스케일링 항(P)과 관련된 비교적 크고 및/또는 빠른 변동을 최소화하기 위해 사용될 수 있다. 상이한 이미징 시스템 및/또는 그 구성요소는 상이한 감쇠 항과 연관될 수 있다.In some cases, the attenuation term may be implemented using alpha blending, infinite impulse response (IIR) filtering, and/or other attenuation techniques. The decay term may be based on a linear combination (eg, a weighted average) of a value of the scaling term P at the current time and one or more values of the scaling term P determined at a time prior to the current time. The damping term may be used to minimize relatively large and/or fast fluctuations associated with the applied scaling term (P). Different imaging systems and/or components thereof may be associated with different attenuation terms.

결합기 회로(455)는 감쇠된 스케일링 항(Pdamp)을 수신하고 감쇠된 스케일링 항(Pdamp)을 SFFC 맵(435)에 적용하여 스케일링된 SFFC 맵을 얻는다. 결합기 회로(455)는 SFFC 맵(435)에 감쇠된 스케일링 항(Pdamp)을 곱할 수 있다. 결합기 회로(460)는 주 처리 경로에서 이미지 데이터(405)를 수신하고 스케일링된 SFFC 맵을 이미지 데이터(405)의 이미지에 적용한다. 한 경우에, 감쇠된 스케일링 항(P)이 적용되는 이미지는 이미지(415) 및/또는 (Pdamp가 결정되는) 스케일링 항(P)을 생성하기 위해 사용된 이미지(415)에 후속 캡처된 하나 이상의 이미지일 수 있다. 결합기 회로(460)는 이 이미지로부터 상기 스케일링된 SFFC 맵을 감산하여 보정된 이미지 데이터(410)의 일부를 형성하는 보정된 이미지(예를 들어, 불균일 보정된 이미지)를 얻을 수 있다.The combiner circuit 455 receives the attenuated scaling term (P damp ) and applies the attenuated scaling term (P damp ) to the SFFC map 435 to obtain a scaled SFFC map. The combiner circuit 455 may multiply the SFFC map 435 by the damped scaling term (P damp ). The combiner circuit 460 receives the image data 405 in the main processing path and applies the scaled SFFC map to the image of the image data 405 . In one case, the image to which the damped scaling term P is applied is one captured subsequent to image 415 and/or image 415 used to generate the scaling term P (for which P damp is determined). It may be more than one image. The combiner circuit 460 may subtract the scaled SFFC map from this image to obtain a corrected image (eg, a non-uniformity corrected image) that forms part of the corrected image data 410 .

일부 경우들에서, 보정된 이미지 데이터(410)는 주 처리 경로를 따라 추가 처리될 수 있다. 일부 경우에서, 상기 추가 처리는 공간적 필터링 작업 및/또는 시간적 필터링 작업을 포함할 수 있다. 일 양태에서, 공간적 필터링은 보정된 이미지 데이터(410)에 공간적 필터 파라미터를 적용할 수 있다. 시간적 필터링은 공간적 필터링으로부터 출력된 픽셀 값을 수신하고 시간적 필터 파라미터 및 이전 이미지(들)과 관련된 데이터에 기초하여 시간 도주에서 픽셀 값에 대해 시간적 필터링을 수행할 수 있다. 일부 경우에는, 시간적 필터링이 공간적 필터링보다 먼저 발생할 수 있다. 일부 경우에는, 공간적 필터링과 시간적 필터링이 2개의 이산적인 순차적 필터링 작업이 아니라 함께 발생할 수 있다. 이미지 데이터(405) 및/또는 보정된 이미지 데이터(410)를 얻기 위해 및/또는 보정된 이미지 데이터(410)를 추가로 처리하기 위해 다른 및/또는 대안의 작업이 수행될 수 있다.In some cases, the corrected image data 410 may be further processed along the main processing path. In some cases, the further processing may include a spatial filtering operation and/or a temporal filtering operation. In an aspect, spatial filtering may apply spatial filter parameters to the corrected image data 410 . The temporal filtering may receive the pixel values output from the spatial filtering and perform temporal filtering on the pixel values in the temporal escape based on the temporal filter parameter and data related to the previous image(s). In some cases, temporal filtering may precede spatial filtering. In some cases, spatial and temporal filtering may occur together rather than two discrete sequential filtering operations. Other and/or alternative operations may be performed to obtain image data 405 and/or corrected image data 410 and/or to further process corrected image data 410 .

일부 실시형태에서, 처리 구성요소(105)는 백그라운드 처리에서 스케일링 항(P)을 결정하기 위해 프레임 단위로(예를 들어, 실시간으로), 주기적으로(예를 들어, 수신된 100개의 이미지마다, 몇 분마다, 매시간 마다 등), 비주기적으로(예를 들어, 이미지 품질에 기초하여 및/또는 교정에 대한 사용자 요청에 대한 응답하여) 이미지를 선택할 수 있다. 예를 들어, 사용자 및/또는 기계는 이전 스케일링 항이 적용된 이미지에 결함이 있는 경우 새로운 스케일링 항(P)이 결정될 것을 지시하거나 요청할 수 있다. 일단 스케일링 항(P)이 결정되면, 스케일링된 불균일 추정이 주 처리 경로의 일부로서 수신된 이미지에 적용될 수 있다. 일부 경우/애플리케이션에서, P를 결정하는 것은 주 처리 경로의 일부일 수 있고 각 프레임에서 수행될 수 있다.In some embodiments, the processing component 105 is configured to determine a scaling term P in background processing, frame by frame (eg, in real time), periodically (eg, every 100 images received; The image may be selected every few minutes, every hour, etc.), aperiodically (eg, based on image quality and/or in response to a user request for calibration). For example, the user and/or machine may instruct or request that a new scaling term (P) be determined if there is a defect in the image to which the previous scaling term has been applied. Once the scaling term (P) is determined, a scaled non-uniformity estimate can be applied to the received image as part of the main processing path. In some cases/applications, determining P may be part of the main processing path and may be performed in each frame.

일부 실시형태에서, 비-추정(non-estimation) 보정이 수행된 후에 스냅샷이 얻어질 수 있다. 도 5는 본 개시의 하나 이상의 실시형태에 따른 이미지 불균일 완화를 용이하게 하기 위한 예시적인 시스템(500)을 도시한다. 그러나 도시된 구성요소 모두가 요구되는 것은 아니며, 하나 이상의 실시형태는 도면에 도시되지 않은 추가 구성요소를 포함할 수 있다. 구성요소들의 배열 및 유형의 변경이 여기에 설명된 청구범위의 사상 또는 범위를 벗어나지 않고 이루어질 수 있다. 추가 구성요소, 다른 구성요소 및/또는 더 적은 수의 구성요소가 제공될 수도 있다. 도 4의 시스템(400)에 대한 설명은 일반적으로 도 5의 시스템(500)에 적용되며, 차이점의 예가 다른 설명과 함께 여기에 제공된다.In some embodiments, a snapshot may be taken after non-estimation correction is performed. 5 illustrates an example system 500 for facilitating image non-uniformity mitigation in accordance with one or more embodiments of the present disclosure. However, not all illustrated components are required, and one or more embodiments may include additional components not shown in the drawings. Changes in the arrangement and type of elements may be made without departing from the spirit or scope of the claims set forth herein. Additional components, other components, and/or fewer components may be provided. The description of system 400 of FIG. 4 applies generally to system 500 of FIG. 5, examples of differences are provided herein along with other descriptions.

시스템(500)에서, 주 처리 경로는 보정된 이미지 데이터(510)(예를 들어, 불균일 보정된 이미지 데이터)를 얻기 위해 이미지 데이터(505)에 대해 불균일 보정을 수행하는 것을 포함한다. 이미지 데이터(505) 및 보정된 이미지 데이터(510)는 각각 이미지를 포함할 수 있다. 일부 경우에, 이미지 데이터(505)는 이득 및/또는 오프셋이 적용된 이미지를 포함할 수 있다.In system 500 , a primary processing path includes performing non-uniformity correction on image data 505 to obtain corrected image data 510 (eg, non-uniformity corrected image data). The image data 505 and the corrected image data 510 may each include an image. In some cases, image data 505 may include an image to which gains and/or offsets have been applied.

주 처리 경로에서, 결합기 회로(515)는 이미지 데이터(505)를 수신하고 스케일링된 SFFC 맵을 이미지 데이터(505)에 적용하여 보정된 이미지 데이터(510)를 얻는다. 결합기 회로(515)는 이미지 데이터(505)의 이미지들로부터 스케일링된 SFFC 맵을 빼서 보정된 이미지 데이터(510)의 이미지를 얻는다. 결합기 회로(520)는 이전 감쇠된 스케일링 항(Pprev -d)을 SFFC 맵(525)에 적용하여 스케일링된 SFFC 맵을 얻는다. 이전 감쇠된 스케일링 항(Pprev -d)은 감쇠 회로(565)에 의해 감쇠된 스케일링 항의 이전 값(Pprev)일 수 있다. 스케일링 항의 이전 값(Pprev)은 이미지 데이터(505)로부터 취한 이전 스냅샷(예를 들어, 이미지(530)로부터 이전 시간 인스턴스로부터의 스냅샷)에 대한 비용 함수를 최소화하기 위해 최소화 회로(555)에 의해 결정된 값일 수 있다.In the main processing path, combiner circuit 515 receives image data 505 and applies the scaled SFFC map to image data 505 to obtain corrected image data 510 . The combiner circuit 515 subtracts the scaled SFFC map from the images of the image data 505 to obtain an image of the corrected image data 510 . The combiner circuit 520 applies the previous attenuated scaling term (P prev -d ) to the SFFC map 525 to obtain a scaled SFFC map. The previous attenuated scaling term (P prev -d ) may be a previous value (P prev ) of the attenuated scaling term by the attenuation circuit 565 . The previous value of the scaling term (P prev ) is computed by a minimization circuit 555 to minimize a cost function for a previous snapshot taken from image data 505 (eg, a snapshot from a previous time instance from image 530 ). may be a value determined by

보정된 이미지 데이터(510)의 이미지(530)는 (예를 들어, 보정된 이미지 데이터(510)의 스냅샷으로서) 백그라운드 처리 경로에 제공될 수 있다. 크로핑 회로(535)는 이미지(530)를 수신하고, 결함 데이터(540)에 기초하여 이미지(530)를 잘라 잘린 이미지(545)를 얻는다. 결함 데이터(540)는 이미지(530) 내 결함에 관한 위치, 크기 및/또는 다른 데이터를 나타내는 데이터를 포함할 수 있다. 잘린 이미지(545)에 대응하는(예, 크기, 위치 및 형상에서) SFFC 맵(525)의 일부는 크롭 SFFC 맵(550)을 제공하기 위해 잘린다. 크롭 이미지(545) 및 크롭 SFFC 맵(550)은 다른 크기 및/또는 모양(예: 직사각형이 아닌 지도/이미지)일 수 있다. The image 530 of the corrected image data 510 may be provided to the background processing path (eg, as a snapshot of the corrected image data 510 ). The cropping circuit 535 receives the image 530 , and crops the image 530 based on the defect data 540 to obtain a cropped image 545 . Defect data 540 may include data indicative of location, size, and/or other data relating to defects in image 530 . A portion of the SFFC map 525 corresponding to the cropped image 545 (eg, in size, location and shape) is cropped to provide a cropped SFFC map 550 . The cropped image 545 and cropped SFFC map 550 may be of different sizes and/or shapes (eg, non-rectangular maps/images).

최소화 회로(555)는 크롭 이미지(545) 및 불균일 SFFC 맵(550)을 수신하고 스칼라 값 P를 반복적으로 조정하여 비용 함수 FVAL(P)을 최소화한다. 일 실시형태에서, 비용 함수는 다음에 의해 제공될 수 있다: Minimization circuitry 555 receives crop image 545 and non-uniformity SFFC map 550 and iteratively adjusts scalar value P to minimize cost function FVAL(P). In one embodiment, the cost function may be provided by:

Figure pat00013
Figure pat00013

여기서

Figure pat00014
는 크롭 이미지(545)이고 NU(예를 들어, 불균일 추정)는 크롭 SFFC 맵(550)이다. here
Figure pat00014
is a cropped image 545 and NU (eg, non-uniformity estimation) is a cropped SFFC map 550 .

결합기 회로(560)는 최소화 회로(555)로부터 스케일링 항(P)을 수신하고 이를 스칼라 항의 이전 감쇠된 값(Pprev -d)과 결합하여 스칼라 항의 새로운 값(Pnew)을 얻는다. 결합기 회로(560)는 이전 감쇠된 값(Pprev -d)을 최소화 회로(555)로부터의 값(P)에 더하여 스케일링 항의 새로운 값(Pnew)을 얻는다. 감쇠 회로(565)는 스케일링 항의 값들(Pnew, Pprev -d)을 수신하여 감쇠된 새로운 값(Pnew -d)을 얻는다(도 5에서 명시적으로 표시되지 않음). 감쇠된 새로운 값(Pnew -d)은 이미지 데이터(505)의 이미지를 보정하기 위한 SFFC 맵(525)을 스케일링하기 위해 결합기 회로(520)에 제공될 수 있다. 감쇠된 새로운 값(Pnew -d)은 감쇠 회로(565) 및 결합기 회로(560)에 제공될 수 있다. 감쇠된 새로운 값(Pnew -d)은 이미지(530)에 후속하는 이미지에 적용될 수 있다. 도 4의 시스템(500)에서는 최소화 회로(445)로부터의 값(P)이 SFFC 맵(435)을 스케일링하는데 감쇠되어 사용되는 반면, 도 5의 시스템(500)에서는 최소화 회로(555)로부터의 값(P)은 SFFC 맵(525)을 스케일링하기 위해 직접 감쇠되어 사용되지 않는다. The combiner circuit 560 receives the scaling term P from the minimization circuit 555 and combines it with the previous attenuated value of the scalar term P prev -d to obtain a new value of the scalar term P new . The combiner circuit 560 adds the previously attenuated value P prev -d to the value P from the minimization circuit 555 to obtain a new value P new of the scaling term. The attenuation circuit 565 receives the values of the scaling terms (P new , P prev -d ) and obtains an attenuated new value (P new -d ) (not explicitly indicated in FIG. 5 ). The attenuated new value P new -d may be provided to the combiner circuit 520 to scale the SFFC map 525 for correcting the image of the image data 505 . The attenuated new value P new -d may be provided to the attenuation circuit 565 and the combiner circuit 560 . The attenuated new value P new -d may be applied to an image subsequent to image 530 . In the system 500 of FIG. 4 , the value P from the minimization circuit 445 is attenuated and used to scale the SFFC map 435 , whereas in the system 500 of FIG. 5 the value from the minimization circuit 555 is used. (P) is not directly attenuated and used to scale the SFFC map 525 .

도 6은 본 개시의 하나 이상의 실시형태에 따라 비용 함수 FVAL(P)을 최소화하기 위해 스칼라 값 P를 반복적으로 조정하기 위한 예시적인 시스템(600)을 도시한다. 시스템(600)이 도 1의 이미징 시스템(100)과 도 4 및 5와 관련하여 설명된 예시적인 비용 함수를 참조하여 여기에서 주로 설명되지만, 시스템(600)은 다른 시스템 및/또는 다른 비용 함수와 관련하여 수행될 수 있다. 6 illustrates an example system 600 for iteratively adjusting a scalar value P to minimize a cost function FVAL(P) in accordance with one or more embodiments of the present disclosure. Although system 600 is primarily described herein with reference to imaging system 100 of FIG. 1 and the exemplary cost functions described in connection with FIGS. 4 and 5 , system 600 may be used with other systems and/or other cost functions. can be performed in relation to

크롭 SFFC 맵(605)(NU로 표시됨) 및 스케일링 항(P)이 결합기 회로(610)에 제공된다. 결합기 회로(610)는 크롭 SFFC 맵(605)에 스케일링 항(P)을 곱하여 스케일링된 크롭 SFFC 맵(P x NU)을 얻는다. 크롭 이미지(615)((

Figure pat00015
으로 표시)와 스케일링된 크롭 SFFC 맵이 결합기 회로(620)에 제공된다. 크롭 SFFC 맵(605), 스케일링 된 크롭 SFFC 맵, 및 크롭 이미지(615)는 동일한 크기이다. 비제한적인 예로서, 크롭 SFFC 맵(605), 스케일링된 크롭 SFFC 맵, 및 크롭 이미지(615)는 32픽셀 × 32픽셀, 64픽셀 × 64픽셀, 32픽셀 × 64픽셀, 또는 다른 크기일 수 있다. 크롭 SFFC 맵(605), 스케일링된 크롭 SFFC 맵, 및 크롭 이미지(615)는 다른 크기 및/또는 모양(예를 들어, 직사각형이 아닌 맵/이미지)일 수 있다. 결합기 회로(620)는 크롭 SFFC 맵(605)으로부터 스케일링된 크롭 SFFC 맵을 감산하여
Figure pat00016
를 얻는다.A crop SFFC map 605 (denoted NU) and a scaling term P are provided to a combiner circuit 610 . The combiner circuit 610 multiplies the cropped SFFC map 605 by the scaling term P to obtain a scaled cropped SFFC map (P x NU). Cropped image(615)((
Figure pat00015
) and the scaled cropped SFFC map are provided to the combiner circuit 620 . The cropped SFFC map 605 , the scaled cropped SFFC map, and the cropped image 615 are the same size. As a non-limiting example, the cropped SFFC map 605, the scaled cropped SFFC map, and the cropped image 615 may be 32 pixels by 32 pixels, 64 pixels by 64 pixels, 32 pixels by 64 pixels, or other sizes. . The cropped SFFC map 605 , the scaled cropped SFFC map, and the cropped image 615 may be of different sizes and/or shapes (eg, non-rectangular maps/images). The combiner circuit 620 subtracts the scaled cropped SFFC map from the cropped SFFC map 605 to
Figure pat00016
get

Figure pat00017
는 보정된 이미지로 지칭될 수 있고(예를 들어, 보정된 크롭 이미지 또는 보정된 이미지 부분으로도 지칭됨) 크롭 이미지(615)로부터 스케일링된 크롭 SFFC 맵을 감산하여 형성된다.
Figure pat00017
may be referred to as a corrected image (eg, also referred to as a corrected cropped image or corrected image portion) and is formed by subtracting the scaled cropped SFFC map from the cropped image 615 .

비용 함수 계산회로(625)는

Figure pat00018
를 이용하여 비용 함수의 값을 계산한다. 일 실시형태에서, 비용 함수는 다음에 의해 제공될 수 있다: The cost function calculation circuit 625 is
Figure pat00018
is used to calculate the value of the cost function. In one embodiment, the cost function may be provided by:

Figure pat00019
Figure pat00019

스칼라 값 조정회로(630)는 비용 함수 계산회로(625)로부터 값 FVAL(P)을 수신하고 스케일링 항(P)을 조정한다. 이러한 조정은 비용 함수 FVAL(P)을 줄이는 P 값을 제공하는 것이다. 조정된 스칼라 값은 스칼라 값 조정회로(630)에 의해 결합기 회로(610)에 제공된다. 그 후 시스템(600)은 비용 함수 FVAL(P)을 최소화하는 P의 값을 향해 수렴하도록 P를 반복적으로 조정하도록 다시 수행될 수 있다. 이 반복 접근 방식에서, 불균일 추정 부분(NU)은 고정되는 반면 스칼라 값 P는 반복적으로 갱신된다.The scalar value adjustment circuit 630 receives the value FVAL(P) from the cost function calculation circuit 625 and adjusts the scaling term P. This adjustment is to provide a value of P that reduces the cost function FVAL(P). The adjusted scalar value is provided to the combiner circuit 610 by the scalar value adjustment circuit 630 . System 600 may then be performed again to iteratively adjust P to converge toward a value of P that minimizes the cost function FVAL(P). In this iterative approach, the non-uniformity estimation part (NU) is fixed while the scalar value P is iteratively updated.

도 7은 본 개시의 하나 이상의 실시형태에 따른 이미지 불균일 완화를 용이하게 하기 위한 예시적인 프로세스(700)의 흐름도를 도시한다. 본 명세서에서 프로세스(700)가 주로 도 1, 4 및 도 5의 시스템(100, 400, 500)을 참조하여 설명을 위해 설명되지만, 프로세스(700)는 이미지 불균일 완화를 위한 다른 시스템과 관련하여 수행될 수도 있다. 도 7의 하나 이상의 동작은 원하는 대로 결합, 생략, 및/또는 다른 순서로 수행될 수 있다.7 depicts a flow diagram of an example process 700 for facilitating image non-uniformity mitigation in accordance with one or more embodiments of the present disclosure. Although process 700 is described herein for illustrative purposes primarily with reference to systems 100 , 400 , 500 of FIGS. 1 , 4 and 5 , process 700 is performed in connection with other systems for image non-uniformity mitigation. it might be One or more operations of FIG. 7 may be combined, omitted, and/or performed in a different order as desired.

블록(705)에서, 이미지 검출기 회로(165)는 이미지 검출기 회로(165)에 의해 수신된 방사선(예를 들어, 적외선)에 응답하여 이미지 데이터(예를 들어, 열 이미지 데이터)를 캡처한다. 이와 관련하여, 이미지 검출기 회로(165)에 도달하기 위해, 상기 방사선은 이미지 검출기 회로(165)에 의해 수신되도록 이미징 시스템(100)의 광학 경로를 통해 전파될 수 있다. 일부 경우에, 이미지 검출기 회로(165) 및/또는 이미지 검출기 회로(165)에 결합된 회로는 방사선을 전기 신호(예를 들어, 전압, 전류 등)로 변환하고 이 전기 신호를 기반으로 픽셀 값을 생성한다. 일 양태에서, 이미지 검출기 회로(165) 및/또는 관련 회로에 의해 생성된 픽셀 값은 검출된 적외선을 변환함으로써 얻어진 전기 신호에 기초하여 생성된 디지털 숫자 값으로 표현될 수 있다. 예를 들어, 이미지 검출기 회로(165)가 ADC 회로를 포함하거나 ADC 회로에 결합되는 경우, ADC 회로는 전기 신호에 기초하여 디지털 숫자 값을 생성할 수 있다. 14비트를 사용하여 전기적 신호를 표현할 수 있는 ADC 회로의 경우, 디지털 숫자 값의 범위는 0에서 16,383 사이일 수 있다.At block 705 , image detector circuitry 165 captures image data (eg, thermal image data) in response to radiation (eg, infrared light) received by image detector circuitry 165 . In this regard, to reach image detector circuitry 165 , the radiation may propagate through the optical path of imaging system 100 to be received by image detector circuitry 165 . In some cases, image detector circuitry 165 and/or circuitry coupled to image detector circuitry 165 converts radiation into electrical signals (eg, voltages, currents, etc.) and generates pixel values based on the electrical signals. create In one aspect, the pixel values generated by the image detector circuitry 165 and/or related circuitry may be represented as digital numeric values generated based on electrical signals obtained by converting the detected infrared rays. For example, if the image detector circuit 165 includes or is coupled to an ADC circuit, the ADC circuit may generate a digital numeric value based on the electrical signal. In the case of an ADC circuit that can represent an electrical signal using 14 bits, the range of digital numeric values can be between 0 and 16,383.

블록(710)에서, 처리 구성요소(105)는 이미지 데이터에 기초하여 이미지를 결정한다. 일 양태에서, 처리 구성요소(105)는 이미지를 얻기 위해 이미지 데이터에 이득 및/또는 오프셋을 적용할 수 있다. 일부 경우에, 처리 구성요소(105)는 이미지 인터페이스(120)를 통해 이미지 데이터를 수신할 수 있다. 일 예로서, 이미지 데이터는 이미지 캡처 구성요소(115)로부터 수신될 수 있다. 다른 예로서, 이미지 데이터는 이미징 시스템(100) 외부의 이미지 캡처 구성요소 및/또는 이미징 시스템(100)의 메모리 또는 캡처된 이미지 데이터를 저장하는 다른 시스템으로부터 수신되거나 검색될 수 있다.At block 710 , the processing component 105 determines an image based on the image data. In an aspect, the processing component 105 may apply a gain and/or an offset to the image data to obtain an image. In some cases, processing component 105 may receive image data via image interface 120 . As an example, image data may be received from the image capture component 115 . As another example, image data may be received or retrieved from an image capture component external to imaging system 100 and/or memory of imaging system 100 or other system that stores captured image data.

블록(715)에서, 처리 구성요소(105)는 이미지에서 식별된 결함에 기초하여 이미지를 잘라내어 크롭 이미지를 얻는다. 일 양태에서, 결함은 (예를 들어, 인간의 눈에 의한 시각적 검사를 통해) 이미징 시스템(100)의 사용자 및/또는 기계에 의해 결정/식별될 수 있다. 예를 들어, 사용자는 이미지에서 결함 위치(예를 들어, 그 이미지를 둘러싸는 이미지 내의 픽셀)를 나타내기 위해 처리 구성요소(105)에 입력을 제공할 수 있다. 일부 경우에는 결함은 이미지에서 최악의 결함일 수 있다. 일부 경우에, 이미지에 결함이 없다면, 이미지 내의 임의의 위치가 0의 스케일링 항을 계산하도록 처리 구성요소(105)로 제공될 수 있다. 예를 들어, 사용자는 상기 잘라내기를 수행하고, 이어서 스케일링 항(P)을 결정하기 위해 이미지 내의 임의의 위치를 선택할 수 있다. 최소화 프로세스의 최종 결과는 크롭 이미지에 결함이 없기 때문에 0 스케일링 항으로 이어진다. 스케일링 항(P)이 0인 경우, 불균일 보정이 0으로 설정되고 이미지는 프로세스(700)를 수행함으로써 불리하게 영향을 받지 않는다. 블록(720)에서, 처리 구성요소(105)는 크롭 이미지에 따라 불균일 맵(예를 들어, SFFC 맵)을 잘라내어 크롭 불균일 맵을 얻는다. 이미지에서 결함의 위치에 대응하는 위치에서 불균일 맵을 잘라 낼 수 있다. 크롭 불균일 맵은 크롭 이미지와 동일한 크기, 모양 및 위치와 연관된다. At block 715 , the processing component 105 crops the image based on the identified defects in the image to obtain a cropped image. In an aspect, a defect may be determined/identified by a user and/or machine of the imaging system 100 (eg, via visual inspection by a human eye). For example, a user may provide an input to the processing component 105 to indicate a defect location in an image (eg, a pixel in an image that surrounds the image). In some cases, a defect may be the worst defect in the image. In some cases, if the image is free of defects, any location within the image may be provided to the processing component 105 to compute a scaling term of zero. For example, the user may perform the cropping and then select any location within the image to determine the scaling term (P). The end result of the minimization process leads to a zero scaling term because the cropped image has no defects. If the scaling term P is zero, the non-uniformity correction is set to zero and the image is not adversely affected by performing process 700 . At block 720, the processing component 105 crops the non-uniformity map (eg, SFFC map) according to the crop image to obtain a crop non-uniformity map. The non-uniformity map can be cut out at positions corresponding to the positions of the defects in the image. The crop non-uniformity map is associated with the same size, shape and position as the crop image.

블록(725)에서, 처리 구성요소(105)는 비용 함수에 기초하여 스케일링 항(P)의 값을 결정한다. 일 양태에서, 처리 구성요소(105)는 비용 함수를 최소화하는 스케일링 항(P)의 값을 결정하기 위해 최소화를 수행할 수 있다. 비용 함수의 값은 스케일링 항(P)과 크롭 불균일 추정치가 크롭 이미지에 적용된 후 보정된 이미지의 픽셀 값들 간의 변동에 기초할 수 있다. 일 양태에서, 비용 함수의 값은 불균일 보정 후 이미지의 품질과 연관될 수 있다. 일 실시형태에서, 비용 함수 FVAL(P)은 다음과 같이 제공될 수 있다:At block 725 , the processing component 105 determines a value of the scaling term P based on the cost function. In an aspect, the processing component 105 may perform a minimization to determine a value of the scaling term P that minimizes the cost function. The value of the cost function may be based on the variation between the pixel values of the corrected image after the scaling term (P) and the crop non-uniformity estimate are applied to the crop image. In an aspect, the value of the cost function may be associated with the quality of the image after non-uniformity correction. In one embodiment, the cost function FVAL(P) may be provided as:

Figure pat00020
Figure pat00020

블록(730)에서, 처리 구성요소(105)는 스케일링 항(P)에 기초하여 불균일 맵을 스케일링하여 스케일링된 불균일 맵을 얻는다. 일 양태에서, 불균일 맵은 스케일링 항(P)에 의해 곱해질 수 있다. 이러한 시스템(400)에서와 같은 양태에서, 스케일링 항(P)은 감쇠된 스케일링 항(Pdamp)을 얻기 위해 감쇠되고 이 감쇠된 스케일링 항(Pdamp)은 불균일성 맵에 직접 적용된다. 예를 들어, 불균일 맵은 스케일링된 불균일 맵을 얻기 위해 스케일링 항(P)에 의해 곱해진다(예를 들어, 스케일링된다). 시스템(500)에서와 같은 양태에서, 스케일링 항(P)은 새로운 스케일링 항(Pnew)을 얻기 위해 이전 스케일링 항(Pprev)에 기초하여 조정될 수 있다. 새로운 스케일링 항(Pnew)은 불균일 맵에 적용될 수 있거나, 새로운 스케일링 항(Pnew)은 감쇠된 후 불균일 맵에 적용될 수 있다.At block 730, the processing component 105 scales the non-uniformity map based on the scaling term P to obtain a scaled non-uniformity map. In an aspect, the non-uniformity map may be multiplied by a scaling term (P). In an aspect as in this system 400 , the scaling term P is attenuated to obtain an attenuated scaling term P damp and this attenuated scaling term P damp is applied directly to the non-uniformity map. For example, the non-uniformity map is multiplied (eg, scaled) by the scaling term P to obtain a scaled non-uniformity map. In an aspect as in system 500 , the scaling term P may be adjusted based on the previous scaling term P prev to obtain a new scaling term P new . A new scaling term (P new ) may be applied to the non-uniformity map, or a new scaling term (P new ) may be applied to the non-uniformity map after being attenuated.

블록(735)에서, 처리 구성요소(105)는 상기 스케일링된 불균일 맵을 하나 이상의 이미지에 적용하여 하나 이상의 불균일 보정된 이미지를 얻는다. 일부 경우에, 스케일링된 불균일 맵은 블록(705)에서 캡처된 이미지 데이터에 후속하여 캡처된 이미지 데이터에 적용된다. 일부 경우에, 스케일링된 불균일 맵은 블록(710)에서 결정된 이미지에 적용된다. 일 양태에서, 불균일 보정된 이미지(들)는 추가 처리되고(예를 들어, 시간적 및/또는 공간적 필터링, 적외선 이미지를 위한 방사선 변환 작업 등과 같은 주 처리 경로에서의 후속 처리), 저장되고, 및/또는 표시될 수 있다. 일부 실시형태들에서, 스케일링 항은 백그라운드 프로세스로서가 아니라 주 처리 경로에서 프레임마다(예를 들어, 실시간으로) 결정될 수 있다. 일부 경우에, 스케일링 항(P)에 기초한 불균일 보정 이후 또는 이전에, 저주파 음영 감소가 수행될 수 있다(예를 들어, 필드 방사 조도로부터의 대규모 음영 보정을 완화하기 위해).At block 735, the processing component 105 applies the scaled non-uniformity map to one or more images to obtain one or more non-uniformity corrected images. In some cases, the scaled non-uniformity map is applied to the captured image data subsequent to the captured image data at block 705 . In some cases, the scaled non-uniformity map is applied to the image determined at block 710 . In one aspect, the non-uniformity corrected image(s) are further processed (eg, temporal and/or spatial filtering, subsequent processing in the main processing path, such as a radiation conversion operation for an infrared image, etc.), stored, and/or or may be displayed. In some embodiments, the scaling term may be determined frame by frame (eg, in real time) in the main processing path rather than as a background process. In some cases, low-frequency shading reduction may be performed (eg, to mitigate large-scale shading correction from field irradiance) after or before non-uniformity correction based on the scaling term P.

시스템(400, 500, 700)은 주로 이미지 데이터가 캡처되고 불균일성 보정이 수행되는 상황에서 설명되지만(예를 들어, 이미지 데이터가 캡처될 때 스냅샷에 대해 스케일링 항(P)이 거의 실시간으로 생성됨), 상기 시스템(400, 500, 700)은 이전에 캡처/생성되고(예를 들어, 적절한 기능을 가진 임의의 이미징 시스템에 의해) 저장된 이미지 데이터 및/또는 이미지를 위해 스케일링 항(P)을 생성할 수 있고 및/또는 불균일 보정을 수행할 수 있다. 상기 저장된 이미지 데이터 및/또는 이미지(예를 들어, 저장된 스냅샷 및/또는 비디오 클립) 및 관련 데이터는 나중 시점에 처리하기 위해 액세스/검색될 수 있다. 상기 관련 데이터는 이미지 데이터에 추가된 헤더에 제공된 및/또는 그렇지 않으면 이미지 데이터 및/또는 이미지와의 데이터 연관의 적절한 표시와 함께 저장된 메타데이터를 포함할 수 있다. 예를 들어, 상기 메타데이터는 이미지가 캡처될 때 이미징 시스템(100)의 동작 온도, 이미지 데이터가 캡처된 날짜 및 시간, 및/또는 기타 데이터와 같은 동작 조건을 포함할 수 있다. Although systems 400, 500, and 700 are primarily described in situations where image data is captured and non-uniformity correction is performed (e.g., a scaling term (P) is generated for a snapshot when image data is captured in near real-time) , the system 400, 500, 700 may generate a scaling term P for previously captured/generated (eg, by any imaging system with appropriate functionality) and/or stored image data and/or images. and/or perform non-uniformity correction. The stored image data and/or images (eg, stored snapshots and/or video clips) and related data may be accessed/retrieved for processing at a later point in time. The related data may include metadata provided in a header appended to the image data and/or otherwise stored with an appropriate indication of the image data and/or data association with the image. For example, the metadata may include operating conditions such as the operating temperature of the imaging system 100 when the image was captured, the date and time the image data was captured, and/or other data.

도 8a는 결함(점선 타원(805, 810, 815)으로 둘러싸여 있으며 결함(805, 810, 815)이라고도 함)을 갖는 이미지를 도시한다. 도 8b는 본 개시내용의 하나 이상의 실시형태에 따라 도 8a의 이미지에 대해 불균일 완화를 수행하여 얻어진 이미지를 나타낸다. 한 경우에, 불균일 완화는, 하나 이상의 실시형태에 따라, 결함(805)의 위치에서 이미지를 잘라내고(예를 들어, 결함(805)는 최악의 결함으로 간주됨), SFFC 맵의 해당 부분을 잘라내고, 비용 함수를 사용하여 스케일링 항을 결정하는 등에 기초한다. 결함(805)에 기초하여 결정된 스케일링 항은 결함(810, 815)뿐만 아니라 결함(805)을 완화하기 위해 도 8a의 이미지에 적용 가능한 불균일 추정치를 제공한다. 일부 경우에, 도 8a 및 도 8b의 이미지의 모서리에서 음영을 제거하기 위해 저주파 음영 감소가 수행될 수 있다.8A shows an image with defects (surrounded by dotted ellipses 805, 810, and 815, also referred to as defects 805, 810, and 815). 8B illustrates an image obtained by performing non-uniformity mitigation on the image of FIG. 8A in accordance with one or more embodiments of the present disclosure. In one case, non-uniformity mitigation, in accordance with one or more embodiments, crops the image at the location of the defect 805 (eg, the defect 805 is considered the worst defect), and slices that portion of the SFFC map. based on truncation, using a cost function to determine a scaling term, and so on. The scaling term determined based on the defects 805 provides a non-uniformity estimate applicable to the image of FIG. 8A to mitigate the defects 810 and 815 as well as the defects 805 . In some cases, low frequency shading reduction may be performed to remove shading from the corners of the images of FIGS. 8A and 8B .

적용 가능한 경우, 본 개시에 의해 제공되는 다양한 실시형태는 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합을 사용하여 구현될 수 있다. 또한, 적용 가능한 경우, 여기에 설명된 다양한 하드웨어 구성요소 및/또는 소프트웨어 구성요소는 본 개시내용의 사상을 벗어나지 않고 소프트웨어, 하드웨어, 및/또는 둘 다를 포함하는 복합 구성요소로 결합될 수 있다. 적용 가능한 경우, 여기에 설명된 다양한 하드웨어 구성요소 및/또는 소프트웨어 구성요소는 본 개시내용의 사상을 벗어나지 않고 소프트웨어, 하드웨어, 또는 둘 다를 포함하는 하위 구성요소들로 분리될 수 있다. 또한, 적용 가능한 경우, 소프트웨어 구성요소가 하드웨어 구성요소로서 구현될 수 있고 그 반대도 마찬가지인 것이 고려된다. Where applicable, the various embodiments provided by this disclosure may be implemented using hardware, software, or a combination of hardware and software. Also, where applicable, various hardware components and/or software components described herein may be combined into complex components comprising software, hardware, and/or both without departing from the spirit of the present disclosure. Where applicable, various hardware components and/or software components described herein may be separated into subcomponents comprising software, hardware, or both without departing from the spirit of the present disclosure. Also, where applicable, it is contemplated that software components may be implemented as hardware components and vice versa.

비 일시적 명령어, 프로그램 코드, 및/또는 데이터와 같은 본 발명에 따른 소프트웨어는 하나 이상의 비 일시적 기계판독 가능 매체에 저장될 수 있다. 여기에서 식별된 소프트웨어는 하나 이상의 범용 또는 전용 컴퓨터 및/또는 컴퓨터 시스템, 네트워크 및/또는 기타를 사용하여 구현될 수 있음이 또한 고려된다. 적용 가능한 경우, 여기에 설명된 다양한 단계의 순서는 변경될 수 있고, 복합 단계로 결합되고, 및/또는 여기에 설명된 기능을 제공하기 위해 하위 단계로 분리될 수 있다. Software according to the present invention, such as non-transitory instructions, program code, and/or data, may be stored on one or more non-transitory machine-readable media. It is also contemplated that the software identified herein may be implemented using one or more general purpose or special purpose computers and/or computer systems, networks, and/or the like. Where applicable, the order of the various steps described herein may be varied, combined into multiple steps, and/or separated into substeps to provide the functionality described herein.

전술한 설명은 본 개시내용을 개시된 정확한 형태 또는 특정 사용 분야로 제한하도록 의도되지 않는다. 위에서 설명된 실시형태는 본 발명을 예시하지만 제한하지 않는다. 본 명세서에 명시적으로 기술되거나 암시되든지 간에, 본 발명에 대한 다양한 대안적인 실시형태 및/또는 수정이 본 개시의 관점에서 가능하다는 것이 고려된다. 따라서, 본 발명의 범위는 다음의 청구범위에 의해서만 정해진다. The foregoing description is not intended to limit the disclosure to the precise form disclosed or to the particular field of use. The embodiments described above illustrate, but do not limit, the present invention. It is contemplated that various alternative embodiments and/or modifications to the invention, whether expressly described or implied herein, are possible in light of the present disclosure. Accordingly, the scope of the present invention is defined only by the following claims.

Claims (21)

제1 이미지 내의 결함에 기초하여 상기 제1 이미지를 잘라내어 제1 크롭 이미지(cropped image)를 얻는 단계;
상기 제1 이미지 내의 결함을 기초로 보충적 플랫 필드 보정(SFFC) 맵을 잘라내어 제1 크롭 SFFC 맵을 얻는 단계;
적어도 비용 함수, 상기 제1 크롭 이미지, 및 상기 제1 크롭 SFFC 맵에 기초하여 스케일링 항의 제1 스케일링 값을 결정하는 단계; 및
상기 제1 스케일링 값을 기초로 상기 SFFC 맵을 스케일링하여 제1 스케일링된 SFFC 맵을 얻는 단계를 포함하는, 이미지 불균일 완화 방법.
cropping the first image based on a defect in the first image to obtain a first cropped image;
cropping a supplemental flat field correction (SFFC) map based on the defects in the first image to obtain a first cropped SFFC map;
determining a first scaling value of a scaling term based at least on a cost function, the first cropped image, and the first cropped SFFC map; and
and scaling the SFFC map based on the first scaling value to obtain a first scaled SFFC map.
제1항에 있어서,
상기 스케일링된 SFFC 맵을 하나 이상의 이미지에 적용하는 단계를 더 포함하는, 이미지 불균일 완화 방법.
According to claim 1,
and applying the scaled SFFC map to one or more images.
제2항에 있어서,
상기 하나 이상의 이미지는 상기 제1 이미지를 포함하는, 이미지 불균일 완화 방법.
3. The method of claim 2,
wherein the one or more images include the first image.
제1항에 있어서,
초점 평면 어레이에 의해, 이미지 데이터를 캡처하는 단계; 및
상기 제1 이미지를 얻기 위해 상기 이미지 데이터를 처리하는 단계로서, 상기 처리는 이득 및 오프셋 중 적어도 하나를 상기 이미지 데이터에 적용하는 것을 포함하는, 단계;
를 추가로 포함하는, 이미지 불균일 완화 방법.
According to claim 1,
capturing image data by the focal plane array; and
processing the image data to obtain the first image, the processing comprising applying at least one of a gain and an offset to the image data;
Further comprising a, image non-uniformity mitigation method.
제4항에 있어서,
상기 초점 평면 어레이는 복수의 적외선 검출기를 포함하는, 이미지 불균일 완화 방법.
5. The method of claim 4,
wherein the focal plane array comprises a plurality of infrared detectors.
제1항에 있어서,
감쇠된 스케일링 값을 얻기 위해 상기 제1 스케일링 값에 감쇠 인자를 적용하는 단계를 더 포함하고, 상기 스케일링은 상기 감쇠된 스케일링 값에 기초하는, 이미지 불균일 완화 방법.
According to claim 1,
and applying an attenuation factor to the first scaling value to obtain an attenuated scaling value, wherein the scaling is based on the attenuated scaling value.
제1항에 있어서,
제1 스케일링 값을 결정하는 상기 단계는 상기 비용 함수를 최소화하는 상기 제1 스케일링 값을 얻기 위해 상기 스케일링 항의 값을 반복적으로 조정하는 과정을 포함하는, 이미지 불균일 완화 방법.
According to claim 1,
and determining a first scaling value comprises iteratively adjusting a value of the scaling term to obtain the first scaling value that minimizes the cost function.
제1항에 있어서,
상기 비용 함수는 상기 제1 크롭 이미지, 상기 스케일링 항의 값, 및 상기 제1 크롭 SFFC 맵에 기초하는, 이미지 불균일 완화 방법.
According to claim 1,
and the cost function is based on the first cropped image, the value of the scaling term, and the first cropped SFFC map.
제8항에 있어서,
상기 비용 함수는 상기 스케일링 항의 값에 의해 스케일링된 상기 제1 크롭 SFFC 맵과 상기 제1 크롭 이미지 차이의 구배(gradient)에 기초하는, 이미지 불균일 완화 방법.
9. The method of claim 8,
and the cost function is based on a gradient of a difference between the first cropped SFFC map and the first cropped image scaled by the value of the scaling term.
제1항에 있어서,
제2 크롭 이미지를 얻기 위해 제2 이미지 내의 결함에 기초하여 상기 제2 이미지를 잘라래는 단계;
제2 크롭 SFFC 맵을 얻기 위해 상기 제2 이미지 내의 결함에 기초하여 상기 SFFC 맵을 잘라내는 단계;
적어도 상기 비용 함수, 상기 제2 크롭 이미지, 및 상기 제2 크롭 SFFC 맵에 기초하여 상기 스케일링 항의 제2 스케일링 값을 결정하는 단계; 및
제2 스케일링된 SFFC 맵을 얻기 위해 적어도 상기 제2 스케일링 값에 기초하여 상기 SFFC 맵을 스케일링하는 단계;
를 더 포함하는, 이미지 불균일 완화 방법.
According to claim 1,
cropping the second image based on defects in the second image to obtain a second cropped image;
cropping the SFFC map based on defects in the second image to obtain a second cropped SFFC map;
determining a second scaling value of the scaling term based on at least the cost function, the second cropped image, and the second cropped SFFC map; and
scaling the SFFC map based at least on the second scaling value to obtain a second scaled SFFC map;
Further comprising, the image non-uniformity mitigation method.
제10항에 있어서,
상기 제2 스케일링된 SFFC 맵은 추가로 상기 제1 스케일링 값에 기초하는, 이미지 불균일 완화 방법.
11. The method of claim 10,
and the second scaled SFFC map is further based on the first scaling value.
제1항에 있어서,
상기 제1 이미지는 열 이미지를 포함하는, 이미지 불균일 완화 방법.
According to claim 1,
wherein the first image comprises a thermal image.
보충적 플랫 필드 보정(SFFC: Supplemental Flat Field Correction) 맵을 저장하도록 구성된 메모리; 그리고
제1 크롭 이미지를 얻기 위해 제1 이미지 내의 결함에 기초하여 상기 제1 이미지를 잘라내고; 제1 크롭 SFFC 맵을 얻기 위해 상기 제1 이미지 내의 결함에 기초하여 상기 SFFC 맵을 잘라내고; 적어도 비용 함수, 상기 제1 크롭 이미지, 및 상기 제1 크롭 SFFC 맵에 기초하여 스케일링 항의 제1 스케일링 값을 결정하고; 및 상기 제1 스케일링 값을 기초로 상기 SFFC 맵을 스케일링하여 제1 스케일링된 SFFC 맵을 얻도록 구성된, 처리 회로;
를 포함하는, 이미지 불균일 완화 시스템.
a memory configured to store a Supplemental Flat Field Correction (SFFC) map; and
crop the first image based on defects in the first image to obtain a first cropped image; crop the SFFC map based on defects in the first image to obtain a first cropped SFFC map; determine a first scaling value of a scaling term based on at least a cost function, the first cropped image, and the first cropped SFFC map; and a processing circuit configured to scale the SFFC map based on the first scaling value to obtain a first scaled SFFC map;
Including, image non-uniformity mitigation system.
제13항에 있어서,
상기 처리 회로는 상기 제1 스케일링된 SFFC 맵을 하나 이상의 이미지에 적용하도록 추가로 구성된, 이미지 불균일 완화 시스템.
14. The method of claim 13,
and the processing circuitry is further configured to apply the first scaled SFFC map to one or more images.
제13항에 있어서,
상기 처리 회로는 감쇠된 스케일링 값을 얻기 위해 상기 제1 스케일링 값에 감쇠 인자를 적용하도록 추가로 구성되고, 상기 처리 회로는 상기 감쇠된 스케일링 값에 기초하여 상기 SFFC 맵을 스케일링하도록 구성되는, 이미지 불균일 완화 시스템.
14. The method of claim 13,
the processing circuitry is further configured to apply an attenuation factor to the first scaling value to obtain an attenuated scaling value, and the processing circuitry is configured to scale the SFFC map based on the attenuated scaling value. mitigation system.
제13항에 있어서,
열 이미지 데이터를 캡처하도록 구성된 초점 평면 어레이를 더 포함하고, 상기 처리 회로는 상기 제1 이미지를 얻기 위해 상기 열 이미지 데이터에 이득 및 오프셋 중 적어도 하나를 적용하도록 추가로 구성되는, 이미지 불균일 완화 시스템.
14. The method of claim 13,
and a focal plane array configured to capture thermal image data, wherein the processing circuitry is further configured to apply at least one of a gain and an offset to the thermal image data to obtain the first image.
제16항에 있어서,
상기 초점 평면 어레이는 복수의 마이크로볼로미터를 포함하는, 이미지 불균일 완화 시스템.
17. The method of claim 16,
wherein the focal plane array comprises a plurality of microbolometers.
제13항에 있어서,
상기 처리 회로는 상기 비용 함수를 최소화하는 상기 제1 스케일링 값을 얻기 위해 상기 스케일링 항의 값을 반복적으로 조정함으로써 상기 제1 스케일링 값을 결정하도록 구성된, 이미지 불균일 완화 시스템.
14. The method of claim 13,
and the processing circuitry is configured to determine the first scaling value by iteratively adjusting a value of the scaling term to obtain the first scaling value that minimizes the cost function.
제13항에 있어서,
상기 비용 함수는 상기 제1 크롭 이미지, 상기 스케일링 항의 값, 및 상기 제1 크롭 SFFC 맵에 기초하는, 이미지 불균일 완화 시스템.
14. The method of claim 13,
and the cost function is based on the first cropped image, the value of the scaling term, and the first cropped SFFC map.
제13항에 있어서,
상기 처리 회로는,
제2 크롭 이미지를 얻기 위해 상기 제2 이미지 내의 결함에 기초하여 제2 이미지를 잘라내고,
제2 크롭 SFFC 맵을 얻기 위해 상기 제2 이미지 내의 결함에 기초하여 상기 SFFC 맵을 잘라내고;
적어도 상기 비용 함수, 상기 제2 크롭 이미지, 및 상기 제2 크롭 SFFC 맵에 기초하여 상기 스케일링 항의 제2 스케일링 값을 결정하고; 그리고
제2 스케일링된 SFFC 맵을 얻기 위해 적어도 상기 제2 스케일링 값에 기초하여 상기 SFFC 맵을 스케일링하도록 구성된, 이미지 불균일 완화 시스템.
14. The method of claim 13,
The processing circuit is
crop a second image based on defects in the second image to obtain a second cropped image;
crop the SFFC map based on defects in the second image to obtain a second cropped SFFC map;
determine a second scaling value of the scaling term based on at least the cost function, the second cropped image, and the second cropped SFFC map; and
and scale the SFFC map based at least on the second scaling value to obtain a second scaled SFFC map.
제20항에 있어서,
상기 제2 스케일링된 SFFC 맵은 추가로 상기 제1 스케일링 값에 기초하는, 이미지 불균일 완화 시스템.
21. The method of claim 20,
and the second scaled SFFC map is further based on the first scaling value.
KR1020220009261A 2021-02-12 2022-01-21 Image non-uniformity mitigation systems and methods KR102661043B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202163149210P 2021-02-12 2021-02-12
US63/149,210 2021-02-12

Publications (2)

Publication Number Publication Date
KR20220115866A true KR20220115866A (en) 2022-08-19
KR102661043B1 KR102661043B1 (en) 2024-04-25

Family

ID=

Similar Documents

Publication Publication Date Title
CN107836111B (en) System and method for enhanced dynamic range infrared imaging
US7880777B2 (en) Method for fixed pattern noise reduction in infrared imaging cameras
US20220217326A1 (en) Imager health monitoring systems and methods
US20230046320A1 (en) Non-uniformity correction calibrations in infrared imaging systems and methods
US11082641B2 (en) Display systems and methods associated with pulse detection and imaging
EP4012363A1 (en) Infrared imaging-related uncertainty gauging systems and methods
US20230063513A1 (en) Unit cell selection verification systems and methods
KR102661043B1 (en) Image non-uniformity mitigation systems and methods
EP4096216A1 (en) Temperature compensation in infrared imaging systems and methods
US20220141384A1 (en) Situational awareness-based image annotation systems and methods
KR20220115866A (en) Image non-uniformity mitigation systems and methods
EP4044587A1 (en) Image non-uniformity mitigation systems and methods
US10972648B2 (en) Pulse detection and synchronized pulse imaging systems and methods
US20240089610A1 (en) Stray light mitigation systems and methods
US20230058486A1 (en) Burn-in mitigation and associated imaging systems and methods
US20240048849A1 (en) Multimodal imager systems and methods with steerable fields of view
US20230131678A1 (en) Imager verification systems and methods
US20230069029A1 (en) Variable sensitivity in infrared imaging systems and methods
US20230160751A1 (en) Vacuum health detection for imaging systems and methods
US20220124261A1 (en) Imager optical systems and methods
US11882356B2 (en) Palette and infrared image generation systems and methods
WO2023101923A1 (en) Detection threshold determination for infrared imaging systems and methods
US20230140342A1 (en) Wide field of view imaging systems and methods
WO2021222665A1 (en) Imaging method and imaging device with unit cell selection verification

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right