KR102644944B1 - Image sensor and method to sense image - Google Patents

Image sensor and method to sense image Download PDF

Info

Publication number
KR102644944B1
KR102644944B1 KR1020180154741A KR20180154741A KR102644944B1 KR 102644944 B1 KR102644944 B1 KR 102644944B1 KR 1020180154741 A KR1020180154741 A KR 1020180154741A KR 20180154741 A KR20180154741 A KR 20180154741A KR 102644944 B1 KR102644944 B1 KR 102644944B1
Authority
KR
South Korea
Prior art keywords
lens
sensing
elements
image
size
Prior art date
Application number
KR1020180154741A
Other languages
Korean (ko)
Other versions
KR20200038835A (en
Inventor
강덕영
조양호
남동경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/394,822 priority Critical patent/US10924667B2/en
Priority to CN201910793309.3A priority patent/CN111009534A/en
Priority to JP2019171733A priority patent/JP2020060763A/en
Priority to EP19201368.8A priority patent/EP3633969B1/en
Publication of KR20200038835A publication Critical patent/KR20200038835A/en
Priority to US16/859,616 priority patent/US11375092B2/en
Application granted granted Critical
Publication of KR102644944B1 publication Critical patent/KR102644944B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses

Abstract

이미지 센싱 방법 및 이미지 센서가 제공된다. 일 실시예에 따른 이미지 센서는, 동일한 초점 거리를 가지면서 다양한 렌즈 크기를 가지는 렌즈 엘리먼트들을 통해 수신된, 다양한 시야각에 대응하는 센싱 정보들을 이용하여 높은 배율에 대해 고해상도 이미지를 복원할 수 있다.An image sensing method and image sensor are provided. An image sensor according to an embodiment can restore a high-resolution image at high magnification by using sensing information corresponding to various viewing angles received through lens elements having the same focal length and various lens sizes.

Description

이미지 센서 및 이미지 센싱 방법{IMAGE SENSOR AND METHOD TO SENSE IMAGE}Image sensor and image sensing method {IMAGE SENSOR AND METHOD TO SENSE IMAGE}

이하, 이미지를 센싱하는 기술이 제공된다.Below, a technology for sensing images is provided.

광학 기술 및 영상 처리 기술의 발달로 인해, 멀티미디어 컨텐츠, 보안 및 인식 등 광범위한 분야에 촬영 장치가 활용되고 있다. 예를 들어, 촬영 장치는 모바일 기기, 카메라, 차량 및 컴퓨터 등에 탑재되어, 영상을 촬영하거나, 객체를 인식하거나, 기기를 제어하기 위한 데이터를 획득할 수 있다. 촬영 장치의 부피는 렌즈의 사이즈, 렌즈의 초점 거리(focal length) 및 센서의 사이즈 등에 의해 결정될 수 있다. 예를 들어, 렌즈의 사이즈와 센서의 사이즈에 기반하여 촬영 장치의 부피가 조절될 수 있다. 센서의 사이즈가 감소함에 따라, 센서에 입사되는 광량이 감소할 수 있다. 이에 따라, 영상의 해상도가 낮아지거나, 저조도 환경에서의 촬영이 어려울 수 있다. 촬영 장치의 부피를 감소시키기 위해, 소형 렌즈들로 구성된 멀티 렌즈가 이용될 수 있다. 렌즈의 사이즈가 감소할 경우, 렌즈의 초점 거리가 줄어들 수 있다. 따라서, 멀티 렌즈를 통해 촬영 장치의 부피가 감소할 수 있다.Due to the development of optical technology and image processing technology, imaging devices are being used in a wide range of fields such as multimedia content, security, and recognition. For example, a photographing device may be mounted on a mobile device, camera, vehicle, or computer to capture data, recognize an object, or obtain data for controlling a device. The volume of the imaging device may be determined by the size of the lens, the focal length of the lens, and the size of the sensor. For example, the volume of the photographing device may be adjusted based on the size of the lens and sensor. As the size of the sensor decreases, the amount of light incident on the sensor may decrease. Accordingly, the resolution of the image may be lowered or shooting in a low-light environment may be difficult. To reduce the volume of the imaging device, a multi-lens composed of small lenses may be used. If the size of the lens is reduced, the focal length of the lens may be reduced. Therefore, the volume of the photographing device can be reduced through the use of multiple lenses.

일 실시예에 따른 이미지 센서는, 서로 동일한 초점 거리를 가지는 복수의 렌즈 엘리먼트들을 포함하는 렌즈 어레이; 및 상기 렌즈 어레이로부터 상기 초점 거리만큼 이격되고, 상기 렌즈 어레이를 통과한 빛을 센싱하는 복수의 센싱 엘리먼트들을 포함하고, 상기 복수의 렌즈 엘리먼트들 중 적어도 한 렌즈 엘리먼트의 렌즈 크기는 다른 렌즈 엘리먼트의 렌즈 크기와 다를 수 있다.An image sensor according to an embodiment includes a lens array including a plurality of lens elements having the same focal length; and a plurality of sensing elements spaced apart from the lens array by the focal length and sensing light passing through the lens array, wherein the lens size of at least one lens element among the plurality of lens elements is the lens of the other lens element. Size may vary.

상기 복수의 렌즈 엘리먼트들은 렌즈 크기에 따라 복수의 렌즈 그룹들로 분류되고, 서로 동일한 렌즈 그룹에 속하는 렌즈 엘리먼트들은 서로 동일한 렌즈 크기를 가지며, 서로 다른 렌즈 그룹에 속하는 렌즈 엘리먼트들은 서로 다른 렌즈 크기를 가질 수 있다.The plurality of lens elements are classified into a plurality of lens groups according to lens size, lens elements belonging to the same lens group have the same lens size, and lens elements belonging to different lens groups have different lens sizes. You can.

상기 복수의 렌즈 그룹들의 각각에 속하는 렌즈 엘리먼트의 개수는, 상기 복수의 렌즈 엘리먼트들이 공유하는 해상도에 기초하여 결정될 수 있다.The number of lens elements belonging to each of the plurality of lens groups may be determined based on the resolution shared by the plurality of lens elements.

서로 동일한 렌즈 그룹에 속하는 렌즈 엘리먼트들은 서로에 대해 인접하도록 배치될 수 있다.Lens elements belonging to the same lens group may be arranged adjacent to each other.

상기 복수의 렌즈 그룹들 중 한 렌즈 그룹은, 단일 렌즈 엘리먼트를 포함할 수 있다.One lens group among the plurality of lens groups may include a single lens element.

상기 복수의 렌즈 엘리먼트들 중 한 렌즈 엘리먼트 는 해당 렌즈 엘리먼트의 렌즈 크기보다 큰 렌즈 크기를 가지는 다른 렌즈 엘리먼트보다 상기 렌즈 어레이의 중심 위치에 가깝게 배치되고, 상기 복수의 렌즈 엘리먼트들 중 한 렌즈 엘리먼트 는 해당 렌즈 엘리먼트의 렌즈 크기보다 작은 렌즈 크기를 가지는 다른 렌즈 엘리먼트보다 상기 렌즈 어레이의 중심 위치로부터 멀게 배치될 수 있다.One lens element of the plurality of lens elements is disposed closer to the center position of the lens array than another lens element having a lens size larger than the lens size of the corresponding lens element, and one lens element of the plurality of lens elements is disposed closer to the center position of the lens array. The lens element may be disposed farther from the center position of the lens array than other lens elements having a smaller lens size than that of the lens element.

상기 복수의 렌즈 엘리먼트들의 각각은, 상기 렌즈 어레이에 대응하는 평면 상에서 상기 복수의 센싱 엘리먼트들에 대해 무작위로 배치될 수 있다.Each of the plurality of lens elements may be randomly arranged with respect to the plurality of sensing elements on a plane corresponding to the lens array.

상기 복수의 렌즈 엘리먼트들의 각각은, 동일한 개수의 센싱 엘리먼트를 커버할 수 있다.Each of the plurality of lens elements may cover the same number of sensing elements.

상기 복수의 렌즈 엘리먼트들 중 적어도 하나의 렌즈 엘리먼트는, 상기 복수의 센싱 엘리먼트들 중 적어도 하나의 센싱 엘리먼트에 대해 엇갈리도록(eccentric) 배치될 수 있다.At least one lens element among the plurality of lens elements may be arranged to be eccentric with respect to at least one sensing element among the plurality of sensing elements.

이미지 센서는 상기 복수의 센싱 엘리먼트들에 의해 센싱된 센싱 정보 에 기초하여, 상기 렌즈 어레이에 대응하는 시야각 중 중심 영역에 대해 그 주변 영역보다 높은 해상도로 이미지를 복원하는 프로세서를 더 포함할 수 있다.The image sensor may further include a processor that restores an image with higher resolution for a central area of the viewing angle corresponding to the lens array than for a surrounding area, based on sensing information sensed by the plurality of sensing elements.

이미지 센서는 상기 복수의 센싱 엘리먼트들을 통해 센싱된 센싱 정보에 기초하여, 복안 시야 이미지(CEV image, compound eye vision image)를 획득하는 프로세서를 더 포함할 수 있다.The image sensor may further include a processor that acquires a compound eye vision image (CEV image) based on sensing information sensed through the plurality of sensing elements.

상기 프로세서는, 상기 복수의 센싱 엘리먼트들에서 센싱되는 라이트 필드 정보에 기초하여, 상기 복안 시야 이미지를 재배열할 수 있다.The processor may rearrange the compound eye field image based on light field information sensed by the plurality of sensing elements.

상기 프로세서는, 상기 복수의 센싱 엘리먼트들 및 상기 복수의 렌즈 엘리먼트들 간의 기하 구조에 기초하여, 상기 복안 시야 이미지로부터 장면 이미지를 복원할 수 있다.The processor may restore a scene image from the compound eye field image based on geometric structures between the plurality of sensing elements and the plurality of lens elements.

상기 프로세서는, 상기 복안 시야 이미지를 획득하기 전에 트레이닝이 완료된 이미지 복원 모델(image restoration model)에 기초하여, 상기 복안 시야 이미지로부터 장면 이미지를 복원할 수 있다.The processor may restore a scene image from the compound eye field image based on an image restoration model that has been trained before acquiring the compound eye field image.

이미지 센서는 상기 복수의 센싱 엘리먼트들을 통해 센싱된 센싱 정보로부터 사용자에 의해 지정된 줌 배율(zoom factor)에 대응하는 대상 정보(target information)를 선택하고, 상기 선택된 대상 정보로부터 장면 이미지를 복원하는 프로세서를 더 포함할 수 있다.The image sensor selects target information corresponding to a zoom factor specified by the user from the sensing information sensed through the plurality of sensing elements, and includes a processor that restores the scene image from the selected target information. More may be included.

상기 프로세서는, 상기 센싱 정보로부터 상기 줌 배율에 대응하는 시야각에 대응하는 정보를 상기 대상 정보로서 선택할 수 있다.The processor may select information corresponding to a viewing angle corresponding to the zoom magnification from the sensing information as the target information.

상기 복수의 렌즈 엘리먼트들의 각각은, 상기 빛을 굴절시켜서 상기 복수의 센싱 엘리먼트들을 포함하는 센싱 어레이 상의 지점에 초점(focal point)을 형성할 수 있다.Each of the plurality of lens elements may refract the light to form a focal point at a point on the sensing array including the plurality of sensing elements.

각 렌즈 그룹에 의해 커버되는 센싱 영역에 속하는 센싱 엘리먼트들은, 해당 렌즈 그룹의 시야각에 대응하는 광선들을 센싱할 수 있다.Sensing elements belonging to the sensing area covered by each lens group can sense rays corresponding to the viewing angle of the corresponding lens group.

상기 이미지 센서는, 모바일 단말로 구현(implement)될 수 있다.The image sensor may be implemented in a mobile terminal.

일 실시예에 따른 이미지 센싱 방법은, 복수의 센싱 엘리먼트들이 서로 동일한 초점 거리를 가지는 복수의 렌즈 엘리먼트들을 통과한 빛을 센싱하는 단계; 및 프로세서가 상기 복수의 센싱 엘리먼트들에 의해 센싱된 빛의 세기에 기초하여 장면 이미지를 복원하는 단계를 포함하고, 상기 복수의 렌즈 엘리먼트들 중 적어도 한 렌즈 엘리먼트의 렌즈 크기는 다른 렌즈 엘리먼트의 렌즈 크기와 다를 수 있다.An image sensing method according to an embodiment includes: sensing light passing through a plurality of lens elements where the plurality of sensing elements have the same focal distance; And a step of a processor restoring a scene image based on the intensity of light sensed by the plurality of sensing elements, wherein the lens size of at least one lens element among the plurality of lens elements is the lens size of the other lens element. It may be different from

도 1은 일 실시예에 따른 이미지 센서의 개괄적인 구조를 도시한 도면이다.
도 2는 일 실시예에 따른 센싱 엘리먼트가 렌즈 엘리먼트를 통해 광선을 수신하는 모습을 도시한 도면이다.
도 3은 일 실시예에 따른 센싱 엘리먼트의 수와 렌즈 엘리먼트의 수 간의 관계를 나타낸 도면이다.
도 4는 일 실시예에 따른 렌즈 어레이에서 초점 거리 및 원하는 시야각에 따라 결정되는 렌즈 엘리먼트의 개수 및 크기를 도시한 도면이다.
도 5는 렌즈 어레이에서 렌즈 엘리먼트들의 일 실시예에 따른 배치를 설명하는 도면이다.
도 6은 도 5에서 설명된 바와 같이 배치된 렌즈 엘리먼트들을 통해 센싱 엘리먼트들이 센싱하는 장면의 시야각들을 설명하는 도면이다.
도 7 내지 도 10은 렌즈 엘리먼트들의 다른 일 실시예에 따른 배치를 설명하는 도면이다.
도 11은 일 실시예에 따른 이미지 센서의 구조를 도시한 블록도이다.
도 12 및 도 13은 일 실시예에 따른 이미지 센서가 구현되는 기기의 예시를 도시하는 도면이다.
FIG. 1 is a diagram illustrating the general structure of an image sensor according to an embodiment.
FIG. 2 is a diagram illustrating a sensing element receiving light rays through a lens element according to an embodiment.
Figure 3 is a diagram showing the relationship between the number of sensing elements and the number of lens elements according to an embodiment.
FIG. 4 is a diagram illustrating the number and size of lens elements determined according to the focal length and desired viewing angle in a lens array according to an embodiment.
FIG. 5 is a diagram illustrating the arrangement of lens elements in a lens array according to an embodiment.
FIG. 6 is a diagram illustrating viewing angles of a scene sensed by sensing elements through lens elements arranged as described in FIG. 5.
7 to 10 are diagrams explaining the arrangement of lens elements according to another embodiment.
Figure 11 is a block diagram showing the structure of an image sensor according to an embodiment.
12 and 13 are diagrams illustrating examples of devices in which image sensors are implemented according to an embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. However, the scope of the patent application is not limited or limited by these examples. The same reference numerals in each drawing indicate the same members.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various changes may be made to the embodiments described below. The embodiments described below are not intended to limit the embodiments, but should be understood to include all changes, equivalents, and substitutes therefor.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 개의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are merely used to describe specific examples and are not intended to limit the examples. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the embodiments belong. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiments, if it is determined that detailed descriptions of related known technologies may unnecessarily obscure the gist of the embodiments, the detailed descriptions are omitted.

도 1은 일 실시예에 따른 이미지 센서의 개괄적인 구조를 도시한 도면이다.FIG. 1 is a diagram illustrating the general structure of an image sensor according to an embodiment.

일 실시예에 따른 이미지 센서(100)에 의하여 촬영 및 복원되는 이미지의 품질은 센싱 어레이(120)에 포함된 센싱 엘리먼트들의 수, 및 센싱 엘리먼트에 입사되는 광량에 의하여 결정될 수 있다. 예를 들어, 이미지의 해상도는 센싱 어레이(120)에 포함된 센싱 엘리먼트들의 수에 의하여 결정되고, 이미지의 감도는 센싱 엘리먼트에 입사되는 광량에 의하여 결정될 수 있다. 센싱 엘리먼트에 입사되는 광량은 센싱 엘리먼트의 사이즈에 기초하여 결정될 수 있다. 센싱 엘리먼트의 사이즈가 클수록 센싱 엘리먼트에 입사되는 광량은 증가할 수 있고, 센싱 어레이(120)의 동적 범위(dynamic range)가 증가할 수 있다. 따라서, 센싱 어레이(120)에 포함된 센싱 엘리먼트들의 수가 증가함에 따라 이미지 센서(100)는 고해상도 이미지를 촬영할 수 있고, 센싱 엘리먼트의 사이즈가 증가함에 따라 이미지 센서(100)는 저조도에서 고감도 이미지 촬영에 유리하게 작동할 수 있다.The quality of an image captured and restored by the image sensor 100 according to an embodiment may be determined by the number of sensing elements included in the sensing array 120 and the amount of light incident on the sensing elements. For example, the resolution of the image may be determined by the number of sensing elements included in the sensing array 120, and the sensitivity of the image may be determined by the amount of light incident on the sensing element. The amount of light incident on the sensing element may be determined based on the size of the sensing element. As the size of the sensing element increases, the amount of light incident on the sensing element may increase, and the dynamic range of the sensing array 120 may increase. Therefore, as the number of sensing elements included in the sensing array 120 increases, the image sensor 100 can capture high-resolution images, and as the size of the sensing elements increases, the image sensor 100 can capture high-sensitivity images in low light. It can work to your advantage.

이미지 센서(100)의 부피는 렌즈 엘리먼트(111)의 초점 거리(focal length)(f)에 의하여 결정될 수 있다. 보다 구체적으로, 이미지 센서(100)의 부피는 렌즈 엘리먼트(111)와 센싱 어레이(120) 사이의 간격에 의하여 결정되는데, 렌즈 엘리먼트(111)에 의하여 굴절된 빛(190)을 수집하기 위하여 센싱 어레이(120)는 렌즈 엘리먼트(111)의 초점 거리(f)에 위치해야 하므로 이미지 센서(100)에 포함된 렌즈 엘리먼트(111)와 센싱 어레이(120)는 렌즈 엘리먼트(111)의 초점 거리(f)만큼 이격되어 배치되어야 하기 때문이다. 렌즈 엘리먼트(111)의 초점 거리(f)는 이미지 센서(100)의 시야각과 렌즈 엘리먼트(111)의 사이즈(예를 들어, 렌즈 엘리먼트(111)의 구경의 반지름)에 의하여 결정된다. 예를 들어, 시야각이 고정될 경우 렌즈 엘리먼트(111)의 사이즈에 비례하여 초점 거리(f)가 길어진다. 또한, 렌즈 엘리먼트(111)의 사이즈는 센싱 어레이(120)의 사이즈에 기초하여 결정될 수 있다. 예를 들어, 일정한 시야각 범위의 이미지를 촬영하기 위해서는, 센싱 어레이(120)의 사이즈가 증가함에 따라 렌즈 엘리먼트(111)의 사이즈가 증가되어야 한다.The volume of the image sensor 100 may be determined by the focal length (f) of the lens element 111. More specifically, the volume of the image sensor 100 is determined by the gap between the lens element 111 and the sensing array 120. In order to collect the light 190 refracted by the lens element 111, the sensing array Since (120) must be located at the focal length (f) of the lens element 111, the lens element 111 and the sensing array 120 included in the image sensor 100 are located at the focal length (f) of the lens element 111. This is because they must be placed at a certain distance from each other. The focal length f of the lens element 111 is determined by the viewing angle of the image sensor 100 and the size of the lens element 111 (for example, the aperture radius of the lens element 111). For example, when the viewing angle is fixed, the focal length f becomes longer in proportion to the size of the lens element 111. Additionally, the size of the lens element 111 may be determined based on the size of the sensing array 120. For example, in order to capture an image with a certain viewing angle range, the size of the lens element 111 must be increased as the size of the sensing array 120 increases.

전술한 바에 의하면, 시야각 및 이미지의 해상도를 유지하면서 이미지의 감도를 증가시키려면, 이미지 센서(100)의 부피가 증가된다. 예를 들어, 이미지의 해상도를 유지하면서 이미지의 감도를 증가시키려면, 센싱 어레이(120)에 포함된 센싱 엘리먼트들의 수를 유지하면서 각 센싱 엘리먼트의 사이즈를 증가시켜야 하므로 센싱 어레이(120)의 사이즈가 증가된다. 이 때, 시야각을 유지하려면, 센싱 어레이(120)의 사이즈가 증가함에 따라 렌즈 엘리먼트(111)의 사이즈가 증가하며 렌즈 엘리먼트(111)의 초점 거리(f)가 길어지므로, 이미지 센서(100)의 부피가 증가된다.As described above, in order to increase image sensitivity while maintaining the viewing angle and image resolution, the volume of the image sensor 100 is increased. For example, to increase image sensitivity while maintaining image resolution, the size of each sensing element must be increased while maintaining the number of sensing elements included in the sensing array 120, so the size of the sensing array 120 must be increased. increases. At this time, in order to maintain the viewing angle, as the size of the sensing array 120 increases, the size of the lens element 111 increases and the focal length (f) of the lens element 111 becomes longer, so that the image sensor 100 The volume increases.

이미지 센서(100)의 부피를 감소시키기 위해, 센싱 어레이(120)의 해상도를 유지하면서 센싱 엘리먼트의 사이즈를 감소시키거나, 센싱 엘리먼트의 사이즈를 유지하면서 센싱 어레이(120)의 해상도를 감소시키는 설계 방법들이 고려될 수 있다. 다만, 센싱 어레이(120)의 해상도를 유지하면서 센싱 엘리먼트의 사이즈를 감소시키는 경우, 센싱 어레이(120)의 사이즈가 감소하고 렌즈 엘리먼트(111)의 초점 거리(f)가 짧아져 이미지 센서(100)의 부피를 감소시킬 수 있으나, 이미지의 감도가 저하된다. 이 경우, 저조도 화질이 감소될 수 있다. 또한, 센싱 엘리먼트의 사이즈를 유지하면서 센싱 어레이(120)의 해상도를 감소시키는 경우, 센싱 어레이(120)의 사이즈가 감소하고 렌즈 엘리먼트(111)의 초점 거리(f)가 짧아져 이미지 센서(100)의 부피를 감소시킬 수 있으나, 이미지의 해상도가 저하된다.In order to reduce the volume of the image sensor 100, a design method of reducing the size of the sensing element while maintaining the resolution of the sensing array 120, or reducing the resolution of the sensing array 120 while maintaining the size of the sensing element. may be considered. However, when the size of the sensing element is reduced while maintaining the resolution of the sensing array 120, the size of the sensing array 120 is reduced and the focal length (f) of the lens element 111 is shortened, thereby reducing the image sensor 100. The volume can be reduced, but the sensitivity of the image decreases. In this case, low-light image quality may be reduced. In addition, when the resolution of the sensing array 120 is reduced while maintaining the size of the sensing element, the size of the sensing array 120 is reduced and the focal length (f) of the lens element 111 is shortened, so that the image sensor 100 The volume can be reduced, but the resolution of the image is reduced.

도 1을 참조하면, 이미지 센서(100)는 렌즈 어레이(110) 및 센싱 어레이(120)를 포함한다. 렌즈 어레이(110)는 렌즈 엘리먼트들을 포함하고, 센싱 어레이(120)는 센싱 엘리먼트들을 포함한다.Referring to FIG. 1, the image sensor 100 includes a lens array 110 and a sensing array 120. The lens array 110 includes lens elements, and the sensing array 120 includes sensing elements.

일 실시예에 따르면, 렌즈 어레이(110)에 포함된 렌즈 엘리먼트들 각각의 사이즈를 감소시킬수록, 다시 말해 렌즈 어레이(110) 상에서 동일한 넓이에 포함되는 렌즈들의 수를 증가시킬수록 렌즈 엘리먼트(111)의 초점 거리(f)는 작아질 수 있고, 이미지 센서(100)의 두께는 감소할 수 있다. 이 경우, 이미지 센서(100)는 각 렌즈 엘리먼트(111)에서 촬영된 저해상도 이미지들을 재배열(rearrange) 및 조합하여 고해상도 이미지를 복원할 수 있다. 따라서, 렌즈 어레이(110)에 포함된 렌즈들을 분할함으로써, 박형 카메라(thin camera)가 구현될 수 있다.According to one embodiment, as the size of each lens element included in the lens array 110 decreases, that is, as the number of lenses included in the same area on the lens array 110 increases, the lens element 111 The focal length f may be reduced, and the thickness of the image sensor 100 may be reduced. In this case, the image sensor 100 may restore a high-resolution image by rearranging and combining low-resolution images captured by each lens element 111. Accordingly, by dividing the lenses included in the lens array 110, a thin camera can be implemented.

렌즈 어레이(110)의 개별 렌즈 엘리먼트(111)는 자신의 렌즈 크기(lens size)에 대응하는 센싱 어레이(120)의 일정 센싱 영역(125)을 커버할 수 있다. 센싱 어레이(120)에서 렌즈 엘리먼트(111)에 의해 커버되는 센싱 영역(125)은, 해당 렌즈 엘리먼트(111)의 렌즈 크기에 따라 결정될 수 있다. 센싱 영역(125)은, 일정한 시야각 범위의 광선들이 해당 렌즈 엘리먼트(111)를 통과한 후 도달하는 센싱 어레이(120)의 상의 영역을 나타낼 수 있다. 센싱 영역(125)의 크기는 센싱 영역(125)의 중심으로부터 최외곽 지점까지의 거리 D로 표현될 수 있다. 다시 말해, 센싱 영역(125)에 포함된 센싱 어레이 (120)의 센싱 엘리먼트들에는 해당 개별 렌즈 엘리먼트(111)를 통과한 빛(190)이 입사될 수 있다. 빛(190)은 복수의 광선들을 포함할 수 있다. 광선(191)은 광자(photon)(101)의 흐름에 대응할 수 있다.Each individual lens element 111 of the lens array 110 may cover a certain sensing area 125 of the sensing array 120 corresponding to its lens size. The sensing area 125 covered by the lens element 111 in the sensing array 120 may be determined according to the lens size of the corresponding lens element 111. The sensing area 125 may represent an area on the sensing array 120 where rays of a certain viewing angle range arrive after passing through the corresponding lens element 111. The size of the sensing area 125 can be expressed as the distance D from the center of the sensing area 125 to the outermost point. In other words, light 190 passing through the individual lens element 111 may be incident on the sensing elements of the sensing array 120 included in the sensing area 125. Light 190 may include a plurality of rays. The ray 191 may correspond to the flow of photons 101.

일 실시예에 따르면 렌즈 크기는 렌즈의 직경에 대응할 수 있다.According to one embodiment, the lens size may correspond to the diameter of the lens.

센싱 어레이(120)의 센싱 엘리먼트들 각각은 렌즈 어레이(110)의 렌즈들을 통과한 광선(191)에 기초하여 센싱 정보를 생성할 수 있다. 예를 들어, 센싱 엘리먼트(121)는 렌즈 엘리먼트(111)를 통해 입사되는 광선(191)에 기초하여 센싱 정보를 생성할 수 있다. 이미지 센서(100)는 센싱 어레이(120)에 의해 출력된 센싱 정보에 기초하여, 이미지 센서(100)의 시야에 포함된 지점들에 관한 원본 신호(original signal)에 대응하는 세기 정보를 결정하고, 결정된 세기 정보에 기초하여 촬영 이미지를 복원할 수 있다.Each of the sensing elements of the sensing array 120 may generate sensing information based on the light ray 191 passing through the lenses of the lens array 110. For example, the sensing element 121 may generate sensing information based on the light ray 191 incident through the lens element 111. The image sensor 100 determines intensity information corresponding to an original signal regarding points included in the field of view of the image sensor 100, based on the sensing information output by the sensing array 120, The captured image can be restored based on the determined intensity information.

또한, 센싱 엘리먼트(121)는 임의의 색상을 센싱 하기 위한 색상 필터를 포함할 수도 있다. 센싱 엘리먼트(121)는 특정 색상에 대응하는 색상 값을 센싱 정보로서 생성할 수 있다. 센싱 어레이(120)를 구성하는 복수의 센싱 엘리먼트들의 각각은 공간적으로 인접한 인접 센싱 엘리먼트와 다른 색상을 센싱하도록 배치될 수 있다. 다만, 센싱 엘리먼트(121)의 색상 필터 및 배치를 이로 한정하는 것은 아니다.Additionally, the sensing element 121 may include a color filter for sensing an arbitrary color. The sensing element 121 may generate a color value corresponding to a specific color as sensing information. Each of the plurality of sensing elements constituting the sensing array 120 may be arranged to sense a color different from that of spatially adjacent adjacent sensing elements. However, the color filter and arrangement of the sensing element 121 are not limited to this.

센싱 정보의 다양성이 충분히 확보되어, 이미지 센서(100)의 시야에 포함된 지점들에 대응하는 원본 신호 정보와 센싱 정보 사이에 완전 랭크(full rank) 관계가 형성될 때, 센싱 어레이(120)의 최대 해상도에 대응하는 촬영 이미지가 도출될 수 있다. 센싱 정보의 다양성은 렌즈 어레이(110)에 포함된 렌즈들의 수 및 센싱 어레이(120)에 포함된 센싱 엘리먼트들의 수와 같은 이미지 센서(100)의 파라미터들에 기초하여 확보될 수 있다.When the diversity of the sensing information is sufficiently secured and a full rank relationship is formed between the original signal information and the sensing information corresponding to the points included in the field of view of the image sensor 100, the A captured image corresponding to the maximum resolution can be derived. Diversity of sensing information can be secured based on parameters of the image sensor 100, such as the number of lenses included in the lens array 110 and the number of sensing elements included in the sensing array 120.

참고로, 도 1에 도시되지는 않았으나, 이미지 센서(100)는 이미지를 복원하는데 사용되는 이미지 복원 모델을 저장하는 메모리, 및 이미지 복원 모델을 이용하여 이미지를 복원하는 프로세서를 포함할 수 있다.For reference, although not shown in FIG. 1, the image sensor 100 may include a memory that stores an image restoration model used to restore an image, and a processor that restores the image using the image restoration model.

일 실시예에 따른 이미지 센서(100)는 이상적인 조건에서 벗어나는 다양한 노이즈 성분(noise component)에도 강인하게 이미지를 복원할 수 있다. 또한, 이미지 센서(100)는 임의의 패턴(예를 들어, 베이어(Bayer) 패턴) 등과 무관하게 이미지를 복원할 수 있다. 아래에서 설명하는 실시예들은 이미지 센서(100)가 다중 렌즈로 촬영된 다수의 저해상도 이미지를 이용하여 고해상도 이미지를 복원하는 동작을 설명한다. 후술하겠으나, 다수의 저해상도 이미지는 복안 시야 이미지의 형태로 나타날 수 있다.The image sensor 100 according to one embodiment can robustly restore an image even against various noise components that deviate from ideal conditions. Additionally, the image sensor 100 can restore an image regardless of any pattern (eg, Bayer pattern). Embodiments described below describe an operation in which the image sensor 100 restores a high-resolution image using multiple low-resolution images captured with multiple lenses. As will be described later, multiple low-resolution images may appear in the form of compound eye field images.

도 2는 일 실시예에 따른 센싱 엘리먼트가 렌즈 엘리먼트를 통해 광선을 수신하는 모습을 도시한 도면이다.FIG. 2 is a diagram illustrating a sensing element receiving light rays through a lens element according to an embodiment.

상술한 바와 같이, 센싱 어레이(220)는 개별 지점들(points)(230)(X1 내지 X10)에 대응하는 광선들을 수신할 수 있다. 광선들은 렌즈 어레이(210)를 통해 센싱 어레이(220)에 의해 검출될 수 있다. 예를 들어, 개별 지점들(230)의 각각으로부터 복수의 광선들이 방출될 수 있다. 동일한 지점으로부터 방출된 광선들은 라이트 필드(LF, light field)를 형성할 수 있다. 임의의 지점으로부터 방출된 라이트 필드는, 피사체(subject) 상의 임의의 지점에서 반사된 광선들의 방향 및 세기를 나타내는 필드(field)일 수 있다. 예를 들어, 제1 지점(X1)으로부터 방출된 광선들은 제1 라이트 필드를 형성할 수 있고, 제1 센싱 엘리먼트(S1), 제4 센싱 엘리먼트(S4), 및 제7 센싱 엘리먼트(S7)로 입사할 수 있다. 나머지 지점들(X2 내지 X10)의 각각으로부터 방출된 광선들도 각각 그에 대응하는 라이트 필드를 형성할 수 있다. 개별 지점들(230)은 예를 들어, 임의의 객체(예를 들어, 피사체) 상의 지점들일 수 있다. 개별 지점들(230)로부터 방출되는 광선들은, 예를 들어, 태양광 등이 객체로부터 반사된 광선들일 수 있다. 설명의 편의를 위해, 도 2에서 렌즈 어레이(210)는 3개의 렌즈 엘리먼트들을 포함하고, 센싱 어레이는 10개의 센싱 엘리먼트들(S1 내지 S10)을 포함하는 것으로 도시되었으나, 이로 한정하는 것은 아니다.As described above, the sensing array 220 may receive light rays corresponding to individual points 230 (X1 to X10). Light rays may be detected by the sensing array 220 through the lens array 210. For example, multiple light rays may be emitted from each of the individual points 230. Rays of light emitted from the same point can form a light field (LF). A light field emitted from an arbitrary point may be a field indicating the direction and intensity of light rays reflected from an arbitrary point on the subject. For example, rays emitted from the first point You can join the company. Rays emitted from each of the remaining points (X2 to X10) may also form a corresponding light field. Individual points 230 may be, for example, points on any object (eg, subject). The rays emitted from the individual points 230 may be rays reflected from an object, such as sunlight. For convenience of explanation, the lens array 210 in FIG. 2 is shown as including three lens elements and the sensing array as including ten sensing elements (S1 to S10), but the present invention is not limited thereto.

센싱 엘리먼트들(S1 내지 S10)은 복수의 렌즈 엘리먼트들을 통과한 광선들을 중첩하여 센싱할 수 있다. 예를 들어, 도 2에 도시된 렌즈 어레이(210)에서, 렌즈 엘리먼트로부터 센싱 어레이(220)까지의 초점 거리가 감소될 수 있다. 따라서, 센싱 엘리먼트(S1)는 지점들(X1 내지 X3)로부터 방사된 광선들이 중첩된 센싱 정보(예를 들어, 세기 값)를 생성할 수 있다. 이미지 센서는, 이미지를 복원하기 위하여, 이러한 중첩된 센싱 정보를 복원할 필요가 있다.The sensing elements S1 to S10 may sense rays that have passed through a plurality of lens elements by overlapping them. For example, in the lens array 210 shown in FIG. 2, the focal distance from the lens element to the sensing array 220 may be reduced. Accordingly, the sensing element S1 may generate sensing information (eg, intensity value) in which rays emitted from the points X1 to X3 overlap. The image sensor needs to restore this overlapping sensing information in order to restore the image.

도 2에 도시된 센싱 엘리먼트들(S1 내지 S10)에 의해 생성되는 센싱 정보는, 하기 수학식 1에 따라, 지점들(230)의 각각으로부터 입사되는 광선에 대응하는 원본 신호 정보(예를 들어, 세기 값)로 모델링될 수 있다.The sensing information generated by the sensing elements S1 to S10 shown in FIG. 2 is original signal information (e.g., intensity value).

[수학식 1][Equation 1]

상술한 수학식 1에서, S는 개별 센싱 엘리먼트에 의해 센싱되는 센싱 정보(예를 들어, 검출된 세기 값)를 지시하는 행렬을 나타낼 수 있다. X는 개별 지점으로부터 센싱 엘리먼트들(S1 내지 S10)로 입사되는 광선에 대응하는 신호 값(예를 들어, 입사된 광선의 색상 값)을 지시하는 행렬을 나타낼 수 있다. T는 변환 행렬로서 센싱 엘리먼트들(S1 내지 S10)에 의해 검출된 센싱 정보 및 입사되는 빛에 대응하는 신호 정보 간의 관계를 나타낼 수 있다. 도 2에 도시된 구조에서 개별 지점들(X1 내지 X10)에 대응하는 광선들, 렌즈들 및 센싱 엘리먼트들(S1 내지 S10)은 하기 수학식 2와 같이 모델링될 수 있다. 하기 수학식 2에서 개별 지점들(X1 내지 X10)은 이미지 센서로부터 무한 초점 위치(infinite focal point)에 배치된 것으로 모델링될 수 있다. 예를 들어, 개별 지점들(X1 내지 X10) 및 이미지 센서 간의 거리는 임계 거리보다 클 수 있다.In Equation 1 described above, S may represent a matrix indicating sensing information (eg, detected intensity value) sensed by an individual sensing element. X can indicate a matrix indicating a signal value corresponding to the rays (eg, color values of incident rays) corresponding to the rays incident with sensing elements (S1 to S10) from individual points. T is a transformation matrix and may represent the relationship between sensing information detected by the sensing elements S1 to S10 and signal information corresponding to incident light. In the structure shown in FIG. 2, rays, lenses, and sensing elements (S1 to S10) corresponding to individual points (X1 to X10) can be modeled as shown in Equation 2 below. In Equation 2 below, individual points (X1 to X10) may be modeled as being disposed at an infinite focal point from the image sensor. For example, the distance between individual points (X1 to X10) and the image sensor may be greater than the threshold distance.

[수학식 2][Equation 2]

상술한 수학식 2에서 설명의 편의를 위하여, 개별 지점들(X1 내지 X10)의 각각에 대응하는 광선의 신호 정보(예를 들어, 광선 세기 값)를 X1 내지 X10으로 표시하였다. 또한, 센싱 엘리먼트들(S1 내지 S10)에서 검출된 센싱 정보(예를 들어, 센싱 세기 값)도 S1 내지 S10으로 표시하였다. 일 실시예에 따르면, 센싱 어레이(220)를 구성하는 센싱 엘리먼트들(S1 내지 S10)에 대응하는 센싱 정보(예를 들어, 색상 정보)와 개별 지점으로부터 입사되는 광선들(X1 내지 X10)에 대응하는 원본 신호 간의 관계(예를 들어, 상술한 변환 행렬)는 상술한 렌즈 엘리먼트와 센싱 엘리먼트 간의 배치, 렌즈 어레이(210)를 구성하는 렌즈 엘리먼트들의 개수, 센싱 어레이(220)를 구성하는 센싱 엘리먼트들(S1 내지 S10)의 개수 등에 기초하여 결정될 수 있다.In Equation 2 above, for convenience of explanation, signal information (eg, light intensity value) of the ray corresponding to each of the individual points (X1 to X10) is indicated as X1 to X10. Additionally, sensing information (eg, sensing intensity value) detected from the sensing elements S1 to S10 is also indicated as S1 to S10. According to one embodiment, sensing information (e.g., color information) corresponding to the sensing elements (S1 to S10) constituting the sensing array 220 and rays (X1 to X10) incident from individual points The relationship between the original signals (e.g., the transformation matrix described above) includes the arrangement between the lens elements and the sensing elements described above, the number of lens elements constituting the lens array 210, and the sensing elements constituting the sensing array 220. It may be determined based on the number of (S1 to S10), etc.

참고로, 상술한 수학식 2는 개별 지점들(X1 내지 X10)이 이미지 센서로부터 무한 초점 위치인 경우를 설명한 것으로서, 개별 지점들(X1 내지 X10)이 이미지 센서로부터 유한 초점 위치(finite focal point)에 위치하는 경우, 각 센싱 엘리먼트에서 수신되는 원본 신호는 피사체 및 이미지 센서 간의 거리 및 이미지 센서의 기하 구조 등에 따라 달라질 수 있다.For reference, the above-mentioned equation 2 describes the case where the individual points (X1 to X10) are infinite focal points from the image sensor, and the individual points (X1 to X10) are finite focal points from the image sensor. When located, the original signal received from each sensing element may vary depending on the distance between the subject and the image sensor and the geometric structure of the image sensor.

도 3은 일 실시예에 따른 센싱 엘리먼트의 수와 렌즈 엘리먼트의 수 간의 관계를 나타낸 도면이다.Figure 3 is a diagram showing the relationship between the number of sensing elements and the number of lens elements according to an embodiment.

일 실시예에 따르면 복수의 렌즈 엘리먼트들 중 적어도 하나의 렌즈 엘리먼트는, 복수의 센싱 엘리먼트들 중 적어도 하나의 센싱 엘리먼트에 대해 엇갈리도록(eccentric) 배치될 수 있다. 예를 들어, 복수의 렌즈 엘리먼트들 및 복수의 센싱 엘리먼트들은, 서로에 대해 엇갈려서 배치될 수 있다. 예를 들어, 렌즈 엘리먼트는 정수 개수의 센싱 엘리먼트들을 커버하는 것이 아니라, 비정수(non-integer) 개수의 센싱 엘리먼트들을 커버할 수 있다. 일 실시예에 따른 멀티 렌즈 어레이 구조는 분수 정렬 구조(fractional alignment structure)로 구현될 수 있다. 멀티 렌즈 어레이 구조의 파라미터는, 센싱 엘리먼트들의 개수 및 렌즈 엘리먼트들의 개수이다. 렌즈 엘리먼트들의 개수 L 및 센싱 엘리먼트들의 개수 P 간의 비율 P/L은 실수(real number)로 결정될 수 있다. 렌즈 엘리먼트들의 각각은 P/L에 대응하는 픽셀 오프셋과 동일한 개수의 센싱 엘리먼트들을 커버할 수 있다. 참고로, 도 3에서 각 렌즈 엘리먼트는 10/3개의 센싱 엘리먼트들을 커버하는 것으로 도시되었다.According to one embodiment, at least one lens element among the plurality of lens elements may be arranged to be eccentric with respect to at least one sensing element among the plurality of sensing elements. For example, a plurality of lens elements and a plurality of sensing elements may be arranged to be staggered with respect to each other. For example, the lens element may not cover an integer number of sensing elements, but may cover a non-integer number of sensing elements. The multi-lens array structure according to one embodiment may be implemented as a fractional alignment structure. The parameters of the multi-lens array structure are the number of sensing elements and the number of lens elements. The ratio P/L between the number L of lens elements and the number P of sensing elements may be determined as a real number. Each of the lens elements may cover the same number of sensing elements as the pixel offset corresponding to P/L. For reference, in FIG. 3, each lens element is shown to cover 10/3 sensing elements.

상술한 바와 같이, 이미지 센서는, 각 렌즈 엘리먼트의 광학 중심 축(OCA, optical center axis)이 센싱 어레이에 대해 서로 조금씩(slightly) 다른 배치를 가질 수 있다. 따라서, 렌즈 어레이의 각 렌즈 엘리먼트는 서로 다른 라이트 필드 정보를 수신한다. 각 렌즈 엘리먼트의 주 광선(chief ray)의 방향(direction)도 달라지게 되므로, 이미지 센서는 광학적으로 보다 많은 센싱 정보를 획득할 수 있다. 따라서, 이미지 센서는 이와 같이 획득된 다양한 센싱 정보를 통해 보다 고해상도의 이미지를 복원할 수 있다.As described above, in the image sensor, the optical center axis (OCA) of each lens element may have a slightly different arrangement with respect to the sensing array. Accordingly, each lens element of the lens array receives different light field information. Since the direction of the chief ray of each lens element also changes, the image sensor can optically obtain more sensing information. Accordingly, the image sensor can restore a higher-resolution image through the various sensing information obtained in this way.

예를 들어, 렌즈 어레이에 포함된 렌즈 엘리먼트들이 동일한 렌즈 크기를 가지는 경우, 서로 소(relatively prime) 관계인 렌즈 어레이에 포함된 렌즈 엘리먼트들의 수와 센싱 어레이에 포함된 센싱 엘리먼트들의 수는 아래의 수학식 3을 만족할 수 있다.For example, when the lens elements included in the lens array have the same lens size, the number of lens elements included in the lens array and the number of sensing elements included in the sensing array that are relatively prime to each other are expressed in the equation below: 3 can be satisfied.

[수학식 3][Equation 3]

상술한 수학식 3에서 R은 센싱 어레이의 일축(one axis)에 대한 해상도를 나타내는 정수, P는 해당 센싱 어레이의 일축에 대한 센싱 엘리먼트들의 개수를 나타내는 정수, L은 렌즈 어레이의 일축에 대한 렌즈 엘리먼트들의 개수를 나타내는 정수, N은 상술한 수학식 3을 충족시키기 위한 임의의 자연수를 나타낼 수 있다. 상술한 수학식 3에서, R, P, 및 L은 각각 2차원 평면 상에서 임의의 한 축에 대한 개수를 나타낼 수 있다. 예를 들어, 해상도 R은 이미지 센서에 의해 센싱될 수 있는 정보의 가로 축 또는 세로 축에 대한 해상도를 나타낼 수 있다. 가로 축 또는 세로 축에 대한 해상도 R은 해당 축에 따르는 센싱 엘리먼트들의 개수 P에 대응할 수 있다. L은 해당 축에 따르는 렌즈 엘리먼트들의 개수를 나타낼 수 있다. 따라서, 센싱 어레이의 전체 해상도는 RxR로 표현될 수 있고, 센싱 어레이가 포함하는 센싱 엘리먼트들의 총 개수는 PxP일 수 있으며, 렌즈 어레이가 포함하는 렌즈 엘리먼트들의 총 개수는 LxL일 수 있다.In Equation 3 above, R is an integer representing the resolution for one axis of the sensing array, P is an integer representing the number of sensing elements for one axis of the corresponding sensing array, and L is a lens element for one axis of the lens array. N, an integer representing the number of elements, may represent any natural number to satisfy Equation 3 described above. In Equation 3 above, R, P, and L may each represent the number of arbitrary axes on a two-dimensional plane. For example, resolution R may represent the resolution of the horizontal or vertical axis of information that can be sensed by an image sensor. The resolution R for the horizontal or vertical axis may correspond to the number P of sensing elements along the corresponding axis. L may represent the number of lens elements along the corresponding axis. Accordingly, the total resolution of the sensing array can be expressed as RxR, the total number of sensing elements included in the sensing array can be PxP, and the total number of lens elements included in the lens array can be LxL.

예를 들어, 도 3은 이미지 센서의 가로 축 또는 세로 축에 대한 단면도를 나타낼 수 있다. 임의의 한 축에 대해, 렌즈 엘리먼트들의 개수 L은 3개이고, 센싱 엘리먼트의 개수 P는 10개로서, 서로 소 관계를 만족할 수 있다. 이때, 렌즈 엘리먼트 당 해당 축에 대해 10/3개의 센싱 엘리먼트를 커버할 수 있다.For example, Figure 3 may represent a cross-sectional view of the image sensor along the horizontal or vertical axis. For any one axis, the number of lens elements L is 3 and the number of sensing elements P is 10, so that they can satisfy a prime relationship. At this time, each lens element can cover 10/3 sensing elements for the corresponding axis.

도 3에서, 첫 번째 렌즈 엘리먼트는 0 내지 3+1/3 센싱 엘리먼트를 커버할 수 있다. 두 번째 렌즈 엘리먼트는 3+1/3 내지 6+2/3 센싱 엘리먼트를 커버할 수 있다. 마찬가지로, 마지막 렌즈 엘리먼트는 6+2/3 내지 10 센싱 엘리먼트를 커버할 수 있다. 즉, 각각의 렌즈 엘리먼트는 센싱 엘리먼트에서 1/L(렌즈의 수)만큼 불균형(disparity)에 대응하는 부분(portion)을 더 커버할 수 있다. In Figure 3, the first lens element can cover 0 to 3+1/3 sensing elements. The second lens element can cover 3+1/3 to 6+2/3 sensing elements. Likewise, the last lens element can cover 6+2/3 to 10 sensing elements. That is, each lens element can cover more of the portion corresponding to the disparity by 1/L (the number of lenses) in the sensing element.

일 실시예에 따르면 상술한 렌즈 어레이 및 센싱 어레이의 기하 구조에 따라, 각 렌즈 엘리먼트가 커버하는 센싱 엘리먼트들은, 다른 렌즈 엘리먼트에 의해 커버되는 센싱 엘리먼트가 센싱하는 라이트 필드 정보와 동일하지 않은 라이트 필드 정보를 센싱할 수 있다. 라이트 필드 정보는, 복수의 라이트 필드가 조합된 정보를 나타낼 수 있다. 예를 들어, 제1 센싱 엘리먼트(S1)은 도 2에 도시된 구조에서 제1 지점(X1)의 제1 라이트 필드, 제2 지점(X2)의 제2 라이트 필드, 및 제3 지점(X3)의 제3 라이트 필드의 조합으로 된 라이트 필드 정보를 센싱할 수 있다. 반면, 그에 인접한 제2 센싱 엘리먼트(S2)는 도 2에 도시된 구조에서 제4 라이트 필드, 제5 라이트 필드, 및 제6 라이트 필드의 조합으로 된 라이트 필드 정보를 센싱할 수 있다. 이와 같이, 각 센싱 엘리먼트는 다른 센싱 엘리먼트에서 센싱되는 라이트 필드 정보와 다른 라이트 필드 정보를 센싱할 수 있다.According to one embodiment, according to the geometry of the lens array and the sensing array described above, the sensing elements covered by each lens element have light field information that is not the same as the light field information sensed by the sensing element covered by the other lens element. can be sensed. Light field information may represent information that is a combination of multiple light fields. For example, the first sensing element (S1) has a first light field at the first point (X1), a second light field at the second point (X2), and a third point (X3) in the structure shown in FIG. Light field information consisting of a combination of the third light fields can be sensed. On the other hand, the second sensing element S2 adjacent thereto can sense light field information consisting of a combination of the fourth light field, the fifth light field, and the sixth light field in the structure shown in FIG. 2. In this way, each sensing element can sense light field information that is different from light field information sensed by other sensing elements.

예를 들어, 이미지 센서는, 라이트 필드 정보 간의 상관성에 기초하여, 촬영된 이미지의 픽셀들의 위치를 재배열할 수 있다. 예를 들어, 이미지 센서는 복수의 센싱 엘리먼트들에서 서로 유사한 라이트 필드 정보를 센싱한 센싱 엘리먼트들의 픽셀들이 서로 인접하도록, 촬영된 이미지(예를 들어, 복안 시야 이미지)의 픽셀들을 재배열할 수 있다.For example, the image sensor may rearrange the positions of pixels in a captured image based on correlation between light field information. For example, the image sensor may rearrange the pixels of a captured image (e.g., a compound eye field image) so that the pixels of the sensing elements that sense similar light field information in the plurality of sensing elements are adjacent to each other. .

예를 들어, 이미지 센서는 개별 센싱 엘리먼트에서 센싱된 신호의 세기 값을 지시하는 픽셀들을, 해당 센싱 엘리먼트에서 센싱되는 라이트 필드 및 다른 센싱 엘리먼트에서 센싱되는 라이트 필드 정보 간의 유사도에 따라 재배열할 수 있다. 예를 들어, 두 센싱 엘리먼트들에서 센싱된 두 라이트 필드 정보가 서로 동일한 라이트 필드를 많이 포함할수록, 두 라이트 필드 정보 간의 유사도가 높을 수 있다.For example, an image sensor may rearrange pixels indicating the intensity value of a signal sensed by an individual sensing element according to the similarity between the light field sensed by the corresponding sensing element and the light field information sensed by other sensing elements. . For example, the more the two light field information sensed by the two sensing elements include the same light fields, the higher the similarity between the two light field information may be.

일 실시예에 따르면 이미지 센서는 광선을 반사하는 지점들이 이미지 센서로부터 무한 초점 위치에 배치된 것을 가정하고, 각 센싱 엘리먼트에서 센싱될 라이트 필드 정보를 결정할 수 있다. 예를 들어, 이미지 센서는, 이미지 센서로부터 임계 거리(threshold distance)보다 먼 지점들(points)으로부터 방사되는 광선들 및 복수의 센싱 엘리먼트들 간의 위치 관계에 기초하여, 복수의 센싱 엘리먼트들의 각각에 대해 해당 센싱 엘리먼트에서 센싱되는 라이트 필드를 방출하는 지점들을 결정할 수 있다. 임계 거리보다 먼 지점들은 무한 초점 위치에 있는 지점이라고 지칭될 수도 있다. 이미지 센서는 공간적으로 서로 인접한 지점들에서 방출되는 라이트 필드에 대응하는 픽셀들이 인접하도록 픽셀들을 재배열할 수 있다.According to one embodiment, the image sensor may determine light field information to be sensed by each sensing element, assuming that points reflecting light rays are disposed at infinite focus positions from the image sensor. For example, the image sensor, for each of a plurality of sensing elements, based on rays radiating from points farther than a threshold distance from the image sensor and the positional relationship between the plurality of sensing elements. Points that emit the light field sensed by the corresponding sensing element can be determined. Points farther than the critical distance may be referred to as points at the infinite focus position. The image sensor may rearrange pixels so that pixels corresponding to light fields emitted from spatially adjacent points are adjacent to each other.

참고로, 도 2에서 개별 지점들(X1 내지 X10)은 무한 초점 거리에서 서로 인접한 순서대로 도시된 것일 수 있다. 예를 들어, 제1 지점(X1)은 제2 지점(X2)과 인접할 수 있고, 제2 지점(X2)은 제1 지점(X1) 및 제3 지점(X3)과 인접할 수 있다. 서로 인접한 두 지점들은, 예를 들어, 피사체에서 공간적으로 인접한 지점들일 수 있다.For reference, in FIG. 2, individual points (X1 to X10) may be shown in the order in which they are adjacent to each other at infinite focal distance. For example, the first point (X1) may be adjacent to the second point (X2), and the second point (X2) may be adjacent to the first point (X1) and the third point (X3). Two points adjacent to each other may be, for example, spatially adjacent points in a subject.

재배열되기 이전의 센싱 엘리먼트들(311) 중 제1 센싱 엘리먼트(S1)에서 센싱된 라이트 필드 정보 및 제8 센싱 엘리먼트(S8)에서 센싱된 라이트 필드 정보는 둘 다 제2 시점(X2) 및 제3 시점(X3)에 대응하는 라이트 필드를 포함할 수 있다. 따라서, 제1 센싱 엘리먼트(S1) 및 제8 센싱 엘리먼트(S8)는 서로 유사한 라이트 필드 정보를 센싱할 수 있다. 상술한 수학식 2를 서로 유사한 라이트 필드 정보에 대응하는 픽셀들이 인접하도록 재배열하면, 아래 수학식 4과 같이 나타낼 수 있다.Among the sensing elements 311 before rearrangement, the light field information sensed by the first sensing element (S1) and the light field information sensed by the eighth sensing element (S8) are both at the second viewpoint (X2) and the second viewpoint (X2). It may include a light field corresponding to 3 viewpoints (X3). Accordingly, the first sensing element S1 and the eighth sensing element S8 can sense similar light field information. If the above-described Equation 2 is rearranged so that pixels corresponding to similar light field information are adjacent to each other, it can be expressed as Equation 4 below.

[수학식 4][Equation 4]

상술한 수학식 4에 따라 재배열된 센싱 엘리먼트들(312)은 도 3과 같이 도시될 수 있다. 제1 센싱 엘리먼트(S1)는 제1 렌즈에 의해 커버되고, 제8 센싱 엘리먼트(S8)는 제3 렌즈에 의해 커버되며, 제5 센싱 엘리먼트(S5)는 제2 렌즈에 의해 커버될 수 있다. 각 센싱 엘리먼트에서 센싱된 센싱 정보를 이미지를 구성하는 픽셀에 대응하므로, 서로 다른 렌즈를 통과한 광선들에 대응하는 센싱 정보들이 인접하도록, 이미지 센서는 픽셀들을 재배열할 수 있다.Sensing elements 312 rearranged according to Equation 4 described above may be shown as shown in FIG. 3 . The first sensing element S1 may be covered by the first lens, the eighth sensing element S8 may be covered by the third lens, and the fifth sensing element S5 may be covered by the second lens. Since the sensing information sensed by each sensing element corresponds to the pixels constituting the image, the image sensor can rearrange the pixels so that the sensing information corresponding to the light rays that passed through different lenses are adjacent.

일 실시예에 따르면 이미지 센서는 서로 소 조건 및 상술한 수학식 3을 만족하는 렌즈 어레이와 센싱 어레이에 의해 촬영된 이미지에 재배열 및 복원 등을 적용함으로써, 원본 장면에 보다 근접한 색상을 가진 고해상도 장면 이미지(scene image)를 복원할 수 있다.According to one embodiment, the image sensor applies rearrangement and restoration to images captured by the lens array and sensing array that satisfy each other's prerequisites and the above-mentioned equation 3, thereby creating a high-resolution scene with colors closer to the original scene. The image (scene image) can be restored.

도 4는 일 실시예에 따른 렌즈 어레이에서 초점 거리 및 원하는 시야각에 따라 결정되는 렌즈 엘리먼트의 개수 및 크기를 도시한 도면이다.FIG. 4 is a diagram illustrating the number and size of lens elements determined according to the focal length and desired viewing angle in a lens array according to an embodiment.

일 실시예에 따른 이미지 센서는 상술한 바와 같이 렌즈 어레이(410) 및 센싱 어레이(420)를 포함할 수 있다. 렌즈 어레이(410)는 복수의 렌즈 엘리먼트들을 포함할 수 있다. 복수의 렌즈 엘리먼트들 중 적어도 한 렌즈 엘리먼트의 렌즈 크기는 다른 렌즈 엘리먼트의 렌즈 크기와 다를 수 있다.The image sensor according to one embodiment may include a lens array 410 and a sensing array 420 as described above. Lens array 410 may include a plurality of lens elements. The lens size of at least one lens element among the plurality of lens elements may be different from the lens size of the other lens elements.

예를 들어, 복수의 렌즈 엘리먼트들은 렌즈 크기에 따라 복수의 렌즈 그룹들로 분류될 수 있다. 렌즈 그룹은 렌즈 크기 별로 분류된 렌즈 엘리먼트들의 그룹을 나타낼 수 있다. 예를 들어, 서로 동일한 렌즈 그룹에 속하는 렌즈 엘리먼트들은 서로 동일한 렌즈 크기를 가질 수 있고, 서로 다른 렌즈 그룹에 속하는 렌즈 엘리먼트들은 서로 다른 렌즈 크기를 가질 수 있다. 이미지 센서는 다양한 시야각(FOV, field of view)을 가지는 렌즈 엘리먼트들을 포함할 수 있다. 렌즈 엘리먼트의 시야각은 아래 수학식 5와 같이 나타낼 수 있다.For example, a plurality of lens elements may be classified into a plurality of lens groups according to lens size. A lens group may represent a group of lens elements classified by lens size. For example, lens elements belonging to the same lens group may have the same lens size, and lens elements belonging to different lens groups may have different lens sizes. An image sensor may include lens elements having various fields of view (FOV). The viewing angle of the lens element can be expressed as Equation 5 below.

[수학식 5][Equation 5]

상술한 수학식 5에서, FOV는 시야각, D는 도 1에서 상술한 임의의 렌즈 엘리먼트에 의해 커버되는 센싱 영역의 크기, F는 초점 거리(419)를 나타낼 수 있다.In Equation 5 above, FOV may represent the viewing angle, D may represent the size of the sensing area covered by any lens element described above in FIG. 1, and F may represent the focal length 419.

일 실시예에 따른 이미지 센서는 모바일 단말로 구현될 수 있고, 모바일 단말의 폼 팩터를 충족하기 위해 초점 거리(419) F가 제한될 수 있다. 예를 들어, 초점 거리(F)는 모바일 단말의 두께보다 작을 수 있다. 이미지 센서를 모바일 단말에 구현하기 위해, 렌즈 그룹들은 서로 동일한 초점 거리(419) F를 가지도록 설계될 수 있다. 반면, 각 렌즈 그룹의 시야각은 다른 렌즈 그룹의 시야각과 다르게 설계될 수 있다.The image sensor according to one embodiment may be implemented as a mobile terminal, and the focal length 419 F may be limited to meet the form factor of the mobile terminal. For example, the focal length (F) may be smaller than the thickness of the mobile terminal. To implement an image sensor in a mobile terminal, lens groups may be designed to have the same focal length 419 F. On the other hand, the viewing angle of each lens group may be designed to be different from the viewing angle of other lens groups.

예를 들어, 이미지 센서는, 원거리 피사체의 정보를 획득하기 위해, 여러 시야각을 가지는 렌즈 그룹으로 구성된 렌즈 어레이(410)를 포함할 수 있다. 상술한 바와 같이 모든 렌즈 엘리먼트에 대해 초점 거리(419) F가 고정되는 경우, 시야각 FOV가 달라지면 상술한 수학식 5에 따라 렌즈 엘리먼트에 의해 커버되는 센싱 영역의 크기(예를 들어, 길이 D)가 달라질 수 있다. 달리 말해, 센싱 어레이(420) 상의 임의의 영역을 커버하는 렌즈 그룹의 줌 배율이 커지면 해당 렌즈 그룹에 속하는 렌즈 엘리먼트의 개수가 증가하도록 렌즈 어레이(410)가 설계될 수 있고, 이러한 렌즈 어레이(410)의 설계를 통해 해당 렌즈 그룹의 초점 길이는 일정하게 유지될 수 있다. 또한, 해당 렌즈 그룹에 속하는 렌즈 엘리먼트들의 렌즈 크기는, 렌즈 그룹의 배율이 커질수록 감소할 수 있다. 해당 렌즈 그룹에 속하는 렌즈 엘리먼트들의 렌즈 크기는 해당 그룹에 속하는 렌즈 엘리먼트의 개수가 증가해도 감소할 수 있다. 따라서, 임의의 렌즈 그룹에 속하는 렌즈 엘리먼트들의 개수는, 해당 렌즈 그룹의 시야각 및 초점 길이에 따른 렌즈 크기에 기초하여 결정될 수 있다.For example, the image sensor may include a lens array 410 composed of lens groups having multiple viewing angles in order to obtain information about a distant subject. As described above, when the focal length 419 F is fixed for all lens elements, if the viewing angle FOV varies, the size (e.g., length D) of the sensing area covered by the lens element according to Equation 5 described above is It may vary. In other words, the lens array 410 may be designed so that as the zoom magnification of a lens group covering an arbitrary area on the sensing array 420 increases, the number of lens elements belonging to the lens group increases, and this lens array 410 ) Through the design of the lens group, the focal length of the lens group can be kept constant. Additionally, the lens size of the lens elements belonging to the corresponding lens group may decrease as the magnification of the lens group increases. The lens size of the lens elements belonging to the corresponding lens group may decrease even if the number of lens elements belonging to the corresponding group increases. Accordingly, the number of lens elements belonging to an arbitrary lens group may be determined based on the lens size according to the viewing angle and focal length of the corresponding lens group.

또한, 각 렌즈 그룹에서, 렌즈 어레이의 일축을 따라 나타나는 렌즈 엘리먼트의 개수는 아래 수학식 6을 충족할 수 있다.Additionally, in each lens group, the number of lens elements appearing along one axis of the lens array may satisfy Equation 6 below.

[수학식 6][Equation 6]

상술한 수학식 6에서, Ri는 i번째 렌즈 그룹을 통해 센싱되는 이미지의 해상도, Li는 렌즈 어레이의 일축을 따라 나타나는 i번째 렌즈 그룹에 대응하는 렌즈 엘리먼트들의 개수, Ni는 임의의 자연수, M은 렌즈 어레이(410)에 포함된 렌즈 그룹의 개수를 나타낼 수 있다. Ri, Li, Ni, 및 M은 1이상의 정수일 수 있다. i는 1이상 M이하의 정수일 수 있다. 따라서 i번째 렌즈 그룹에 속하는 제i 렌즈 엘리먼트들의 개수는 Li x Li일 수 있다.In Equation 6 above, R i is the resolution of the image sensed through the ith lens group, L i is the number of lens elements corresponding to the ith lens group appearing along one axis of the lens array, and N i is an arbitrary natural number. , M may represent the number of lens groups included in the lens array 410. R i , L i , N i , and M may be integers of 1 or more. i may be an integer between 1 and M. Therefore, the number of i-th lens elements belonging to the i-th lens group may be L i x L i .

도 4는 M=3인 렌즈 어레이(410)의 단면도를 도시한 것으로서, 설명의 편의를 위해, 왼쪽부터 순서대로 제1 렌즈 그룹(411), 제2 렌즈 그룹(412), 제3 렌즈 그룹(413)이라고 나타낼 수 있다. L1은 렌즈 어레이의 일축을 따라 제1 렌즈 그룹(411)에 대응하는 따른 렌즈 엘리먼트들의 개수를 나타낼 수 있고, 도 4에 도시된 렌즈 어레이(410)에서 L1은 3일 수 있다. L2은 렌즈 어레이의 일축을 따라 제2 렌즈 그룹(412)에 대응하는 렌즈 엘리먼트들의 개수로서, 도 4에 도시된 렌즈 어레이(410)에서 L2은 9일 수 있다. L3는 렌즈 어레이의 일축을 따라 제3 렌즈 그룹(413)에 대응하는 렌즈 엘리먼트들의 개수로서, L3은 27일 수 있다. 도 3에서 상술한 바와 같이, 도 4도 이미지 센서에 대해 임의의 한 축을 따른 단면도를 나타낸 것이므로, L1, L2, 및 L3는 해당 축을 따라 나타나는 렌즈 엘리먼트들의 개수일 수 있다. 제1 렌즈 그룹(411)에 속하는 제1 렌즈 엘리먼트들의 개수는 3x3=9개, 제2 렌즈 그룹(412)에 속하는 제2 렌즈 엘리먼트들의 개수는 9x9=81개, 제3 렌즈 그룹에 속하는 제3 렌즈 엘리먼트들의 개수는 27x27=729개일 수 있다.Figure 4 shows a cross-sectional view of the lens array 410 with M = 3, and for convenience of explanation, the first lens group 411, the second lens group 412, and the third lens group ( 413). L 1 may represent the number of lens elements corresponding to the first lens group 411 along one axis of the lens array, and in the lens array 410 shown in FIG. 4, L 1 may be 3. L 2 is the number of lens elements corresponding to the second lens group 412 along one axis of the lens array. In the lens array 410 shown in FIG. 4, L 2 may be 9. L 3 is the number of lens elements corresponding to the third lens group 413 along one axis of the lens array, and L 3 may be 27. As described above in FIG. 3 , FIG. 4 also shows a cross-sectional view of the image sensor along one arbitrary axis, so L 1 , L 2 , and L 3 may be the number of lens elements appearing along the axis. The number of first lens elements belonging to the first lens group 411 is 3x3 = 9, the number of second lens elements belonging to the second lens group 412 is 9x9 = 81, and the third lens element belonging to the third lens group is 9x9 = 81. The number of lens elements may be 27x27=729.

제1 렌즈 그룹(411)은 제1 시야각(451)(예를 들어, 77도) 내의 광선들을 제1 센싱 엘리먼트로 전달할 수 있다. 제1 센싱 엘리먼트는 제1 렌즈 그룹(411)에 속하는 제1 렌즈 엘리먼트에 의해 커버되는 센싱 엘리먼트를 나타낼 수 있고, 제1 렌즈 엘리먼트를 통과한 빛을 수신할 수 있다. 제1 센싱 엘리먼트는 제1 줌 배율(예를 들어, 1배)에 대응하는 정보를 센싱할 수 있다. 제2 렌즈 그룹(412)은 제2 시야각(452)(예를 들어, 30도) 내의 광선들을 제2 센싱 엘리먼트로 전달할 수 있다. 제2 센싱 엘리먼트는 제2 렌즈 그룹(412)에 속하는 제2 렌즈 엘리먼트에 의해 커버되는 센싱 엘리먼트를 나타낼 수 있고, 제2 렌즈 엘리먼트를 통과한 빛을 수신할 수 있다. 제2 센싱 엘리먼트는 제2 줌 배율(예를 들어, 3배)에 대응하는 정보를 센싱할 수 있다. 제3 렌즈 그룹(413)은 제3 시야각(453)(예를 들어, 10도) 내의 광선들을 제3 센싱 엘리먼트로 전달할 수 있다. 제3 센싱 엘리먼트는 제3 렌즈 그룹(413)에 속하는 제3 렌즈 엘리먼트에 의해 커버되는 센싱 엘리먼트를 나타낼 수 있고, 제3 렌즈 엘리먼트를 통과한 빛을 수신할 수 있다. 제3 센싱 엘리먼트는 제3 줌 배율(예를 들어, 9배)에 대응하는 정보를 센싱할 수 있다.The first lens group 411 may transmit light rays within the first viewing angle 451 (eg, 77 degrees) to the first sensing element. The first sensing element may represent a sensing element covered by a first lens element belonging to the first lens group 411, and may receive light passing through the first lens element. The first sensing element may sense information corresponding to the first zoom magnification (eg, 1x). The second lens group 412 may transmit light rays within the second viewing angle 452 (eg, 30 degrees) to the second sensing element. The second sensing element may represent a sensing element covered by a second lens element belonging to the second lens group 412, and may receive light passing through the second lens element. The second sensing element may sense information corresponding to the second zoom magnification (eg, 3x). The third lens group 413 may transmit light rays within the third viewing angle 453 (eg, 10 degrees) to the third sensing element. The third sensing element may represent a sensing element covered by a third lens element belonging to the third lens group 413, and may receive light passing through the third lens element. The third sensing element may sense information corresponding to the third zoom magnification (eg, 9x).

일 실시예에 따르면 이미지 센서는 단일 센서로 구현되거나, 동일 센싱 엘리먼트들로 구성된 복수의 센서로 구현될 수 있다. 이 때, 이미지 센서에서 각 렌즈 그룹은 동일한 해상도를 지원하도록 설계될 수 있다. 예를 들어, 각 렌즈 그룹에 의해 커버되는 센싱 영역은 다른 그룹과 동일한 개수의 센싱 엘리먼트 개수를 포함할 수 있다. 이 경우, 렌즈 어레이(410)의 일축에 따른 렌즈 엘리먼트들의 개수는 아래 수학식 7 내지 수학식 9를 충족할 수 있다.According to one embodiment, the image sensor may be implemented as a single sensor or may be implemented as a plurality of sensors composed of the same sensing elements. At this time, each lens group in the image sensor may be designed to support the same resolution. For example, the sensing area covered by each lens group may include the same number of sensing elements as other groups. In this case, the number of lens elements along one axis of the lens array 410 may satisfy Equations 7 to 9 below.

[수학식 7][Equation 7]

[수학식 8][Equation 8]

[수학식 9][Equation 9]

상술한 수학식 7에서, R은 모든 렌즈 그룹에 의해 공유되는 렌즈 어레이의 일축에 대응하는 해상도를 나타낼 수 있다. LM은 렌즈 어레이의 일축을 따라 M번째 렌즈 그룹에 대응하는 렌즈 엘리먼트들의 개수를 나타낼 수 있다. Li는 렌즈 어레이의 일축을 따라 i번째 렌즈 그룹에 대응하는 렌즈 엘리먼트들의 개수를 나타낼 수 있다. NM, Ni, 및 ai는 각각 임의의 자연수를 나타낼 수 있다. 복수의 렌즈 그룹들의 각각에 속하는 렌즈 엘리먼트의 개수는, 복수의 렌즈 엘리먼트들이 공유하는 해상도에 기초하여 결정될 수 있다. 따라서, 상술한 수학식 9에 따라, 각 렌즈 그룹은 모든 렌즈 그룹이 공유하는 해상도를 가지면서도, 각 렌즈 엘리먼트에 의해 커버되는 센싱 엘리먼트들의 개수와 서로소인 개수의 렌즈 엘리먼트들을 포함할 수 있다.In Equation 7 above, R may represent the resolution corresponding to one axis of the lens array shared by all lens groups. L M may represent the number of lens elements corresponding to the Mth lens group along one axis of the lens array. L i may represent the number of lens elements corresponding to the ith lens group along one axis of the lens array. N M , N i , and a i can each represent any natural number. The number of lens elements belonging to each of the plurality of lens groups may be determined based on the resolution shared by the plurality of lens elements. Therefore, according to Equation 9 above, each lens group may have a resolution shared by all lens groups and include a number of lens elements that are coprime to the number of sensing elements covered by each lens element.

따라서, 일 실시예에 따른 이미지 센서는 서로 소와 수학식 9를 만족하는 렌즈 어레이(410)와 센싱 어레이(420)에 의해 촬영된 이미지에 재배열 및 복원 등을 적용함으로써, 원본 장면에 보다 근접한 색상을 가진 고해상도 이미지를 복원할 수 있다.Therefore, the image sensor according to one embodiment applies rearrangement and restoration to the images captured by the lens array 410 and the sensing array 420 that satisfy Sowa Equation 9, thereby providing a closer approximation to the original scene. High-resolution images with color can be restored.

예를 들어, 이미지 센서는, 센싱 엘리먼트들이 베이어(Bayer) 패턴으로 나열된 컬러 센서(예를 들어, 가시광선 대역에서, 적색, 녹색, 및 청색 채널의 이미지를 센싱하는 센서), 및 베이어 패턴으로 나열된 렌즈 엘리먼트들을 사용한 카메라로부터 획득된 이미지를, 상술한 바와 같이 유사한 라이트 필드 순서에 따라 재배열할 수 있다. 이미지 센서는 균일한 컬러 패턴을 얻을 수 있으므로, 높은 퍼포먼스(higher performance)의 컬러 보간(interpolation)을 제공할 수 있다.For example, an image sensor may include a color sensor (e.g., a sensor that senses images in the red, green, and blue channels in the visible light band) whose sensing elements are arranged in a Bayer pattern, and a color sensor whose sensing elements are arranged in a Bayer pattern. Images acquired from a camera using lens elements can be rearranged according to a similar light field order as described above. Since the image sensor can obtain a uniform color pattern, it can provide higher performance color interpolation.

도 5는 렌즈 어레이에서 렌즈 엘리먼트들의 일 실시예에 따른 배치를 설명하는 도면이다.FIG. 5 is a diagram illustrating the arrangement of lens elements in a lens array according to an embodiment.

일 실시예에 따르면 서로 동일한 렌즈 그룹에 속하는 렌즈 엘리먼트들은 서로에 대해 인접하도록 배치될 수 있다. 도 5에서 제1 렌즈 크기를 가지는 제1 렌즈 그룹(511)의 제1 렌즈 엘리먼트들은 서로 인접하여 배치될 수 있다. 나머지 렌즈 그룹들(512, 513, 514)의 각각에 속하는 렌즈 엘리먼트들도 서로 인접하여 배치될 수 있다.According to one embodiment, lens elements belonging to the same lens group may be arranged adjacent to each other. In FIG. 5 , first lens elements of the first lens group 511 having the first lens size may be arranged adjacent to each other. Lens elements belonging to each of the remaining lens groups 512, 513, and 514 may also be arranged adjacent to each other.

도 5는 M=4인 경우로서, 렌즈 어레이(510)가 4개의 렌즈 그룹들을 포함하는 구조를 탑뷰로 도시한다. 제1 렌즈 그룹(511)은, L1=2로서, 2x2=4개의 렌즈 엘리먼트들을 포함할 수 있다. 제2 렌즈 그룹(512)은, L2=4로서, 4x4=16개의 렌즈 엘리먼트들을 포함할 수 있다. 유사하게, 제3 렌즈 그룹(513)은 64개의 렌즈 엘리먼트들을 포함할 수 있고, 제4 렌즈 그룹(514)은 256개의 렌즈 엘리먼트들을 포함할 수 있다. 도 5에서 설명의 편의를 위하여, 이미지 센서는 단일 센서로 구현된 것으로 도시되었으나, 이로 한정하는 것은 아니고, 이미지 센서는 각 렌즈 그룹을 포함하는 4개의 이미지 센서로 구현될 수 있으며, 더 나아가, 서로 다른 종류의 이미지 센서(예를 들어, 개별 센싱 엘리먼트의 크기가 다른 센서)로 구현될 수도 있다.FIG. 5 shows a top view of a structure in which M=4 and the lens array 510 includes four lens groups. The first lens group 511 has L 1 = 2 and may include 2x2 = 4 lens elements. The second lens group 512 may include 4x4=16 lens elements, with L 2 =4. Similarly, the third lens group 513 may include 64 lens elements, and the fourth lens group 514 may include 256 lens elements. For convenience of explanation in FIG. 5, the image sensor is shown as being implemented as a single sensor, but it is not limited to this, and the image sensor may be implemented as four image sensors including each lens group, and further, each other. It may also be implemented with different types of image sensors (for example, sensors with different sizes of individual sensing elements).

참고로, 이미지 센서의 프로세서는 복수의 센싱 엘리먼트들을 통해 센싱된 센싱 정보에 기초하여, 복안 시야 이미지(CEV image, compound eye vision image)를 획득할 수 있다. 본 명세서에서 복안 시야 이미지는, 곤충의 겹눈을 통해 관측된 것처럼, 동일하거나 유사한 장면을 중첩적으로 촬영한 이미지를 나타낼 수 있다. 예를 들어, 이미지 센서는 어레이 형태로 배열된 복수의 렌즈들을 통해 복수의 센싱 엘리먼트들에서 수신된 광선의 세기에 기초하여, 복안 시야 이미지를 획득할 수 있다.For reference, the processor of the image sensor may acquire a compound eye vision image (CEV image) based on sensing information sensed through a plurality of sensing elements. In this specification, the compound eye field image may represent an image obtained by overlapping the same or similar scene as observed through the compound eyes of an insect. For example, the image sensor may acquire a compound eye field image based on the intensity of light rays received from a plurality of sensing elements through a plurality of lenses arranged in an array.

예를 들어, 프로세서는, 제1 렌즈 그룹(511)을 통해 수신된 빛을 센싱하여 획득된 2x2 개의 제1 그룹 이미지, 제2 렌즈 그룹(512)을 통해 수신된 빛을 센싱하여 획득된 4x4 개의 제2 그룹 이미지, 제3 렌즈 그룹(513)을 통해 수신된 빛을 센싱하여 획득된 8x8 개의 제3 그룹 이미지, 및 제4 렌즈 그룹(514)을 통해 수신된 빛을 센싱하여 획득된 16x16 개의 제4 그룹 이미지를 포함하는 복안 시야 이미지를 생성할 수 있다. 프로세서는 도 3에서 상술한 바와 같이, 복수의 센싱 엘리먼트들에서 센싱되는 라이트 필드 정보에 기초하여, 복안 시야 이미지를 재배열할 수 있다.For example, the processor may generate 2x2 first group images obtained by sensing light received through the first lens group 511 and 4x4 images obtained by sensing light received through the second lens group 512. A second group image, 8x8 third group images obtained by sensing light received through the third lens group 513, and 16x16 third group images obtained by sensing light received through the fourth lens group 514. A compound field of view image containing 4 group images can be created. As described above with reference to FIG. 3 , the processor may rearrange the compound eye field image based on light field information sensed by a plurality of sensing elements.

하기 도 6에서는, 도 5에 도시된 렌즈 어레이(510)를 통해 장면에 대해 획득되는 센싱 정보를 설명한다.In FIG. 6 below, sensing information obtained about a scene through the lens array 510 shown in FIG. 5 is explained.

도 6은 도 5에서 설명된 바와 같이 배치된 렌즈 엘리먼트들을 통해 센싱 엘리먼트들이 센싱하는 장면의 시야각들을 설명하는 도면이다.FIG. 6 is a diagram illustrating viewing angles of a scene sensed by sensing elements through lens elements arranged as described in FIG. 5.

일 실시예에 따른 렌즈 어레이는 이미지 센서의 외부로부터 빛을 수신하여 센싱 어레이로 전달할 수 있다. 렌즈 어레이의 각 렌즈 엘리먼트는 렌즈 크기에 따라 다른 시야각을 가질 수 있다. 예를 들어, 도 5에서 설명한 제1 렌즈 그룹에 속하는 제1 렌즈 엘리먼트는 제1 시야각, 제2 렌즈 그룹에 속하는 제2 렌즈 엘리먼트는 제2 시야각, 제3 렌즈 그룹에 속하는 제3 렌즈 엘리먼트는 제3 시야각, 제4 렌즈 그룹에 속하는 제4 렌즈 엘리먼트는 제4 시야각을 가질 수 있다.The lens array according to one embodiment may receive light from outside the image sensor and transmit it to the sensing array. Each lens element of the lens array may have a different viewing angle depending on the lens size. For example, the first lens element belonging to the first lens group described in FIG. 5 has a first viewing angle, the second lens element belonging to the second lens group has a second viewing angle, and the third lens element belonging to the third lens group has a first viewing angle. 3 viewing angle, the fourth lens element belonging to the fourth lens group may have a fourth viewing angle.

각 렌즈 그룹에 의해 커버되는 센싱 영역에 속하는 센싱 엘리먼트들은, 해당 렌즈 그룹의 시야각에 대응하는 광선들을 센싱할 수 있다. 도 6은, 각 렌즈 그룹의 시야각 별로, 해당 렌즈 그룹에 의해 커버되는 센싱 엘리먼트가 센싱하는 센싱 정보를 도시한다.Sensing elements belonging to the sensing area covered by each lens group can sense rays corresponding to the viewing angle of the corresponding lens group. Figure 6 shows sensing information sensed by the sensing element covered by the lens group for each viewing angle of each lens group.

제1 렌즈 엘리먼트에 의해 커버되는 제1 센싱 엘리먼트는 제1 시야각에 대응하는 광선들을 제1 렌즈 엘리먼트를 통해 수신하여 제1 센싱 정보(611)를 센싱할 수 있다. 제1 센싱 정보(611)는 제1 시야각에 대응하는 영역(610)에 관해 센싱된 정보일 수 있다. 제2 센싱 엘리먼트는 제2 시야각에 대응하는 광선들을 제2 렌즈 엘리먼트를 통해 수신하여, 제2 센싱 정보(621)를 센싱할 수 있다. 제2 센싱 정보(621)는 제2 시야각에 대응하는 영역(620)에 대해 센싱된 정보일 수 있다. 제3 센싱 엘리먼트는 제3 시야각에 대응하는 광선들을 제3 렌즈 엘리먼트를 통해 수신하여, 제3 센싱 정보(631)를 센싱할 수 있다. 제3 센싱 정보(631)는 제3 시야각에 대응하는 영역(630)에 대해 센싱된 정보일 수 있다. 또한, 제4 센싱 엘리먼트는 제4 시야각에 대응하는 광선들을 제4 렌즈 엘리먼트를 통해 수신하여 제4 센싱 정보(641)를 센싱할 수 있다. 제4 센싱 정보(641)는 제4 시야각에 대응하는 영역(640)에 대해 센싱된 정보일 수 있다.The first sensing element covered by the first lens element may sense the first sensing information 611 by receiving rays corresponding to the first viewing angle through the first lens element. The first sensing information 611 may be sensed information about the area 610 corresponding to the first viewing angle. The second sensing element may sense the second sensing information 621 by receiving rays corresponding to the second viewing angle through the second lens element. The second sensing information 621 may be information sensed for the area 620 corresponding to the second viewing angle. The third sensing element may sense third sensing information 631 by receiving rays corresponding to the third viewing angle through the third lens element. The third sensing information 631 may be information sensed for the area 630 corresponding to the third viewing angle. Additionally, the fourth sensing element may sense fourth sensing information 641 by receiving rays corresponding to the fourth viewing angle through the fourth lens element. The fourth sensing information 641 may be information sensed for the area 640 corresponding to the fourth viewing angle.

도 6에 도시된 바와 같이, 전체 시야각(예를 들어, 제1 시야각)에 대응하는 영역(610) 중 가장자리 영역에서는 제1 센싱 엘리먼트에 의해서만 센싱 정보가 수집되므로, 중심 영역(예를 들어, 제4 시야각에 대응하는 영역(640))에 비해 수집되는 센싱 정보의 밀도가 낮다. 중심 영역에서는 제1 센싱 엘리먼트 내지 제4 센싱 엘리먼트에 의해 센싱된 모든 센싱 정보가 수집되므로, 센싱 정보의 밀도가 높다. 따라서, 이미지 센서의 프로세서는, 복수의 센싱 엘리먼트들에 의해 센싱된 센싱 정보에 기초하여, 렌즈 어레이에 대응하는 시야각 중 중심 영역에 대해 그 주변 영역보다 높은 해상도로 이미지를 복원할 수 있다.As shown in FIG. 6, since sensing information is collected only by the first sensing element in the edge area of the area 610 corresponding to the entire viewing angle (e.g., the first viewing angle), the center area (e.g., the first viewing angle) The density of collected sensing information is low compared to the area 640 corresponding to the viewing angle of 4). In the central area, all sensing information sensed by the first to fourth sensing elements is collected, so the density of sensing information is high. Accordingly, the processor of the image sensor can restore an image with higher resolution for the central area of the viewing angle corresponding to the lens array than the surrounding area, based on sensing information sensed by the plurality of sensing elements.

더 나아가, 이미지 센서는 사용자로부터 줌 배율이 입력되는 경우에 응답하여, 입력된 줌 배율에 기초하여 확대된 장면 이미지를 생성할 수 있다. 예를 들어, 이미지 센서는 복수의 센싱 엘리먼트들을 통해 센싱된 센싱 정보로부터 사용자에 의해 지정된 줌 배율(zoom factor)에 대응하는 대상 정보(target information)를 선택할 수 있다. 이미지 센서는 센싱 정보로부터 줌 배율에 대응하는 시야각에 대응하는 정보를 대상 정보로서 선택할 수 있다. 이미지 센서는 선택된 대상 정보로부터 장면 이미지를 복원할 수 있다. 예를 들어, 도 6에서 제2 렌즈 그룹에 지정된 제2 시야각에 대응하는 줌 배율이 입력된 경우, 이미지 센서는 제2 시야각에 대응하는 영역(620) 내에서 센싱된 센싱 정보를 이용하여, 장면 이미지를 복원할 수 있다. 장면 이미지의 복원 동작은 이미지 센서의 기하 구조에 따른 픽셀 재배치 동작 또는 이미지 복원 모델을 이용하여 복안 시야 이미지로부터 출력 이미지를 추정하는 동작 등을 포함할 수 있다.Furthermore, in response to a zoom factor input from the user, the image sensor may generate an enlarged scene image based on the input zoom factor. For example, the image sensor may select target information corresponding to a zoom factor specified by the user from sensing information sensed through a plurality of sensing elements. The image sensor may select information corresponding to the viewing angle corresponding to the zoom magnification from the sensing information as target information. The image sensor can restore a scene image from selected target information. For example, when the zoom factor corresponding to the second viewing angle specified in the second lens group in FIG. 6 is input, the image sensor uses the sensing information sensed within the area 620 corresponding to the second viewing angle to view the scene. Images can be restored. The scene image restoration operation may include a pixel rearrangement operation according to the geometry of the image sensor or an operation of estimating an output image from the compound eye field image using an image restoration model.

따라서, 확대 이미지(예를 들어, 줌 배율이 증가하면서 시야각이 좁아진 이미지)를 복원할 때 해당 확대 이미지에 대해 각 렌즈 엘리먼트에 의해 제공되는 시야각 영역이 중첩될 수 있다. 이러한 시야각 영역의 중첩으로 인해, 이미지 센서는 여러 구조(예를 들어, 다양한 렌즈 크기)의 렌즈의 정보를 동시에 이용하여 보다 고해상도의 확대된 장면 이미지를 복원할 수 있다.Accordingly, when restoring an enlarged image (for example, an image whose viewing angle is narrowed as the zoom magnification increases), the viewing angle area provided by each lens element for the corresponding enlarged image may overlap. Due to this overlap of viewing angle areas, the image sensor can simultaneously use information from lenses of various structures (eg, various lens sizes) to restore a higher-resolution enlarged scene image.

참고로, 도 6은 무한 초점 위치의 지점들로부터 반사 또는 방출된 광선들을 수신한 것을 가정한 것으로서, 유한 초점 위치로부터 광선이 수신될 경우 이미지 센서의 각 렌즈 그룹의 시야각 범위 영역이 달라질 수 있다.For reference, Figure 6 assumes that rays reflected or emitted from points at infinite focus positions are received, and when rays are received from finite focus positions, the viewing angle range area of each lens group of the image sensor may vary.

도 7 내지 도 10은 렌즈 엘리먼트들의 다른 일 실시예에 따른 배치를 설명하는 도면이다.7 to 10 are diagrams explaining the arrangement of lens elements according to another embodiment.

도 7에 도시된 렌즈 어레이(710)에서, 복수의 렌즈 그룹들 중 한 렌즈 그룹이 단일 렌즈 엘리먼트를 포함할 수 있다. 예를 들어, 제1 렌즈 그룹(711)은 단일 렌즈 엘리먼트를 포함할 수 있다. 나머지 렌즈 그룹들(712, 713, 714)의 각각은 상술한 바와 같이 복수의 렌즈 엘리먼트들을 포함할 수 있다. 따라서, 이미지 센서는, 도 7에 도시된 구조의 렌즈 어레이(710)를 통해 센싱된 센싱 정보에 기초하여, 광각 이미지의 화질 및 줌 배율에 대응하는 이미지의 화질이 모두 향상되도록, 장면 이미지를 복원할 수 있다.In the lens array 710 shown in FIG. 7, one lens group among a plurality of lens groups may include a single lens element. For example, the first lens group 711 may include a single lens element. Each of the remaining lens groups 712, 713, and 714 may include a plurality of lens elements as described above. Therefore, the image sensor restores the scene image so that both the image quality of the wide-angle image and the image quality of the image corresponding to the zoom ratio are improved based on the sensing information sensed through the lens array 710 of the structure shown in FIG. 7. can do.

도 8에 도시된 렌즈 어레이(810)에서, 렌즈 엘리먼트들은 렌즈 크기에 따라 배열될 수 있다. 예를 들어, 복수의 렌즈 엘리먼트들 중 한 렌즈 엘리먼트는 해당 렌즈 엘리먼트의 렌즈 크기보다 큰 렌즈 크기를 가지는 다른 렌즈 엘리먼트보다 렌즈 어레이(810)의 중심 위치에 가깝게 배치될 수 있다. 또한, 복수의 렌즈 엘리먼트들 중 한 렌즈 엘리먼트는 해당 렌즈 엘리먼트의 렌즈 크기보다 작은 렌즈 크기를 가지는 다른 렌즈 엘리먼트보다 렌즈 어레이(810)의 중심 위치로부터 멀게 배치될 수 있다.In the lens array 810 shown in FIG. 8, lens elements can be arranged according to lens size. For example, one lens element among the plurality of lens elements may be disposed closer to the center position of the lens array 810 than another lens element having a lens size larger than that of the corresponding lens element. Additionally, one lens element among the plurality of lens elements may be disposed farther from the center position of the lens array 810 than another lens element having a lens size smaller than the lens size of the corresponding lens element.

예를 들어, 4개의 렌즈 그룹들 중에서 가장 큰 제1 렌즈 크기를 가지는 제1 렌즈 그룹에 속하는 제1 렌즈 엘리먼트들(811)은 렌즈 어레이(810)에서 가장 자리에 배치될 수 있다. 제1 렌즈 크기보다 작은 제2 렌즈 크기를 가지는 제2 렌즈 엘리먼트들(812)은 제1 렌즈 엘리먼트들(811)보다 중심 위치에 가깝게 배치될 수 있다. 제2 렌즈 크기보다 작은 제3 렌즈 크기를 가지는 제3 렌즈 엘리먼트들(813)은 제2 렌즈 엘리먼트들(812)보다 중심 위치에 가깝게 배치될 수 있다. 제3 렌즈 크기보다 작은 제4 렌즈 크기를 가지는 제4 렌즈 엘리먼트들(814)은 중심 위치에 가장 가깝게 배치될 수 있다.For example, among the four lens groups, the first lens elements 811 belonging to the first lens group having the largest first lens size may be arranged at the edge of the lens array 810. The second lens elements 812 having a second lens size smaller than the first lens size may be arranged closer to the center position than the first lens elements 811. The third lens elements 813 having a third lens size smaller than the second lens size may be disposed closer to the center position than the second lens elements 812. The fourth lens elements 814 having a fourth lens size smaller than the third lens size may be disposed closest to the center position.

도 9에 도시된 렌즈 어레이는 도 8에 도시된 렌즈 어레이(810)와 동일 또는 유사하게 배치된 렌즈 엘리먼트들을 포함할 수 있다. 도 9에서 일 실시예에 따른 복수의 렌즈 엘리먼트들의 각각은, 동일한 개수의 센싱 엘리먼트를 커버할 수 있다. 예를 들어, 제1 렌즈 엘리먼트들(911)의 각각은 4x4=16개의 센싱 엘리먼트들을 커버할 수 있다. 제2 렌즈 엘리먼트들(912), 제3 렌즈 엘리먼트들(913), 및 제4 렌즈 엘리먼트들(914)도 동일하게 16개의 센싱 엘리먼트들을 커버할 수 있다. 이 경우, 센싱 어레이(920)에서 센싱 엘리먼트의 크기(size)는 렌즈 엘리먼트에 의해 커버되는 센싱 엘리먼트의 개수가 동일하도록 설계될 수 있다. 예를 들어, 제1 렌즈 엘리먼트들(911)에 의해 커버되는 제1 센싱 엘리먼트의 제1 센싱 크기(예를 들어, 픽셀 크기)보다, 제2 렌즈 엘리먼트들(912)에 의해 커버되는 제2 센싱 엘리먼트의 제2 센싱 크기가 작을 수 있다. 제3 센싱 엘리먼트의 제3 센싱 크기는 제2 센싱 크기보다 작을 수 있고, 제4 센싱 엘리먼트의 제4 센싱 크기는 제3 센싱 크기보다 작을 수 있다. 본 명세서에서, 센싱 엘리먼트의 센싱 크기는, 예를 들어, 센싱 엘리먼트의 픽셀 피치(pixel pitch)를 나타낼 수 있다. 작은 시야각을 제공하는 렌즈 엘리먼트도 다른 렌즈 엘리먼트와 동일한 개수의 센싱 엘리먼트를 커버하므로, 멀티 렌즈로 인한 해상도 저하의 정도가 감소하고, 복원되는 장면 이미지의 화질이 향상될 수 있다.The lens array shown in FIG. 9 may include lens elements arranged identically or similarly to the lens array 810 shown in FIG. 8 . In FIG. 9, each of a plurality of lens elements according to an embodiment may cover the same number of sensing elements. For example, each of the first lens elements 911 may cover 4x4=16 sensing elements. The second lens elements 912, third lens elements 913, and fourth lens elements 914 may equally cover 16 sensing elements. In this case, the size of the sensing elements in the sensing array 920 may be designed so that the number of sensing elements covered by the lens elements is the same. For example, the second sensing size covered by the second lens elements 912 is greater than the first sensing size (e.g., pixel size) of the first sensing element covered by the first lens elements 911. The second sensing size of the element may be small. The third sensing size of the third sensing element may be smaller than the second sensing size, and the fourth sensing size of the fourth sensing element may be smaller than the third sensing size. In this specification, the sensing size of the sensing element may indicate, for example, the pixel pitch of the sensing element. Since the lens element that provides a small viewing angle also covers the same number of sensing elements as other lens elements, the degree of resolution degradation due to multiple lenses can be reduced and the quality of the restored scene image can be improved.

참고로, 설명의 편의를 위해, 도 9에서 각 렌즈 엘리먼트에 의해 커버되는 센싱 엘리먼트들의 개수가 정수로 도시되었으나, 이로 한정하는 것은 아니고 도 3에서 상술한 바와 같이 각 렌즈 엘리먼트는 분수 개(fractional number)의 센싱 엘리먼트들을 커버할 수 있다.For reference, for convenience of explanation, the number of sensing elements covered by each lens element in FIG. 9 is shown as an integer, but it is not limited to this, and as described above in FIG. 3, each lens element is a fractional number. ) can cover the sensing elements.

도 10에 도시된 렌즈 어레이(1010)에서, 복수의 렌즈 엘리먼트들(1011)의 각각은, 렌즈 어레이(1010)에 대응하는 평면 상에서 복수의 센싱 엘리먼트들에 대해 무작위로 배치될 수 있다. 복수의 렌즈 엘리먼트들(1011)은 렌즈 크기 별로 상술한 수학식 9를 충족하는 개수로 구성될 수 있고, 렌즈 어레이(1010)의 평면 상에 무작위로 배치될 수 있다. 무작위로 배치된 렌즈 배치들 중 일부 배치를 통해, 이미지 센서는 광각 뿐만 아니라 개별 렌즈 크기에 의해 지원되는 줌 배율들의 각각에 대해 균등하게 고해상도를 가지는 장면 이미지를 복원할 수 있다.In the lens array 1010 shown in FIG. 10, each of the plurality of lens elements 1011 may be randomly arranged with respect to the plurality of sensing elements on a plane corresponding to the lens array 1010. The plurality of lens elements 1011 may be configured in a number that satisfies Equation 9 described above for each lens size, and may be randomly arranged on the plane of the lens array 1010. With some of the randomly placed lens arrangements, the image sensor can restore a scene image with uniformly high resolution not only for wide angle but also for each of the zoom magnifications supported by the individual lens sizes.

도 11은 일 실시예에 따른 이미지 센서의 구조를 도시한 블록도이다.Figure 11 is a block diagram showing the structure of an image sensor according to an embodiment.

일 실시예에 따르면 이미지 센서(1100)는 렌즈 어레이(1111), 센싱 어레이(1120), 및 프로세서(1130)를 포함할 수 있다.According to one embodiment, the image sensor 1100 may include a lens array 1111, a sensing array 1120, and a processor 1130.

렌즈 어레이(1111)는 복수의 렌즈 엘리먼트들을 포함할 수 있다. 복수의 렌즈 엘리먼트들은 렌즈 평면 상에 배치될 수 있다. 복수의 렌즈 엘리먼트들은 모두 동일하거나 유사한 초점 거리를 가질 수 있다. 본 명세서에서 서로 동일한 초점 거리를 가지도록 설계된 복수의 렌즈 엘리먼트들에 있어서, 복수의 렌즈 엘리먼트들의 초점 거리들은 제조 공차로 인해 미세한 차이를 나타낼 수도 있다. 예를 들어, 복수의 렌즈 엘리먼트들 각각의 초점 거리들 간의 차이는 서로 임계 오차 미만일 수 있다. 상술한 바와 같이, 복수의 렌즈 엘리먼트들 중 적어도 한 렌즈 엘리먼트의 렌즈 크기는 다른 렌즈 엘리먼트의 렌즈 크기와 다를 수 있다. 복수의 렌즈 엘리먼트들의 각각은 빛을 굴절시켜서 복수의 센싱 엘리먼트들을 포함하는 센싱 어레이(1120) 상의 지점에 초점(focal point)을 형성할 수 있다.The lens array 1111 may include a plurality of lens elements. A plurality of lens elements may be disposed on a lens plane. The plurality of lens elements may all have the same or similar focal length. In the present specification, in a plurality of lens elements designed to have the same focal length, the focal distances of the plurality of lens elements may show a slight difference due to manufacturing tolerances. For example, the difference between the focal lengths of each of the plurality of lens elements may be less than a mutual threshold error. As described above, the lens size of at least one lens element among the plurality of lens elements may be different from the lens size of the other lens elements. Each of the plurality of lens elements may refract light to form a focal point at a point on the sensing array 1120 including a plurality of sensing elements.

센싱 어레이(1120)는 복수의 센싱 엘리먼트들을 포함할 수 있다. 복수의 센싱 엘리먼트들은 렌즈 평면과 평행한 센싱 평면 상에 배치될 수 있다. 복수의 센싱 엘리먼트들은 렌즈 어레이(1111)로부터 초점 거리만큼 이격된 센싱 평면 상에 배치될 수 있다. 복수의 센싱 엘리먼트들의 각각은 렌즈 어레이(1111)를 통과한 빛을 센싱할 수 있다. 예를 들어, 복수의 센싱 엘리먼트들의 각각은 해당 센싱 엘리먼트를 커버하는 렌즈 엘리먼트를 통과한 빛을 수신할 수 있다.Sensing array 1120 may include a plurality of sensing elements. A plurality of sensing elements may be disposed on a sensing plane parallel to the lens plane. A plurality of sensing elements may be arranged on a sensing plane spaced apart from the lens array 1111 by the focal distance. Each of the plurality of sensing elements can sense light passing through the lens array 1111. For example, each of the plurality of sensing elements may receive light passing through a lens element covering the corresponding sensing element.

프로세서(1130)는 복수의 센싱 엘리먼트들에 의해 센싱된 빛의 세기 에 기초하여 장면 이미지를 복원할 수 있다. 예를 들어, 프로세서(1130)는 복수의 센싱 엘리먼트들을 통해 센싱된 센싱 정보에 기초하여, 복안 시야 이미지를 획득할 수 있다. 프로세서(1130)는 복안 시야 이미지로부터 장면 이미지를 복원할 수 있다. 장면 이미지는 이미지 센서(1100)에 의해 출력되는 이미지로서, 원본 장면과 동일 또는 유사하게 복원된 이미지를 나타낼 수 있다.The processor 1130 may restore a scene image based on the intensity of light sensed by a plurality of sensing elements. For example, the processor 1130 may acquire a compound eye field image based on sensing information sensed through a plurality of sensing elements. The processor 1130 may restore a scene image from a compound eye field image. The scene image is an image output by the image sensor 1100 and may represent a restored image identical to or similar to the original scene.

일 실시예에 따르면 프로세서(1130)는 복수의 센싱 엘리먼트들 및 복수의 렌즈 엘리먼트들 간의 기하 구조에 기초하여, 복안 시야 이미지로부터 장면 이미지를 복원할 수 있다. 예를 들어, 프로세서(1130)는 도 3에서 상술한 바와 같이, 복수의 센싱 엘리먼트들에서 서로 유사한 라이트 필드 정보를 센싱한 센싱 엘리먼트들의 픽셀들이 서로 인접하도록, 촬영된 이미지(예를 들어, 복안 시야 이미지)의 픽셀들을 재배열할 수 있다.According to one embodiment, the processor 1130 may restore a scene image from a compound eye field image based on the geometric structure between a plurality of sensing elements and a plurality of lens elements. For example, as described above in FIG. 3, the processor 1130 selects a captured image (e.g., compound eye view) so that pixels of the sensing elements that sense similar light field information in the plurality of sensing elements are adjacent to each other. The pixels of an image can be rearranged.

다른 일 실시예에 따르면 프로세서(1130)는 복안 시야 이미지를 획득하기 전에 트레이닝이 완료된 이미지 복원 모델(image restoration model)에 기초하여, 복안 시야 이미지로부터 장면 이미지를 복원할 수 있다. 이미지 복원 모델은, 임의의 복안 시야 이미지로부터 장면 이미지를 출력하도록 설계된 모델로서, 기계 학습 구조일 수 있다. 예를 들어, 이미지 복원 모델은 뉴럴 네트워크 구조를 포함할 수 있다. 이미지 복원 모델은, 임의의 기준 복안 시야 이미지로부터, 참값(ground truth)으로 주어진 기준 출력 이미지를 산출하도록 트레이닝될 수 있다. 다만, 이미지 복원 모델을 이로 한정하는 것은 아니다.According to another embodiment, the processor 1130 may restore a scene image from a compound eye field image based on an image restoration model that has been trained before acquiring the compound eye field image. The image restoration model is a model designed to output a scene image from an arbitrary compound eye field image and may be a machine learning structure. For example, an image restoration model may include a neural network structure. An image restoration model can be trained to produce a reference output image given as the ground truth from an arbitrary reference compound eye field image. However, the image restoration model is not limited to this.

도 12 및 도 13은 일 실시예에 따른 이미지 센서가 구현되는 기기의 예시를 도시하는 도면이다.12 and 13 are diagrams illustrating examples of devices in which image sensors are implemented according to an embodiment.

일 실시예에 따른 이미지 센서는 다양한 기술 분야에 적용될 수 있다. 이미지 센서는, 복수의 렌즈들로 구성되는 렌즈 어레이 및 복수의 센싱 엘리먼트들로 구성되는 센서가 비교적 짧은 초점 거리로 이격되도록 설계될 수 있다. 따라서, 이미지 센서는, 고화질 촬영을 위해 센서의 크기가 크면서도, 초박형 카메라(ultra thin camera)로 구현될 수 있다. 이와 같이 이미지 센서는 멀티 렌즈 어레이 구조를 통해 보다 감소된 두께로 구현될 수 있다. 이미지 센서는 AP, FPGA, Chip 등으로 구현되어 카메라의 이미지 신호 프로세서(Image Signal Processor)로서 구현될 수 있다.An image sensor according to an embodiment may be applied to various technical fields. The image sensor may be designed so that a lens array composed of a plurality of lenses and a sensor composed of a plurality of sensing elements are spaced apart at a relatively short focal length. Accordingly, the image sensor can be implemented as an ultra-thin camera while having a large sensor size for high-definition shooting. In this way, the image sensor can be implemented with a reduced thickness through a multi-lens array structure. The image sensor can be implemented with AP, FPGA, Chip, etc. and can be implemented as a camera's image signal processor.

더 나아가, 초박형 구조이면서도, 동일한 초점 거리와 함께 다양한 렌즈 크기를 가지는 렌즈 어레이를 이용하여, 이미지 센서는 복수의 줌 배율에 대한 센싱 정보를 획득할 수 있다. 따라서, 이미지 센서는 복수의 줌 배율에 대해서도 고해상도의 장면 이미지를 복원할 수 있다.Furthermore, by using a lens array that has an ultra-thin structure and has the same focal length and various lens sizes, the image sensor can obtain sensing information for a plurality of zoom magnifications. Accordingly, the image sensor can restore high-resolution scene images even for multiple zoom magnifications.

이미지 센서는, 모바일 단말로 구현(implement)될 수도 있다. 모바일 단말은 임의의 지리적 위치에 고정되지 않고 이동 가능한(movable) 단말로서, 예를 들어, 휴대 기기(portable device)(예를 들어, 스마트폰이나 태블릿 등과 같은 스마트 기기), 인공지능 스피커, 및 차량(vehicle) 등을 포함할 수 있다. 도 12 및 도 13은 모바일 단말의 예시로서, 모바일 단말을 이로 한정하는 것은 아니다.The image sensor may be implemented in a mobile terminal. Mobile terminals are terminals that are movable and not fixed to any geographical location, for example, portable devices (e.g., smart devices such as smartphones or tablets), artificial intelligence speakers, and vehicles. (vehicle), etc. may be included. 12 and 13 are examples of mobile terminals, and the mobile terminal is not limited thereto.

도 12에 도시된 바와 같이, 예를 들어, 이미지 센서(1210)는 스마트폰의 전면 카메라 또는 후면 카메라에 적용될 수 있다. 이미지 센서(1210)에서, 대형 풀 프레임 센서(Full Frame Sensor) 및 마이크로 렌즈 어레이(Micro-lens Array)가 결합된 구조로 휴대폰 카메라에 적용될 수 있다. 예를 들어, 도 12에 도시된 바와 같이, 스마트 기기(1200)에 전면 카메라로서, 이미지 센서(1210)가 구현될 수 있다. 이미지 센서(1210)의 센서는 풀 프레임(full frame)으로 구현될 수 있고, 렌즈 어레이는 마이크로 렌즈(micro lens)로 구현될 수 있다.As shown in FIG. 12, for example, the image sensor 1210 may be applied to the front camera or rear camera of a smartphone. The image sensor 1210 has a structure that combines a large full frame sensor and a micro-lens array and can be applied to a mobile phone camera. For example, as shown in FIG. 12, an image sensor 1210 may be implemented as a front camera in the smart device 1200. The sensor of the image sensor 1210 may be implemented as a full frame, and the lens array may be implemented as a micro lens.

또한, 박형 구조 또는 커브드(Curved) 구조로 차량용으로 구현될 수도 있다. 도 13에 도시된 바와 같이, 차량(1300)에 곡선을 가지는 전면 카메라 또는 후면 카메라로서 이미지 센서(1310)가 구현될 수 있다. 다만, 이로 한정하는 것은 아니고, 이미지 센서(1310)는 DSLR 카메라, 드론(Drone), CCTV, 웹캠(Webcam)용 카메라, 360도 촬영 카메라, 영화 및 방송을 위한 카메라, 및 VR/AR 카메라 등에 사용될 수 있다. 더 나아가, 이미지 센서(1310)는 유연하거나 연장될 수 있는 카메라(Flexible/Stretchable Camera), 곤충 눈 카메라, 컨택트 렌즈 타입(Contact lens type) 카메라 등과 같은 다양한 분야에도 적용될 수 있다.Additionally, it may be implemented for vehicles in a thin or curved structure. As shown in FIG. 13 , the image sensor 1310 may be implemented as a curved front or rear camera in the vehicle 1300. However, it is not limited to this, and the image sensor 1310 can be used for DSLR cameras, drones, CCTV, webcam cameras, 360-degree shooting cameras, cameras for movies and broadcasting, and VR/AR cameras. You can. Furthermore, the image sensor 1310 can be applied to various fields such as flexible/stretchable cameras, insect eye cameras, and contact lens type cameras.

더 나아가, 이미지 센서는 연속된 프레임의 비디오 이미지(Video image)에서, 촬영된 다수의 프레임 정보를 이용하여 해상도를 증가하는 멀티 프레임 고해상도 이미지 복원(Multi-frame Super Resolution image restoration)에도 적용될 수 있다.Furthermore, the image sensor can also be applied to multi-frame super resolution image restoration, which increases resolution by using information from multiple frames captured in a video image of consecutive frames.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may perform an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Computer-readable media may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.  Although the embodiments have been described with limited drawings as described above, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

1100: 이미지 센서
1111: 센싱 어레이
1120: 렌즈 어레이
1130: 프로세서
1100: Image sensor
1111: Sensing array
1120: Lens array
1130: processor

Claims (20)

모바일 단말에 있어서,
서로 동일한 초점 거리를 가지는 복수의 렌즈 엘리먼트들을 포함하는 렌즈 어레이; 및
상기 렌즈 어레이로부터 상기 초점 거리만큼 이격되고, 상기 렌즈 어레이를 통과한 빛을 센싱하는 복수의 센싱 엘리먼트들
을 포함하고,
상기 복수의 렌즈 엘리먼트들 중 제1 렌즈 엘리먼트의 렌즈 크기는, 상기 복수의 렌즈 엘리먼트들 중 상기 제1 렌즈 엘리먼트와 다른 제2 렌즈 엘리먼트의 렌즈 크기와 다르고,
상기 복수의 렌즈 엘리먼트들의 각각은 하기 수학식에 따른 시야각을 가지며,
[수학식]

상기 수학식에서 FOV는 시야각, D는 렌즈 엘리먼트에 의해 커버되는 센싱 영역의 크기, F는 렌즈 엘리먼트의 초점 거리를 나타내고,
상기 복수의 렌즈 엘리먼트들 중으로부터 제3 렌즈 엘리먼트의 시야각은
상기 복수의 렌즈 엘리먼트들 중으로부터 상기 제3 렌즈 엘리먼트와는 다른 제4 렌즈 엘리먼트의 시야각과 다르며,
상기 복수의 렌즈 엘리먼트들의 각각은,
상기 복수의 센싱 엘리먼트들 중 비정수(non-integer) 개수의 센싱 엘리먼트들을 커버하는,
모바일 단말.
In mobile terminals,
a lens array including a plurality of lens elements having the same focal length; and
A plurality of sensing elements spaced apart from the lens array by the focal distance and sensing light passing through the lens array
Including,
The lens size of the first lens element among the plurality of lens elements is different from the lens size of the second lens element other than the first lens element among the plurality of lens elements,
Each of the plurality of lens elements has a viewing angle according to the following equation,
[Equation]

In the above equation, FOV represents the viewing angle, D represents the size of the sensing area covered by the lens element, and F represents the focal length of the lens element.
The viewing angle of the third lens element among the plurality of lens elements is
The viewing angle of the fourth lens element among the plurality of lens elements is different from that of the third lens element,
Each of the plurality of lens elements,
Covering a non-integer number of sensing elements among the plurality of sensing elements,
Mobile terminal.
제1항에 있어서,
상기 복수의 렌즈 엘리먼트들은 렌즈 크기에 따라 복수의 렌즈 그룹들로 분류되고,
서로 동일한 렌즈 그룹에 속하는 렌즈 엘리먼트들은 서로 동일한 렌즈 크기를 가지며,
서로 다른 렌즈 그룹에 속하는 렌즈 엘리먼트들은 서로 다른 렌즈 크기를 가지는,
모바일 단말.
According to paragraph 1,
The plurality of lens elements are classified into a plurality of lens groups according to lens size,
Lens elements belonging to the same lens group have the same lens size,
Lens elements belonging to different lens groups have different lens sizes,
Mobile terminal.
제2항에 있어서,
상기 복수의 렌즈 그룹들의 각각에 속하는 렌즈 엘리먼트의 개수는, 상기 복수의 렌즈 엘리먼트들이 공유하는 해상도에 기초하여 결정되는,
모바일 단말.
According to paragraph 2,
The number of lens elements belonging to each of the plurality of lens groups is determined based on the resolution shared by the plurality of lens elements,
Mobile terminal.
제2항에 있어서,
서로 동일한 렌즈 그룹에 속하는 렌즈 엘리먼트들은 서로에 대해 인접하도록 배치되는,
모바일 단말.
According to paragraph 2,
Lens elements belonging to the same lens group are arranged adjacent to each other,
Mobile terminal.
제2항에 있어서,
상기 복수의 렌즈 그룹들 중 한 렌즈 그룹은,
단일 렌즈 엘리먼트를 포함하는,
모바일 단말.
According to paragraph 2,
One lens group among the plurality of lens groups is,
Containing a single lens element,
Mobile terminal.
제1항에 있어서,
상기 복수의 렌즈 엘리먼트들 중 한 렌즈 엘리먼트는 해당 렌즈 엘리먼트의 렌즈 크기보다 큰 렌즈 크기를 가지는 다른 렌즈 엘리먼트보다 상기 렌즈 어레이의 중심 위치에 가깝게 배치되고,
상기 복수의 렌즈 엘리먼트들 중 한 렌즈 엘리먼트는 해당 렌즈 엘리먼트의 렌즈 크기보다 작은 렌즈 크기를 가지는 다른 렌즈 엘리먼트보다 상기 렌즈 어레이의 중심 위치로부터 멀게 배치되는
모바일 단말.
According to paragraph 1,
One lens element of the plurality of lens elements is disposed closer to the center position of the lens array than another lens element having a lens size larger than the lens size of the lens element,
One lens element of the plurality of lens elements is disposed farther from the center position of the lens array than another lens element having a lens size smaller than the lens size of the lens element.
Mobile terminal.
제1항에 있어서,
상기 복수의 렌즈 엘리먼트들의 각각은,
상기 렌즈 어레이에 대응하는 평면 상에서 상기 복수의 센싱 엘리먼트들에 대해 무작위로 배치되는,
모바일 단말.
According to paragraph 1,
Each of the plurality of lens elements,
Randomly arranged with respect to the plurality of sensing elements on a plane corresponding to the lens array,
Mobile terminal.
제1항에 있어서,
상기 복수의 렌즈 엘리먼트들의 각각은, 동일한 개수의 센싱 엘리먼트를 커버하는,
모바일 단말.
According to paragraph 1,
Each of the plurality of lens elements covers the same number of sensing elements,
Mobile terminal.
제1항에 있어서,
상기 복수의 렌즈 엘리먼트들 중 적어도 하나의 렌즈 엘리먼트는,
상기 복수의 센싱 엘리먼트들 중 적어도 하나의 센싱 엘리먼트에 대해 엇갈리도록(eccentric) 배치되는,
모바일 단말.
According to paragraph 1,
At least one lens element among the plurality of lens elements,
arranged eccentrically with respect to at least one sensing element among the plurality of sensing elements,
Mobile terminal.
제1항에 있어서,
상기 복수의 센싱 엘리먼트들에 의해 센싱된 센싱 정보에 기초하여, 상기 렌즈 어레이에 대응하는 시야각 중 중심 영역에 대해 그 주변 영역보다 높은 해상도로 이미지를 복원하는 프로세서
를 더 포함하는 모바일 단말.
According to paragraph 1,
A processor that restores an image with higher resolution for the central area of the viewing angle corresponding to the lens array than the surrounding area, based on the sensing information sensed by the plurality of sensing elements.
A mobile terminal further comprising:
제1항에 있어서,
상기 복수의 센싱 엘리먼트들을 통해 센싱된 센싱 정보에 기초하여, 복안 시야 이미지(CEV image, compound eye vision image)를 획득하는 프로세서
를 더 포함하는 모바일 단말.
According to paragraph 1,
A processor that acquires a compound eye vision image (CEV image) based on sensing information sensed through the plurality of sensing elements.
A mobile terminal further comprising:
제11항에 있어서,
상기 프로세서는,
상기 복수의 센싱 엘리먼트들에서 센싱되는 라이트 필드 정보에 기초하여, 상기 복안 시야 이미지를 재배열하는,
모바일 단말.
According to clause 11,
The processor,
Rearranging the compound eye field image based on light field information sensed by the plurality of sensing elements,
Mobile terminal.
제11항에 있어서,
상기 프로세서는,
상기 복수의 센싱 엘리먼트들 및 상기 복수의 렌즈 엘리먼트들 간의 기하 구조에 기초하여, 상기 복안 시야 이미지로부터 장면 이미지를 복원하는,
모바일 단말.
According to clause 11,
The processor,
Reconstructing a scene image from the compound eye field image based on a geometry between the plurality of sensing elements and the plurality of lens elements,
Mobile terminal.
제11항에 있어서,
상기 프로세서는,
상기 복안 시야 이미지를 획득하기 전에 트레이닝이 완료된 이미지 복원 모델(image restoration model)에 기초하여, 상기 복안 시야 이미지로부터 장면 이미지를 복원하는,
모바일 단말.
According to clause 11,
The processor,
Restoring a scene image from the compound eye field image based on an image restoration model for which training was completed before acquiring the compound eye field image,
Mobile terminal.
제1항에 있어서,
상기 복수의 센싱 엘리먼트들을 통해 센싱된 센싱 정보로부터 사용자에 의해 지정된 줌 배율(zoom factor)에 대응하는 대상 정보(target information)를 선택하고, 상기 선택된 대상 정보로부터 장면 이미지를 복원하는 프로세서
를 더 포함하는 모바일 단말.
According to paragraph 1,
A processor that selects target information corresponding to a zoom factor specified by a user from sensing information sensed through the plurality of sensing elements and restores a scene image from the selected target information
A mobile terminal further comprising:
제15항에 있어서,
상기 프로세서는,
상기 센싱 정보로부터 상기 줌 배율에 대응하는 시야각에 대응하는 정보를 상기 대상 정보로서 선택하는,
모바일 단말.
According to clause 15,
The processor,
Selecting information corresponding to a viewing angle corresponding to the zoom magnification from the sensing information as the target information,
Mobile terminal.
제1항에 있어서,
상기 복수의 렌즈 엘리먼트들의 각각은,
상기 빛을 굴절시켜서 상기 복수의 센싱 엘리먼트들을 포함하는 센싱 어레이 상의 지점에 초점(focal point)을 형성하는,
모바일 단말.
According to paragraph 1,
Each of the plurality of lens elements,
Refracting the light to form a focal point at a point on a sensing array including the plurality of sensing elements,
Mobile terminal.
제1항에 있어서,
각 렌즈 그룹에 의해 커버되는 센싱 영역에 속하는 센싱 엘리먼트들은,
해당 렌즈 그룹의 시야각에 대응하는 광선들을 센싱하는,
모바일 단말.
According to paragraph 1,
The sensing elements belonging to the sensing area covered by each lens group are:
Sensing rays corresponding to the viewing angle of the corresponding lens group,
Mobile terminal.
삭제delete 이미지 센싱 방법에 있어서,
복수의 센싱 엘리먼트들이 서로 동일한 초점 거리를 가지는 복수의 렌즈 엘리먼트들을 통과한 빛을 센싱하는 단계; 및
프로세서가 상기 복수의 센싱 엘리먼트들에 의해 센싱된 빛의 세기에 기초하여 장면 이미지를 복원하는 단계
를 포함하고,
상기 복수의 렌즈 엘리먼트들 중 제1 렌즈 엘리먼트의 렌즈 크기는, 상기 복수의 렌즈 엘리먼트들 중 상기 제1 렌즈 엘리먼트와 다른 제2 렌즈 엘리먼트의 렌즈 크기와 다르고,
상기 복수의 렌즈 엘리먼트들의 각각은 하기 수학식에 따른 시야각을 가지며,
[수학식]

상기 수학식에서 FOV는 시야각, D는 렌즈 엘리먼트에 의해 커버되는 센싱 영역의 크기, F는 렌즈 엘리먼트의 초점 거리를 나타내고,
상기 복수의 렌즈 엘리먼트들 중으로부터 제3 렌즈 엘리먼트의 시야각은
상기 복수의 렌즈 엘리먼트들 중으로부터 상기 제3 렌즈 엘리먼트와는 다른 제4 렌즈 엘리먼트의 시야각과 다르며,
상기 복수의 렌즈 엘리먼트들의 각각은,
상기 복수의 센싱 엘리먼트들 중 비정수(non-integer) 개수의 센싱 엘리먼트들을 커버하는,
이미지 센싱 방법.
In the image sensing method,
A plurality of sensing elements sensing light passing through a plurality of lens elements having the same focal length; and
A processor restoring a scene image based on the intensity of light sensed by the plurality of sensing elements.
Including,
The lens size of the first lens element among the plurality of lens elements is different from the lens size of the second lens element other than the first lens element among the plurality of lens elements,
Each of the plurality of lens elements has a viewing angle according to the following equation,
[Equation]

In the above equation, FOV represents the viewing angle, D represents the size of the sensing area covered by the lens element, and F represents the focal length of the lens element.
The viewing angle of the third lens element among the plurality of lens elements is
The viewing angle of the fourth lens element among the plurality of lens elements is different from that of the third lens element,
Each of the plurality of lens elements,
Covering a non-integer number of sensing elements among the plurality of sensing elements,
Image sensing method.
KR1020180154741A 2018-10-04 2018-12-04 Image sensor and method to sense image KR102644944B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/394,822 US10924667B2 (en) 2018-10-04 2019-04-25 Image sensor and image sensing method
CN201910793309.3A CN111009534A (en) 2018-10-04 2019-08-27 Image sensor and image sensing method
JP2019171733A JP2020060763A (en) 2018-10-04 2019-09-20 Image sensor and image sensing method
EP19201368.8A EP3633969B1 (en) 2018-10-04 2019-10-04 Image sensor and image sensing method
US16/859,616 US11375092B2 (en) 2018-10-04 2020-04-27 Image sensor and image sensing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862741147P 2018-10-04 2018-10-04
US62/741,147 2018-10-04

Publications (2)

Publication Number Publication Date
KR20200038835A KR20200038835A (en) 2020-04-14
KR102644944B1 true KR102644944B1 (en) 2024-03-08

Family

ID=70291687

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180154741A KR102644944B1 (en) 2018-10-04 2018-12-04 Image sensor and method to sense image

Country Status (1)

Country Link
KR (1) KR102644944B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11030724B2 (en) 2018-09-13 2021-06-08 Samsung Electronics Co., Ltd. Method and apparatus for restoring image
KR20220121533A (en) 2021-02-25 2022-09-01 삼성전자주식회사 Method and device for restoring image obtained from array camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006025496A1 (en) * 2004-09-01 2006-03-09 Matsushita Electric Industrial Co., Ltd. Condensing element, solid-state imaging device and method for fabricating the same
WO2006101064A1 (en) * 2005-03-24 2006-09-28 Matsushita Electric Industrial Co., Ltd. Imaging device and lens array used therein
JP2013192177A (en) * 2012-03-15 2013-09-26 Toshiba Corp Solid-state image pickup device and mobile information terminal

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160091083A (en) * 2015-01-23 2016-08-02 엘지이노텍 주식회사 Image sensor and stereo camera using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006025496A1 (en) * 2004-09-01 2006-03-09 Matsushita Electric Industrial Co., Ltd. Condensing element, solid-state imaging device and method for fabricating the same
WO2006101064A1 (en) * 2005-03-24 2006-09-28 Matsushita Electric Industrial Co., Ltd. Imaging device and lens array used therein
JP2013192177A (en) * 2012-03-15 2013-09-26 Toshiba Corp Solid-state image pickup device and mobile information terminal

Also Published As

Publication number Publication date
KR20200038835A (en) 2020-04-14

Similar Documents

Publication Publication Date Title
US11375092B2 (en) Image sensor and image sensing method
EP3624049B1 (en) Method and apparatus for restoring image
EP3633969B1 (en) Image sensor and image sensing method
KR102565277B1 (en) Device and method to restore image
WO2012061571A1 (en) Camera systems and methods for gigapixel computational imaging
KR102644944B1 (en) Image sensor and method to sense image
US11595575B2 (en) Image sensor
KR102614908B1 (en) Device and method to restore image
KR20200072136A (en) Lens array camera and method of driving lens array camera
KR102653106B1 (en) Apparatus and method for processing image
US20230228916A1 (en) Imaging device and method
KR20210137886A (en) Image sensor
US11726306B2 (en) Imaging device
EP4346199A1 (en) Imaging method and device for autofocusing
WO2019161184A1 (en) Monocentric multiscale (mms) camera having enhanced field of view
KR20220078108A (en) Lens assembly and electronic device including the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant