KR20220156272A - 이미지 센서 및 상기 이미지 센서를 포함하는 이미지 센싱 시스템 - Google Patents

이미지 센서 및 상기 이미지 센서를 포함하는 이미지 센싱 시스템 Download PDF

Info

Publication number
KR20220156272A
KR20220156272A KR1020210064095A KR20210064095A KR20220156272A KR 20220156272 A KR20220156272 A KR 20220156272A KR 1020210064095 A KR1020210064095 A KR 1020210064095A KR 20210064095 A KR20210064095 A KR 20210064095A KR 20220156272 A KR20220156272 A KR 20220156272A
Authority
KR
South Korea
Prior art keywords
separation pattern
diagonal
pixel
photodiode
image
Prior art date
Application number
KR1020210064095A
Other languages
English (en)
Inventor
문경환
김지훈
이영준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210064095A priority Critical patent/KR20220156272A/ko
Priority to US17/579,887 priority patent/US11711624B2/en
Priority to CN202210425583.7A priority patent/CN115377131A/zh
Publication of KR20220156272A publication Critical patent/KR20220156272A/ko
Priority to US18/224,611 priority patent/US20230362502A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • H04N5/343
    • H04N5/347
    • H04N5/378

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

이미지 센서가 제공된다. 상기 이미지 센서는 기판 내에 메쉬 형태로 배치되고, 메쉬 형태에 따라 복수의 픽셀 영역을 정의하는 픽셀 분리 패턴, 복수의 픽셀 영역 중 적어도 하나의 픽셀 영역에 대해, 제1 방향을 기준으로 분리하는 제1 분리 패턴, 적어도 하나의 픽셀 영역에 대해, 제1 방향과 교차하는 제2 방향을 기준으로 분리하는 제2 분리 패턴, 적어도 하나의 픽셀 영역에 대해, 제1 방향과 제2 방향에 대한 제1 대각 방향을 기준으로 분리하는 제1 대각 분리 패턴, 적어도 하나의 픽셀 영역에 대해, 제1 방향과 제2 방향에 대한 제1 대각 방향과 상이한 제2 대각 방향을 기준으로 분리하는 제2 대각 분리 패턴, 적어도 하나의 픽셀 영역 내에서, 제1 분리 패턴과 제1 대각 분리 패턴 사이에 배치되고, 제1 분리 패턴 및 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제1 및 제2 포토 다이오드, 적어도 하나의 픽셀 영역 내에서, 제2 분리 패턴과 제1 대각 분리 패턴 사이에 배치되고, 제2 분리 패턴 및 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제3 및 제4 포토 다이오드, 적어도 하나의 픽셀 영역 내에서, 제1 분리 패턴과 제2 대각 분리 패턴 사이에 배치되고, 제1 분리 패턴 및 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제5 및 제6 포토 다이오드 및 적어도 하나의 픽셀 영역 내에서, 제2 분리 패턴과 제2 대각 분리 패턴 사이에 배치되고, 제2 분리 패턴 및 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제7 및 제8 포토 다이오드를 포함한다.

Description

이미지 센서 및 상기 이미지 센서를 포함하는 이미지 센싱 시스템{A IMAGE SENSOR AND A IMAGE SENSIG SYSTEM INCLUDING THE SAME IMAGE SENSOR}
본 발명은 이미지 센서 및 상기 이미지 센서를 포함하는 이미지 센싱 시스템에 관한 것이다.
이미지 센서는 광학 영상을 전기 신호로 변환시키는 소자이다. 컴퓨터 산업과 통신 산업이 발달함에 따라, 스마트폰(smartphone), 웨어러블 기기(wearable device), 디지털 카메라(digital camera), PCS(Personal Communication System), 게임 기기, 경비용 카메라, 의료용 마이크로 카메라 등 다양한 분야에서 성능이 향상된 이미지 센서가 요구되고 있다.
최근 이미지 센서의 초점을 자동으로 검출하는 자동초점 방식(auto focusing, AF)이 널리 활용되고 있다. 특히, 빠른 초점 검출속도라는 특성에 따라 위상차 자동초점(phase difference auto focusing, PDAF) 기술에 대한 연구가 다양하게 이루어지고 있다. PDAF에서는 촬영렌즈를 투과한 빛을 분할하여 서로 다른 초점검출 화소에서 검출하고 상기 검출신호가 동일한 위상에서 서로 같은 세기를 갖도록 초점 렌즈(focusing lens)를 자동으로 구동하여 초점거리를 조절한다. 이에 따라 효율적으로 다양한 방향의 초점을 자동으로 검출하기 위해 여러 연구가 수행되고 있다.
뿐만 아니라, 일반적으로 자동초점 설정은 이미지 센서보다 훨씬 작은 크기를 갖는 별도의 AF 센서를 이용하거나 이미지 센서의 일부에 이미지 검출 픽셀과 별도로 초점검출 픽셀을 배치하여 이미지 센서 내부의 AF 모듈을 이용하여 수행되나, 최근에는 상기 초점 검출 픽셀 또는 상기 이미지 검출 픽셀의 전부를 한 쌍의 광전변환 소자로 구성하여 초점검출 속도를 높이는 듀얼 픽셀 이미지 센서가 제안되고 있다. 듀얼 픽셀 이미지 센서는 픽셀 단위로 위상차 자동초점 검출동작을 수행함으로써 초점 검출속도와 정확도를 현저하게 향상할 수 있다. 특히, 별도의 초점검출 픽셀 없이 모든 이미지 검출 픽셀을 듀얼 픽셀로 구성함으로써 이미지의 해상도 저하 없이 자동초점을 정확하고 신속하게 탐색할 수 있다.
본 발명이 해결하고자 하는 기술적 과제는 대각 방향에 대해 효율적으로 자동 초점 검출 동작을 수행하는 이미지 센서를 제공하는 것이다.
본 발명이 해결하고자 하는 기술적 과제는 대각 방향에 대해 효율적으로 자동 초점 검출 동작을 수행하는 이미지 센싱 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 기술적 과제는 다양한 방향에 대해 효율적으로 자동 초점 검출 동작을 수행하는 듀얼 픽셀을 포함하는 이미지 센서를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 해당 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 몇몇 실시 예에 따른 이미지 센서는 기판 내에 메쉬 형태로 배치되고, 메쉬 형태에 따라 복수의 픽셀 영역을 정의하는 픽셀 분리 패턴, 복수의 픽셀 영역 중 적어도 하나의 픽셀 영역에 대해, 제1 방향을 기준으로 분리하는 제1 분리 패턴, 적어도 하나의 픽셀 영역에 대해, 제1 방향과 교차하는 제2 방향을 기준으로 분리하는 제2 분리 패턴, 적어도 하나의 픽셀 영역에 대해, 제1 방향과 제2 방향에 대한 제1 대각 방향을 기준으로 분리하는 제1 대각 분리 패턴, 적어도 하나의 픽셀 영역에 대해, 제1 방향과 제2 방향에 대한 제1 대각 방향과 상이한 제2 대각 방향을 기준으로 분리하는 제2 대각 분리 패턴, 적어도 하나의 픽셀 영역 내에서, 제1 분리 패턴과 제1 대각 분리 패턴 사이에 배치되고, 제1 분리 패턴 및 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제1 및 제2 포토 다이오드, 적어도 하나의 픽셀 영역 내에서, 제2 분리 패턴과 제1 대각 분리 패턴 사이에 배치되고, 제2 분리 패턴 및 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제3 및 제4 포토 다이오드, 적어도 하나의 픽셀 영역 내에서, 제1 분리 패턴과 제2 대각 분리 패턴 사이에 배치되고, 제1 분리 패턴 및 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제5 및 제6 포토 다이오드 및 적어도 하나의 픽셀 영역 내에서, 제2 분리 패턴과 제2 대각 분리 패턴 사이에 배치되고, 제2 분리 패턴 및 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제7 및 제8 포토 다이오드를 포함한다.
상기 기술적 과제를 달성하기 위한 몇몇 실시 예에 따른 이미지 센서는 기판 내에 메쉬 형태로 배치되고, 메쉬 형태에 따라 복수의 픽셀 영역을 정의하는 픽셀 분리 패턴, 복수의 픽셀 영역 중 적어도 하나의 픽셀 영역에 대해, 제1 방향을 기준으로 분리하는 제1 분리 패턴, 적어도 하나의 픽셀 영역에 대해, 제1 방향과 교차하는 제2 방향을 기준으로 분리하는 제2 분리 패턴, 적어도 하나의 픽셀 영역에 대해, 제1 방향과 제2 방향에 대한 제1 대각 방향을 기준으로 분리하는 제1 대각 분리 패턴, 적어도 하나의 픽셀 영역 내에서, 제1 분리 패턴과 제1 대각 분리 패턴 사이에 배치되고, 제1 분리 패턴 및 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제1 및 제2 포토 다이오드 및 적어도 하나의 픽셀 영역 내에서, 제1 분리 패턴과 제2 대각 분리 패턴 사이에 배치되고, 제1 분리 패턴 및 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제3 및 제4 포토 다이오드를 포함하되, 제1 포토 다이오드와 제3 포토 다이오드는, 제1 대각 분리 패턴을 기초로 서로 분리되고 인접하게 배치되고, 제2 포토 다이오드와 제4 포토 다이오드는, 제1 대각 분리 패턴을 기초로 서로 분리되고 인접하게 배치되고, 제1 동작 모드에서 제1 포토 다이오드에서 생성된 제1 센싱 신호와 제4 포토 다이오드에서 생성된 제4 센싱 신호를 기초로 비닝 동작을 수행하고 제2 포토 다이오드에서 생성된 제2 센싱 신호와 제3 포토 다이오드에서 생성된 제3 센싱 신호를 기초로 비닝 동작을 수행한다.
상기 기술적 과제를 달성하기 위한 몇몇 실시 예에 따른 이미지 센싱 시스템은, 이미지 신호를 출력하는 이미지 센서 및 이미지 센서와 연결되고 이미지 신호를 제공받아 처리하는 이미지 신호 프로세서를 포함하고, 이미지 센서는, 기판 내에 메쉬 형태로 배치되고, 메쉬 형태에 따라 복수의 픽셀 영역을 정의하는 픽셀 분리 패턴과 복수의 픽셀 영역 중 적어도 하나의 픽셀 영역에 대해 제1 방향을 기준으로 분리하는 제1 분리 패턴과 적어도 하나의 픽셀 영역에 대해 제1 방향과 교차하는 제2 방향을 기준으로 분리하는 제2 분리 패턴과 적어도 하나의 픽셀 영역에 대해, 제1 방향과 제2 방향에 대한 제1 대각 방향을 기준으로 분리하는 제1 대각 분리 패턴과 적어도 하나의 픽셀 영역에 대해 제1 방향과 제2 방향에 대한 제1 대각 방향과 상이한 제2 대각 방향을 기준으로 분리하는 제2 대각 분리 패턴과 적어도 하나의 픽셀 영역 내에서, 제1 분리 패턴과 제1 대각 분리 패턴 사이에 배치되고, 제1 분리 패턴 및 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제1 및 제2 포토 다이오드와 적어도 하나의 픽셀 영역 내에서, 제2 분리 패턴과 제1 대각 분리 패턴 사이에 배치되고, 제2 분리 패턴 및 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제3 및 제4 포토 다이오드와 적어도 하나의 픽셀 영역 내에서, 제1 분리 패턴과 제2 대각 분리 패턴 사이에 배치되고, 제1 분리 패턴 및 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제5 및 제6 포토 다이오드 및 적어도 하나의 픽셀 영역 내에서, 제2 분리 패턴과 제2 대각 분리 패턴 사이에 배치되고, 제2 분리 패턴 및 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제7 및 제8 포토 다이오드를 포함한다.
도 1은 본 발명의 몇몇 실시예들에 따른 이미지 센싱 시스템을 설명하기 위한 블록도이다.
도 2는 도 1의 이미지 센서의 개념적인 레이아웃을 설명하기 위한 도면이다.
도 3은 도 2의 이미지 센서 레이아웃에 대한 평면도이다.
도 4 및 도 5는 본 발명의 몇몇 실시예들에 따른 픽셀 어레이 영역을 설명하기 위한 도면이다.
도 6은 도 4의 픽셀을 설명하기 위한 레이아웃의 확대도이다.
도 7은 도 3의 A-A, B-B, C-C, D-D를 따라서 절단한 단면도들이다.
도 8는 도 7의 R 영역을 확대한 확대도이다.
도 9는 본 발명의 몇몇 실시예들에 따른 이미지 센서의 단위 픽셀을 설명하기 위한 예시적인 회로도이다.
도 10 및 도 11은 본 발명의 몇몇 실시예들에 따른 이미지 센서의 단위 픽셀의 동작을 설명하기 위한 도면들이다.
도 12 내지 도 14는 본 발명의 몇몇 실시예들에 따른 이미지 센서의 단위 픽셀의 동작을 설명하기 위한 도면들이다.
도 15는 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센서의 단위 픽셀을 설명하기 위한 예시적인 회로도이다.
도 16은 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센싱 시스템의 동작을 설명하기 위한 도면이다.
도 17은 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센싱 시스템의 동작을 설명하기 위한 도면이다.
도 18는 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센서를 설명하기 위한 도면이다.
도 19는 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센서를 설명하기 위한 도면이다.
도 20은 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센서를 설명하기 위한 도면이다.
도 21는 본 발명의 몇몇 실시예들에 따른 멀티 카메라 모듈을 포함하는 전자 장치를 나타내는 블록도이다.
도 22은 도 21의 카메라 모듈의 상세 블록도이다.
이하, 첨부된 도면을 참조하여 본 발명의 기술적 사상에 따른 실시예들에 대해 설명한다. 도 1 내지 도 22의 설명에서 실질적으로 동일한 구성 요소에 대해서는 동일한 도면 부호 사용하며, 해당 구성요소에 대한 중복된 설명은 생략하기로 한다. 또한 본 발명의 여러 도면에 걸쳐서, 유사한 구성요소에 대해서는 유사한 도면 부호가 사용된다.
도 1은 본 발명의 몇몇 실시예들에 따른 이미지 센싱 시스템(1)을 설명하기 위한 블록도이다.
도 1을 참조하면, 이미지 센싱 장치(1)는 이미지 센서(100)와 이미지 신호 프로세서(900)를 포함할 수 있다.
이미지 센서(100)는 빛을 이용하여 센싱 대상의 이미지를 센싱하여, 이미지 신호(IMS)를 생성할 수 있다. 몇몇 실시예에서, 생성된 이미지 신호(IMS)는 예를 들어, 디지털 신호일 수 있으나, 본 발명의 기술적 사상에 따른 실시예가 이에 제한되는 것은 아니다.
이미지 신호(IMS)는 이미지 신호 프로세서(900)에 제공되어 처리될 수 있다. 이미지 신호 프로세서(900)는 이미지 센서(100)의 버퍼부(1170)로부터 출력된 이미지 신호(IMS)를 수신하고 수신된 이미지 신호(IMS)를 디스플레이에 용이하도록 가공하거나 처리할 수 있다.
몇몇 실시예에서, 이미지 신호 프로세서(900)는 이미지 센서(100)에서 출력된 이미지 신호(IMS)에 대해 디지털 비닝을 수행할 수 있다. 이 때, 이미지 센서(100)로부터 출력된 이미지 신호(IMS)는 아날로그 비닝 없이 픽셀 어레이(1140)로부터의 로우(raw) 이미지 신호일 수도 있고, 아날로그 비닝이 이미 수행된 이미지 신호(IMS)일 수도 있다.
몇몇 실시예에서, 이미지 센서(100)와 이미지 신호 프로세서(900)는 도시된 것과 같이 서로 분리되어 배치될 수 있다. 예를 들어, 이미지 센서(100)가 제1 칩에 탑재되고, 이미지 신호 프로세서(900)가 제2 칩에 탑재되어 소정의 인터페이스를 통해 서로 통신할 수 있다. 하지만, 실시예들이 이에 제한되는 것은 아니며, 이미지 센서(100)와 이미지 신호 프로세서(900)는 하나의 패키지, 예컨대 MCP(multi-chip package)로 구현될 수 있다.
이미지 센서(100)는, 컨트롤 레지스터 블록(1110), 타이밍 제네레이터(1120), 로우(row) 드라이버(1130), 픽셀 어레이(1140), 리드 아웃 회로(1150), 램프신호 생성기(1160), 버퍼부(1170)를 포함할 수 있다.
컨트롤 레지스터 블록(1110)은 이미지 센서(100)의 동작을 전체적으로 제어할 수 있다. 특히, 컨트롤 레지스터 블록(1110)은 타이밍 제네레이터(1120), 램프신호 생성기(1160) 및 버퍼부(1170)에 직접적으로 동작 신호를 전송할 수 있다.
타이밍 제네레이터(1120)는 이미지 센서(100)의 여러 구성 요소들의 동작 타이밍의 기준이 되는 신호를 발생할 수 있다. 타이밍 제네레이터(1120)에서 발생된 동작 타이밍 기준 신호는 로우 드라이버(1130), 리드 아웃 회로(1150), 램프신호 생성기(1160) 등에 전달될 수 있다.
램프신호 생성기(1160)는 리드 아웃 회로(1150)에 사용되는 램프 신호를 생성하고 전송할 수 있다. 예를 들어, 리드 아웃 회로(1150)는 상관 이중 샘플러(CDS), 비교기 등을 포함할 수 있는데, 램프신호 생성기(1160)는 상관 이중 샘플러(CDS), 비교기 등에 사용되는 램프 신호를 생성하고 전송할 수 있다.
버퍼부(1170)는 예를 들어, 래치부를 포함할 수 있다. 버퍼부(1170)는 외부로 제공할 이미지 신호(IMS)를 임시적으로 저장할 수 있으며, 이미지 신호(IMS)를 외부 메모리 또는 외부 장치로 전송할 수 있다.
픽셀 어레이(1140)는 외부 이미지를 센싱할 수 있다. 픽셀 어레이(1140)는 복수의 픽셀(또는 단위 픽셀)을 포함할 수 있다. 로우 드라이버(1130)는 픽셀 어레이(1140)의 로우(row)를 선택적으로 활성화시킬 수 있다.
리드 아웃 회로(1150)는 픽셀 어레이(1140)로부터 제공받은 픽셀 신호를 샘플링하고, 이를 램프 신호와 비교한 후, 비교 결과를 바탕으로 아날로그 이미지 신호(데이터)를 디지털 이미지 신호(데이터)로 변환할 수 있다.
도 2는 도 1의 이미지 센서의 개념적인 레이아웃을 설명하기 위한 도면이다. 도 3은 도 2의 이미지 센서 레이아웃에 대한 평면도이다.
도 2 및 도 3을 참조하면, 이미지 센서(100)는 제3 방향(Z)으로 적층된 제1 영역(S1) 및 제2 영역(S2)을 포함할 수 있다. 제1 영역(S1) 및 제2 영역(S2)은 도시된 것과 같이 제3 방향(Z)과 교차하는 제1 방향(X)과 제2 방향(Y)으로 연장될 수 있으며, 제1 영역(S1) 및 제2 영역(S2)에는 도 1에 도시된 블록들이 배치될 수 있다.
도면에 도시하지는 않았으나, 제2 영역(S2) 하부에는 메모리가 배치된 제3 영역이 배치될 수도 있다. 이 때, 제3 영역에 배치된 메모리는 제1 영역(S1) 및 제2 영역(S2)으로부터 이미지 데이터를 전송받아, 이를 저장하거나 처리하고, 이미지 데이터를 제1 영역(S1) 및 제2 영역(S2)으로 재전송할 수 있다. 이 경우, 메모리는 DRAM(dynamic random access memory) 소자, SRAM(static random access memory) 소자, STT-MRAM(spin transfer torque magnetic random access memory) 소자 및 플래시(flash) 메모리 소자와 같은 메모리 소자를 포함할 수 있다. 메모리가 예를 들어, DRAM 소자를 포함하는 경우, 메모리는 이미지 데이터를 상대적으로 고속으로 전송받아 처리할 수 있다. 또한, 몇몇 실시예에서, 메모리는 제2 영역(S2)에 배치될 수도 있다.
제1 영역(S1)은 센서 어레이 영역(SAR) 및 제1 주변 영역(PH1)을 포함하고, 제2 영역(S2)은 로직 회로 영역(LC) 및 제2 주변 영역(PH2)을 포함할 수 있다. 제1 영역(S1) 및 제2 영역(S2)은 순차적으로 상하로 적층되어 배치될 수 있다.
제1 영역(S1)에서, 센서 어레이 영역(SAR)은 도 1의 액티브 픽셀 센서 어레이(APS)에 대응되는 영역을 포함할 수 있다. 예를 들어, 센서 어레이 영역(SAR) 내에는 2차원적으로(예를 들어, 행렬 형태로) 배열되는 복수의 단위 픽셀들이 형성될 수 있다.
센서 어레이 영역(SAR)은 빛이 노광되는 수광 영역(APS) 및 차광 영역(OB)을 포함할 수 있다. 수광 영역(APS)에는 광을 제공받아 액티브(active) 신호를 생성하는 액티브 픽셀 센서 어레이들이 배열될 수 있다. 차광 영역(OB)에는 광이 차단되어 옵티컬 블랙(optical black) 신호를 생성하는 옵티컬 블랙 픽셀들이 배열될 수 있다. 차광 영역(OB)은 예를 들어, 수광 영역(APS)의 주변을 따라 형성될 수 있으나, 이는 예시적인 것일 뿐이다.
몇몇 실시예에서, 차광 영역(OB)에 인접하는 수광 영역(APS)에 더미 픽셀들(미도시)이 형성될 수도 있다.
제1 주변 영역(PH1)은 연결 영역(CR) 및 패드 영역(PR)을 포함할 수 있다. 연결 영역(CR)은 센서 어레이 영역(SAR)의 주변에 형성될 수 있다. 연결 영역(CR)은 센서 어레이 영역(SAR)의 일측에 형성될 수 있으나, 이는 예시적인 것일 뿐이다. 연결 영역(CR)에는 배선들이 형성되어, 센서 어레이 영역(SAR)의 전기적 신호를 송수신하도록 구성될 수 있다.
패드 영역(PR)은 센서 어레이 영역(SAR)의 주변에 형성될 수 있다. 패드 영역(PR)은 몇몇 실시예에 따른 이미지 센서의 가장자리에 인접하여 형성될 수 있으나, 이는 예시적인 것일 뿐이다. 패드 영역(PR)은 외부 장치 등과 접속되어, 몇몇 실시예에 따른 이미지 센서(100)와 외부 장치 간의 전기적 신호를 송수신하도록 구성될 수 있다.
제2 영역(S2)에서, 로직 회로 영역(LC)은 복수의 트랜지스터들을 포함하는 전자 소자들을 포함할 수 있다. 로직 회로 영역(LC)에 포함된 전자 소자들은 픽셀 어레이(PA)와 전기적으로 연결되어, 액티브 픽셀 센서 어레이(APS)의 각 단위 픽셀에 일정한 신호를 제공하거나 출력 신호를 제어할 수 있다.
로직 회로 영역(LC)에는 예를 들어, 도 1을 참조하여 설명한 컨트롤 레지스터 블록(1110), 타이밍 제네레이터(1120), 로우 드라이버(1130), 픽셀 어레이(1140), 리드 아웃 회로(1150), 램프신호 생성기(1160), 버퍼부(1170) 등이 배치될 수 있다. 로직 회로 영역(LC)에는 예를 들어, 도 1의 블록들 중, 액티브 픽셀 센서 어레이(APS) 이외의 블록들이 배치될 수 있다.
제2 영역(S2)에도 제1 영역(S1)의 제1 주변 영역(PH1)에 대응되는 영역에 제2 주변 영역(PH2)이 배치될 수 있으나, 실시예들이 이에 제한되는 것은 아니다.
도 4 및 도 5는 본 발명의 몇몇 실시예들에 따른 픽셀 어레이 영역을 설명하기 위한 도면이다.
도 4 및 도 5을 참조하면, 픽셀 어레이 영역(PA)은 복수의 픽셀 영역(PX)을 포함할 수 있다. 여기서, 픽셀 어레이 영역(PA)은 이미지 센서(100)에 포함될 수 있다. 예를 들어, 픽셀 어레이 영역(PA)은 도 3의 액티브 픽셀 센서 어레이(APS)일 수 있고, 도 1의 픽셀 어레이(140)일 수 있다.
또한, 복수의 픽셀 영역(PX)은 픽셀 어레이 영역(PA)에 포함된 단위 픽셀 중 적어도 하나일 수 있다. 복수의 픽셀 영역(PX)은, 제1 방향(X)으로 연장되는 제1 행(R1) 및 제2 행(R2)을 포함하는 메쉬 형태로 배치되는 픽셀 분리 패턴(221)에 의해 정의된다. 제1 행(R1) 및 제2 행(R2)은 제2 방향(Y)의 반대 방향을 따라 배치될 수 있다.
예를 들어, 복수의 픽셀 영역(PX)은 도 4와 같이 제1 방향(X) 및 제2 방향(Y)을 따라 일정한 간격을 두고 배치될 수 있다. 다만, 도면 상에 도시되는 복수의 픽셀 영역(PX)에서의 단위 픽셀의 행과 열은 예시적인 것으로, 본원 발명의 기술적 사상은 이에 제한되지 않는다.
도 4은 도 3의 픽셀 어레이 영역(PA)을 제3 방향(Z)의 반대 방향으로 바라본 도면일 수 있다. 복수의 픽셀 영역(PX)들은 제1 방향(X) 및 제2 방향(Y)을 따라서 규칙적으로 배열될 수 있다. 즉, 픽셀 어레이 영역(PA)은 하나의 픽셀 영역(PX)을 포함할 수 있다.
픽셀 분리 패턴(221)과 제3 방향(Z)으로 적층되도록 컬러 필터 그리드(250)가 배치될 수 있다. 여기서, 컬러 필터 그리드(250)는 이미지 센서(100)에 포함될 수 있으며, 픽셀 어레이 영역(PA)에 포함될 수 있다.
컬러 필터 그리드(250)는 픽셀 분리 패턴(221)의 메쉬 형태와 동일한 형태로 배치되어 적어도 일부가 픽셀 분리 패턴(221)과 제3 방향(Z)으로 중첩된다.
컬러 필터가 배치되는 영역은, 제1 방향(X)으로 연장되는 제1 행(R1) 및 제2 행(R2)을 포함하는 메쉬 형태로 배치되는 컬러 필터 그리드(250)에 의해 정의된다.
제1 행(R1)을 따라 제1 레드 컬러 필터(Re1), 제1 그린 컬러 필터(Gr1), 제2 레드 컬러 필터(Re2) 및 제2 그린 컬러 필터(Gr2)가 배치되고, 제2 행(R2)을 따라 제3 그린 컬러 필터(Gr3), 제1 블루 컬러 필터(Bl1), 제4 그린 컬러 필터(Gr4) 및 제2 블루 컬러 필터(Bl2)가 배치된다.
각각의 그린 컬러 필터(Gr1-Gr4) 사이에는 제1 방향(X) 또는 제2 방향(Y)으로 다른 종류의 컬러 필터가 배치되고, 상기 그린 컬러 필터(Gr1-Gr4)의 배치는 레드 컬러 필터(Re1, Re2) 및 블루 컬러 필터(Bl1, Bl2)는 적용된다. 도 5의 컬러 필터들의 배치를 통해, 그린 컬러 필터(Gr1-Gr4)는 제1 방향(X)과 제2 방향(Y) 사이로 교차하는 제1 대각 방향(D1) 및 제2 대각 방향(D2)으로 인접하게 배치될 수 있다.
상기 그린 컬러 필터(Gr1-Gr4)를 통해 노광되는 단위 픽셀이 자동 초점(AF) 픽셀로 동작할 때, 상기 단위 픽셀들이 제1 대각 방향(D1) 및 제2 대각 방향(D2)으로 인접하기 때문에 제1 대각 방향(D1) 및 제2 대각 방향(D2)으로 직접 자동 초점을 검출할 때 AF 성능이 개선될 수 있다.
도 6은 도 4의 픽셀을 설명하기 위한 레이아웃의 확대도이다. 도 7은 도 3의 A-A, B-B, C-C, D-D를 따라서 절단한 단면도들이다. 도 8는 도 7의 R 영역을 확대한 확대도이다.
도 3 내지 도 4 및 도 6 내지 도 8을 참조하면, 몇몇 실시예에 따른 이미지 센서는 제1 반도체 기판(110), 제1 배선 구조체(IS1), 제2 반도체 기판(220), 제2 배선 구조체(IS2), 표면 절연층(210), 그리드 패턴(250), 컬러 필터(CF) 및 마이크로 렌즈(ML)를 포함한다.
제1 반도체 기판(110)은 벌크 실리콘 또는 SOI(silicon-on-insulator)일 수 있다. 제1 반도체 기판(110)은 실리콘 기판일 수도 있고, 또는 다른 물질, 예를 들어, 실리콘 게르마늄, 안티몬화 인듐, 납 텔루르 화합물, 인듐 비소, 인듐 인화물, 갈륨 비소 또는 안티몬화 갈륨을 포함할 수 있다. 또는, 제1 반도체 기판(110)은 베이스 기판 상에 에피층이 형성된 것일 수도 있다.
제1 반도체 기판(110)은 서로 반대되는 제1 면(110a) 및 제2 면(110b)을 포함할 수 있다. 몇몇 실시예에서, 제1 반도체 기판(110)의 제1 면(110a)은 제2 반도체 기판(220)의 제3 면(SF1)과 대향되는 면일 수 있다.
제1 반도체 기판(110) 상에는 복수의 전자 소자들이 형성될 수 있다. 예를 들어, 제1 반도체 기판(110)의 제1 면(110a) 상에 제1 전자 소자(TR1)가 형성될 수 있다. 제1 전자 소자(TR1)는 센서 어레이 영역(SARa)과 전기적으로 연결되어, 센서 어레이 영역(SARa)의 각각의 단위 픽셀 영역(PX)과 전기적 신호를 송수신할 수 있다. 예를 들어, 제1 전자 소자(TR1)는 도 1의 컨트롤 레지스터 블록(1110), 타이밍 제네레이터(1120), 로우(row) 드라이버(1130), 액티브 픽셀 센서 어레이(APS), 리드 아웃 회로(1150), 램프신호 생성기(1160), 버퍼부(1170)를 구성하는 전자 소자들을 포함할 수 있다.
제1 배선 구조체(IS1)는 제1 반도체 기판(110) 상에 형성될 수 있다. 예를 들어, 제1 배선 구조체(IS1)는 제1 반도체 기판(110)의 제1 면(110a)을 덮을 수 있다. 제1 반도체 기판(110) 및 제1 배선 구조체(IS1)는 제1 기판 구조체(100)를 구성할 수 있다.
제1 배선 구조체(IS1)는 제2 배선 구조체(IS2)에 부착될 수 있다. 예를 들어, 도 7에 도시된 것처럼, 제1 배선 구조체(IS1)의 상면은 제2 배선 구조체(IS2)의 바닥면에 부착될 수 있다.
제1 배선 구조체(IS1)는 하나 또는 복수의 배선들로 구성될 수 있다. 예를 들어, 제1 배선 구조체(IS1)는 제1 배선간 절연막(130) 및 제1 배선간 절연막(130) 내의 복수의 배선들(ML1, ML2, ML3)을 포함할 수 있다. 도 7에서, 제1 배선 구조체(IS1)를 구성하는 배선들의 층 수 및 그 배치 등은 예시적인 것일 뿐이고, 이에 제한되는 것은 아니다. 제1 배선간 절연막(130)은 예를 들어, 실리콘 산화물, 실리콘 질화물, 실리콘 산질화물 및 실리콘 산화물보다 유전율이 낮은 저유전율(low-k) 물질 중 적어도 하나를 포함할 수 있으나, 이에 제한되는 것은 아니다. 몇몇 실시예에서, 제1 배선 구조체(IS1)는 제2 배선 구조체(IS2)와 동일한 물질을 포함할 수도 있다.
제1 배선 구조체(IS1)의 배선들(ML1, ML2, ML3) 중 적어도 일부는 제1 전자 소자(TR1)와 접속될 수 있다. 몇몇 실시예에서, 제1 배선 구조체(IS1)는 센서 어레이 영역(SARa) 내의 제1 배선(ML1), 연결 영역(CR) 내의 제2 배선(ML2) 및 패드 영역(PR) 내의 제3 배선(ML3)을 포함할 수 있다. 몇몇 실시예에서, 제2 배선(ML2)은 연결 영역(CR) 내의 복수의 배선들 중 최상부의 배선일 수 있고, 제3 배선(ML3)은 패드 영역(PR) 내의 복수의 배선들 중 최상부의 배선일 수 있다.
제1 배선(ML1), 제2 배선(ML2) 및 제3 배선(ML3)은 예를 들어, 텅스텐(W), 구리(Cu), 알루미늄(Al), 금(Au), 은(Ag) 및 이들의 합금 중 적어도 하나를 포함할 수 있으나, 이에 제한되는 것은 아니다.
제2 반도체 기판(220)은 반도체 기판일 수 있다. 예를 들어, 제2 반도체 기판(220)은 벌크 실리콘 또는 SOI(silicon-on-insulator)일 수 있다. 제2 반도체 기판(220)은 실리콘 기판일 수도 있고, 또는 다른 물질, 예를 들어, 실리콘 게르마늄, 안티몬화 인듐, 납 텔루르 화합물, 인듐 비소, 인듐 인화물, 갈륨 비소 또는 안티몬화 갈륨을 포함하는 반도체 물질을 포함할 수 있다. 또는, 제2 반도체 기판(220)은 베이스 기판 상에 에피층이 형성된 것일 수도 있다.
제2 반도체 기판(220)은 서로 반대되는 제3 면(SF1) 및 제4 면(SF2)을 포함할 수 있다. 후술되는 실시예들에서, 제3 면(SF1)은 제2 반도체 기판(220)의 전면(front side)으로 지칭될 수 있고, 제4 면(SF2)은 제2 반도체 기판(220)의 후면(back side)으로 지칭될 수 있다. 몇몇 실시예에서, 제2 반도체 기판(220)의 제4 면(SF2)은 광이 입사되고, 픽셀 영역(PX)이 노광되는 수광면일 수 있다. 즉, 몇몇 실시예에 따른 이미지 센서는 후면 조사형(BSI) 이미지 센서일 수 있다.
센서 어레이 영역(SARa)의 제2 반도체 기판(220)에는 복수의 픽셀 영역(PX)들이 형성될 수 있다. 각각의 복수의 픽셀(PX) 영역 상에 마이크로 렌즈(ML)의 배치 및 컬러 필터(CF)들이 배치될 수 있다. 도면상으로는 노멀 픽셀의 마이크로 렌즈만 도시되었지만, 본원의 기술적 사상은 이에 제한되지 않고 복수의 픽셀 영역(PX)에 걸쳐 배치되는 슈퍼 PD 렌즈가 배치될 수 있다.
픽셀 영역(PX)은 제2 반도체 기판(220), 제1 내지 제8 포토 다이오드(PD1-PD8), 제2 트랜지스터(TR2), 픽셀 분리 패턴(221), 제1 분리 패턴(224), 제2 분리 패턴(225) 및 제1 및 제2 대각 분리 패턴(226_1, 226_2) 등을 포함할 수 있다.
몇몇 실시예에서, 제2 트랜지스터(TR2)는 제2 반도체 기판(220)의 제3 면(SF1)에 배치될 수 있다. 제2 트랜지스터(TR2)는 예를 들어, 이미지 센서의 단위 픽셀을 구성하는 다양한 트랜지스터들(예를 들어, 전송 트랜지스터, 리셋 트랜지스터, 소오스 팔로워 트랜지스터 및 선택 트랜지스터 등) 중 적어도 일부를 포함할 수 있다.
본원 명세서에서, 제2 트랜지스터(TR2)은 이미지 센서(100)의 전송 트랜지스터이고, 특히 수직 전송 게이트 구조(VTG, Vertical Transfer Gate)로 구현될 수 있다. 제2 트랜지스터(TR2)은, 예시적으로 제2_2 및 제2_3 트랜지스터(TR2_2, TR2_3)를 포함할 수 있다.
제2 트랜지스터(TR2)에 해당하는 전송 트랜지스터는, 대응되는 포토 다이오드에서 생성되는 센싱 신호(전하)를 플로팅 디퓨전(floating diffusion)으로 전달할 수 있다. 몇몇 실시예에 따른 전송 트랜지스터의 소오스/드레인에 해당하는 불순물 영역은 플로팅 디퓨전일 수 있다. 예시적으로, 제2_2 트랜지스터(2_2)는 제2 포토 다이오드(PD2)에서 생성된 센싱 신호를 플로팅 디퓨전로 전송하고, 제2_3 트랜지스터(TR2_3)를 제2 포토 다이오드(PD2)에서 생성된 센싱 신호를 플로팅 디퓨전으로 전송할 수 있다.
다만, 상기와 같은 제2 트랜지스터(TR2)에 대한 예시는 전송 트랜지스터에 제한되는 것은 아니고, 본원 발명의 기술적 사상은 상기 예시에 제한되지 않는다.
픽셀 분리 패턴(221)은 제2 반도체 기판(220) 내에 메쉬 형태로 배치되고, 상기 메쉬 형태에 따라 복수의 픽셀 영역(PX)들을 정의할 수 있다. 복수의 픽셀 영역(PX)들은 단위 픽셀로, 평면적 관점에서 제1 방향(X) 및 제2 방향(Y)에 따라 2차원 격자 형태로 배열될 수 있다. 픽셀 분리 패턴(221)은 제2 반도체 기판(220)이 패터닝되어 형성된 깊은 트렌치 내에 절연 물질이 매립되어 형성될 수 있다.
몇몇 실시예에서, 픽셀 분리 패턴(221)은 절연 스페이서막(222) 및 도전 필링 패턴(223)을 포함할 수 있다. 절연 스페이서막(222)은 제2 반도체 기판(220) 내의 트렌치의 측면을 따라 컨포멀하게 연장될 수 있다. 도전 필링 패턴(223)은 절연 스페이서막(221) 상에 형성되어 제2 반도체 기판(220) 내의 트렌치의 일부를 채울 수 있다.
픽셀 분리 패턴(221)의 폭은 약 10 nm 내지 약 500 nm일 수 있다. 바람직하게는, 픽셀 격리 패턴(120)의 폭은 약 100 nm 내지 약 400 nm일 수 있다. 픽셀 분리 패턴(221)의 폭은 서로 동일한 것만이 도시되었으나 이는 예시적인 것일 뿐이며, 이들이 서로 다를 수도 있음은 물론이다.
픽셀 영역(PX)은 제1 분리 패턴(224), 제2 분리 패턴(225), 제1 및 제2 대각 분리 패턴(226_1, 226_2) 및 제1 내지 제8 포토 다이오드(PD1-PD8)을 포함할 수 있다.
픽셀 분리 패턴(221)에 의해 정의되는 픽셀 영역(PX)의 제1 방향(X) 또는 제2 방향(Y)으로의 길이는 예를 들어, 약 0.3 μm 내지 약 3.0 μm일 수 있고, 바람직하게는, 약 0.9 μm 내지 약 1.5 μm일 수 있다. 각각의 픽셀 영역(PX)에서, 제1 방향(X)의 길이 및 제2 방향(Y)의 길이는 서로 동일한 것만이 도시되었으나 이는 예시적인 것일 뿐이며, 이들이 서로 다를 수도 있음은 물론이다.
제1 분리 패턴(224)은 픽셀 영역(PX)의 중앙(O)을 교차하고 제1 방향(X)으로 연장되며, 픽셀 영역(PX)에 대해 제1 방향(X)을 기준으로 절반으로 분리한다.
제1 분리 패턴(224)의 폭은 예를 들어, 약 10 nm 내지 약 500 nm일 수 있고, 바람직하게는, 약 100 nm 내지 약 400 nm일 수 있다. 몇몇 실시예에 따른 제1 분리 패턴(224)의 물질 및 구조는 픽셀 분리 패턴(221)과 동일할 수 있다.
제2 분리 패턴(225)은 픽셀 영역(PX)의 중앙(O)을 교차하고 제2 방향(Y)으로 연장되며, 픽셀 영역(PX)에 대해 제2 방향(X)을 기준으로 절반으로 분리한다.
제2 분리 패턴(224)의 폭은 예를 들어, 약 10 nm 내지 약 500 nm일 수 있고, 바람직하게는, 약 100 nm 내지 약 400 nm일 수 있다. 몇몇 실시예에 따른 제2 분리 패턴(224)의 물질 및 구조는 픽셀 분리 패턴(221)과 동일할 수 있다.
제1 대각 분리 패턴(226_1)은 픽셀 영역(PX)의 중앙(O)을 교차하고 제1 대각 방향(D1)으로 연장되며, 픽셀 영역(PX)에 대해 제1 대각 방향(D1)을 기준으로 절반으로 분리한다.
제1 대각 분리 패턴(226_1)의 폭은 예를 들어, 약 10 nm 내지 약 500 nm일 수 있고, 바람직하게는, 약 100 nm 내지 약 400 nm일 수 있다. 몇몇 실시예에 따른 제1 대각 분리 패턴(226_1)의 물질 및 구조는 픽셀 분리 패턴(221)과 동일할 수 있다.
제2 대각 분리 패턴(226_2)은 픽셀 영역(PX)의 중앙(O)을 교차하고 제2 대각 방향(D2)으로 연장되며, 픽셀 영역(PX)에 대해 제2 대각 방향(D2)을 기준으로 절반으로 분리한다.
제2 대각 분리 패턴(226_2)의 폭은 예를 들어, 약 10 nm 내지 약 500 nm일 수 있고, 바람직하게는, 약 100 nm 내지 약 400 nm일 수 있다. 몇몇 실시예에 따른 제2 대각 분리 패턴(226_2)의 물질 및 구조는 픽셀 분리 패턴(221)과 동일할 수 있다.
제1 내지 제8 포토 다이오드(PD)는 제2 반도체 기판(220) 내에 형성될 수 있다. 제1 내지 제8 포토 다이오드(PD)는 외부로부터 입사되는 광의 양에 비례하여 전하를 생성할 수 있다. 제1 내지 제8 포토 다이오드(PD)는 제2 반도체 기판(220) 내에 불순물이 도핑되어 형성될 수 있다. 예를 들어, 제2 반도체 기판(220)이 p형 불순물로 도핑된 경우, 제1 내지 제8 포토 다이오드(PD)는 n형 불순물로 도핑될 수 있다. 즉 제2 반도체 기판(220)에 도핑된 불순물의 타입은 제1 내지 제8 포토 다이오드(PD)에 도핑된 불순물의 타입과 다를 수 있다.
제1 및 제5 포토 다이오드(PD1, PD5)는 제1 분리 패턴(224)과 제1 대각 분리 패턴(226_1) 사이에 배치되고, 제1 분리 패턴(224)과 제1 대각 분리 패턴(226_1)에 의해 서로 분리되어 배치된다.
제2 및 제6 포토 다이오드(PD2, PD6)는 제2 분리 패턴(225)과 제1 대각 분리 패턴(226_1) 사이에 배치되고, 제2 분리 패턴(225)과 제1 대각 분리 패턴(226_1)에 의해 서로 분리되어 배치된다.
제2 및 제6 포토 다이오드(PD2, PD6)는 제2 분리 패턴(225)과 제1 대각 분리 패턴(226_1) 사이에 배치되고, 제2 분리 패턴(225)과 제1 대각 분리 패턴(226_1)에 의해 서로 분리되어 배치된다.
제3 및 제7 포토 다이오드(PD3, PD7)는 제2 분리 패턴(225)과 제2 대각 분리 패턴(226_2) 사이에 배치되고, 제2 분리 패턴(225)과 제2 대각 분리 패턴(226_2)에 의해 서로 분리되어 배치된다.
제4 및 제8 포토 다이오드(PD4, PD8)는 제1 분리 패턴(224)과 제2 대각 분리 패턴(226_2) 사이에 배치되고, 제1 분리 패턴(224)과 제2 대각 분리 패턴(226_2)에 의해 서로 분리되어 배치된다.
제1 포토 다이오드(PD1)와 제2 포토 다이오드(PD2)는 제1 대각 분리 패턴(226_1)을 기초로 서로 분리되고 인접하게 배치되고, 제5 포토 다이오드(PD5)와 제6 포토 다이오드(PD6)는 제1 대각 분리 패턴(226_1)을 기초로 서로 분리되고 인접하게 배치된다.
제3 포토 다이오드(PD3)와 제4 포토 다이오드(PD4)는 제2 대각 분리 패턴(226_2)을 기초로 서로 분리되고 인접하게 배치되고, 제7 포토 다이오드(PD7)와 제8 포토 다이오드(PD8)는 제2 대각 분리 패턴(226_2)을 기초로 서로 분리되고 인접하게 배치된다.
제1 포토 다이오드(PD1)와 제8 포토 다이오드(PD8)는 제1 분리 패턴(224)을 기초로 서로 분리되고 인접하게 배치되고, 제4 포토 다이오드(PD4)와 제5 포토 다이오드(PD5)는 제1 분리 패턴(224)을 기초로 서로 분리되고 인접하게 배치된다.
제2 포토 다이오드(PD2)와 제3 포토 다이오드(PD3)는 제2 분리 패턴(225)을 기초로 서로 분리되고 인접하게 배치되고, 제6 포토 다이오드(PD6)와 제7 포토 다이오드(PD7)는 제2 분리 패턴(225)을 기초로 서로 분리되고 인접하게 배치된다.
몇몇 실시예에서, 픽셀 영역(PX)은 표면 절연층(210), 그리드 패턴(250), 제1 라이너(253), 컬러 필터(CF), 마이크로 렌즈(ML) 및 제2 라이너(254) 등을 포함할 수 있다.
표면 절연층(210)은 제2 반도체 기판(220)의 제4 면(SF2) 상에 적층될 수 있다. 컬러 필터 그리드(250), 제1 라이너(253), 컬러 필터(CF), 마이크로 렌즈(ML) 및 제2 라이너(254)는 표면 절연층(210)에 의해 정의되는 영역에 배치될 수 있다.
컬러 필터(CF)는 표면 절연층(210) 상에 형성될 수 있다. 컬러 필터(CF)는 각 단위 픽셀에 대응되도록 배열될 수 있다. 각 컬러 필터(CF)는 평면적 관점에서 2차원적으로 배열될 수 있다. 컬러 필터(CF)는 레드 컬러 필터, 블루 컬러 필터, 그린 컬러 필터를 포함할 수 있다. 다만, 픽셀 영역(PX)에 대응하는 픽셀이 AF 픽셀로 동작하는 경우, 컬러 필터(CF)는 그린 컬러 필터(Gr1)가 바람직할 수 있다. 또한 컬러 필터(CF)가 도 5와 같이 배치될 경우, 그린 컬러 필터는 제1 대각 방향(D1) 및 제2 대각 방향(D2)으로 건너뜀(Skip) 없이 배치되어 제1 대각 방향(D1) 및 제2 대각 방향(D2)의 위상차 정보를 정밀하게 획득할 수 있다.
마이크로 렌즈(ML)는 컬러 필터(CF) 상에 형성될 수 있다. 마이크로 렌즈(ML)는 각각의 픽셀 영역(PX)에 대응되도록 배열되고, 제1 내지 제8 포토 다이오드(PD1-PD8)에 걸쳐 배치될 수 있다. 마이크로 렌즈(ML)는 볼록한 형상을 가지며, 소정의 곡률 반경을 가질 수 있다. 이에 따라, 마이크로 렌즈(ML)는 제1 내지 제8 포토 다이오드(PD1-PD8)에 입사되는 빛을 집광시킬 수 있다. 마이크로 렌즈(ML)는 예를 들어, 광투과성 수지를 포함할 수 있으나, 이에 제한되는 것은 아니다. 여기서 각 픽셀(PX)의 마이크로 렌즈(ML)는 각 픽셀의 일면을 덮을 수 있다.
컬러 필터 그리드(250)는 컬러 필터(CF) 사이에 메쉬 형태로 배치될 수 있고, 상기 메쉬 형태로 컬러 필터(CF)가 배치되는 영역을 정의할 수 있다. 따라서, 컬러 필터 그리드(250)의 적어도 일부는 제3 방향(Z)으로 픽셀 분리 패턴(221)과 중첩될 수 있다.
컬러 필터 그리드(250)은 표면 절연층(210) 상에 형성될 수 있다. 컬러 필터 그리드(250)은 예를 들어, 금속 패턴(251) 및 저굴절률 패턴(252)을 포함할 수 있다. 금속 패턴(251) 및 저굴절률 패턴(252)은 표면 절연층(210) 상에 차례로 적층될 수 있다.
제1 라이너(253)는 표면 절연층(210) 및 컬러 필터 그리드(250) 상에 형성될 수 있다. 제1 라이너(253)는 표면 절연층(210) 및 컬러 필터 그리드(250)의 표면을 따라 연장될 수 있다. 제1 라이너(253)는 예를 들어, 알루미늄 산화물을 포함할 수 있으나, 이에 제한되는 것은 아니다.
제2 라이너(254)는 마이크로 렌즈(ML)의 표면을 따라 연장될 수 있다. 제2 라이너(254)는 예를 들어, 무기물 산화막(예를 들어, 실리콘 산화물, 티타늄 산화물, 지르코늄 산화물, 하프늄 산화물 및 이들의 조합)을 포함할 수 있으나, 이에 제한되는 것은 아니다.
몇몇 실시예에서, 픽셀 영역(PX)은 제2 배선간 절연막(230) 및 연결 구조체 등을 포함할 수 있다. 연결 구조체는 제2 배선간 절연막(230) 내에 형성될 수 있다. 여기서 연결 구조체는 센서 어레이 영역(SARa) 내의 제4 배선(ML4) 및 복수의 컨택(미도시) 등을 포함할 수 있다. 픽셀 영역(PX)의 구성들과 이미지 센서(100)의 구성들은 연결 구조체를 통하여 전기적으로 연결될 수 있다.
몇몇 실시예에 따른 픽셀 영역(PX)에서, P형 배리어(PB)는 제2 반도체 기판(220) 내에 형성될 수 있다. P형 배리어(PB)는 각각의 제1 내지 제8 포토 다이오드(PD1-PD8)로부터 일정 간격만큼 이격되어 배치될 수 있다. 예를 들어, P형 배리어(PB)는 각각의 제1 내지 제8 포토 다이오드(PD1-PD8)의 주위에 배치될 수 있고, 각각의 제1 내지 제8 포토 다이오드(PD1-PD8)를 둘러쌀 수도 있다. 예를 들어, 각각의 P형 배리어(PB)는 각각의 제1 내지 제8 포토 다이오드(PD1-PD8)으로부터 제1 방향(X) 및 제2 방향(Y)으로 이격되어 형성될 수 있다. 또한 P형 배리어(PB)는 광전 변환층(PD)을 따라서 제3 방향(Z)으로 연장될 수 있다. 즉, P형 배리어(PB)는 수직(vertical)적으로 제2 반도체 기판(220) 내에 형성될 수 있다. n형 불순물로 도핑된 광전 변환층(PD)과 달리, P형 배리어(PB)는 p형 불순물로 도핑될 수 있다.
또한 도면 상에 도시되지 않았지만, 픽셀 어레이 영역(PA)의 픽셀 영역(PX)은 각각의 제1 내지 제8 포토 다이오드(PD1-PD8)와 인접하게 배치되는 저장 다이오드, 저장 게이트 등을 포함할 수 있다.
몇몇 실시예에 따른 이미지 센서는 제1 연결 구조체(350), 제2 연결 구조체(450) 및 제3 연결 구조체(550)를 더 포함할 수 있다.
제1 연결 구조체(350)는 차광 영역(OB) 내에 형성될 수 있다. 제1 연결 구조체(350)의 일부는 차광 영역(OB)의 표면 절연층(210) 상에 형성될 수 있다. 제1 연결 구조체(350)는 픽셀 분리 패턴(225)과 접촉할 수 있다. 예를 들어, 차광 영역(OB)의 제2 반도체 기판(220) 및 표면 절연층(210) 내에, 픽셀 분리 패턴(225)을 노출시키는 제1 트렌치(355t)가 형성될 수 있다. 제1 연결 구조체(350)는 제1 트렌치(355t) 내에 형성되어 차광 영역(OB) 내의 픽셀 분리 패턴(225)과 접촉할 수 있다. 몇몇 실시예에서, 제1 연결 구조체(350)는 제1 트렌치(355t)의 측면 및 하면의 프로파일을 따라 연장될 수 있다.
몇몇 실시예에서, 제1 연결 구조체(350)는 픽셀 분리 패턴(225)과 전기적으로 연결되어 도전 필링 패턴(227)에 그라운드 전압 또는 마이너스 전압을 인가할 수 있다. 이에 따라, ESD 등에 의해 발생된 전하들은 픽셀 분리 패턴(225)을 통해 제1 연결 구조체(350)으로 배출될 수 있고, ESD 멍 불량이 효과적으로 방지될 수 있다.
제1 연결 구조체(350)는 제1 트렌치(355t) 내에 차례로 적층되는 티타늄(Ti)막, 티타늄 질화물(TiN)막 및 텅스텐(W)막을 포함할 수 있다.
몇몇 실시예에서, 제1 연결 구조체(350) 상에, 제1 트렌치(355t)를 채우는 제1 패드(355)가 형성될 수 있다. 제1 패드(355)는 예를 들어, 텅스텐(W), 구리(Cu), 알루미늄(Al), 금(Au), 은(Ag) 및 이들의 합금 중 적어도 하나를 포함할 수 있으나, 이에 제한되는 것은 아니다.
몇몇 실시예에서, 제1 라이너(253)는 제1 연결 구조체(350) 및 제1 패드(355)를 덮을 수 있다. 예를 들어, 제1 라이너(253)는 제1 연결 구조체(350) 및 제1 패드(355)의 프로파일을 따라 연장될 수 있다.
제2 연결 구조체(450)는 연결 영역(CR) 내에 형성될 수 있다. 제2 연결 구조체(450)의 일부는 연결 영역(CR)의 표면 절연층(210) 상에 형성될 수 있다. 제2 연결 구조체(450)는 제1 기판 구조체(100)와 제2 기판 구조체(200)를 전기적으로 연결할 수 있다. 예를 들어, 연결 영역(CR)의 제1 기판 구조체(100) 및 제2 기판 구조체(200) 내에, 제2 배선(ML2)과 제5 배선(ML5)을 노출시키는 제2 트렌치(455t)가 형성될 수 있다. 제2 연결 구조체(450)는 제2 트렌치(455t) 내에 형성되어 제2 배선(ML2)과 제5 배선(ML5)을 연결할 수 있다. 몇몇 실시예에서, 제2 연결 구조체(450)는 제2 트렌치(455t)의 측면 및 하면의 프로파일을 따라 연장될 수 있다.
몇몇 실시예에서, 제2 연결 구조체(450)는 제2 트렌치(455t) 내에 차례로 적층되는 티타늄(Ti)막, 티타늄 질화물(TiN)막 및 텅스텐(W)막을 포함할 수 있다.
몇몇 실시예에서, 제1 라이너(253)은 제2 연결 구조체(450)를 덮을 수 있다. 예를 들어, 제1 라이너(253)은 제2 연결 구조체(450)의 프로파일을 따라 연장될 수 있다.
몇몇 실시예에서, 제2 연결 구조체(450) 상에, 제2 트렌치(455t)를 채우는 제1 필링 절연막(460)이 형성될 수 있다. 제1 필링 절연막(460)은 예를 들어, 실리콘 산화물, 알루미늄 산화물, 탄탈럼 산화물 및 이들의 조합 중 적어도 하나를 포함할 수 있으나, 이에 제한되는 것은 아니다.
제3 연결 구조체(550)는 패드 영역(PR) 내에 형성될 수 있다. 제3 연결 구조체(550)는 패드 영역(PR)의 표면 절연층(210) 상에 형성될 수 있다. 제3 연결 구조체(550)는 제1 기판 구조체(100)와 외부 장치 등을 전기적으로 연결될 수 있다.
예를 들어, 패드 영역(PR)의 제1 기판 구조체(100) 및 제2 기판 구조체(200) 내에, 제3 배선(ML3)을 노출시키는 제3 트렌치(550t)가 형성될 수 있다. 제3 연결 구조체(550)는 제3 트렌치(550t) 내에 형성되어 제3 배선(ML3)과 접촉할 수 있다.
또한, 패드 영역(PR)의 제2 반도체 기판(220) 내에, 제4 트렌치(555t)가 형성될 수 있다. 제3 연결 구조체(550)는 제4 트렌치(555t) 내에 형성되어 노출될 수 있다. 몇몇 실시예에서, 제3 연결 구조체(550)는 제3 트렌치(550t) 및 제4 트렌치(555t)의 측면 및 하면의 프로파일을 따라 연장될 수 있다.
몇몇 실시예에서, 제3 연결 구조체(550) 상에, 제3 트렌치(550t)를 채우는 제2 필링 절연막(560)이 형성될 수 있다. 제2 필링 절연막(560)은 예를 들어, 실리콘 산화물, 알루미늄 산화물, 탄탈럼 산화물 및 이들의 조합 중 적어도 하나를 포함할 수 있으나, 이에 제한되는 것은 아니다.
몇몇 실시예에서, 제3 연결 구조체(550) 상에, 제4 트렌치(555t)를 채우는 제2 패드(555)가 형성될 수 있다. 제2 패드(555)는 예를 들어, 텅스텐(W), 구리(Cu), 알루미늄(Al), 금(Au), 은(Ag) 및 이들의 합금 중 적어도 하나를 포함할 수 있으나, 이에 제한되는 것은 아니다.
몇몇 실시예에서, 제3 연결 구조체(550)는 제3 트렌치(550t) 내에 차례로 적층되는 티타늄(Ti)막, 티타늄 질화물(TiN)막 및 텅스텐(W)막을 포함할 수 있다.
몇몇 실시예에서, 제1 라이너(253)는 제3 연결 구조체(550)를 덮을 수 있다. 예를 들어, 제1 라이너(253)는 제3 연결 구조체(550)의 프로파일을 따라 연장될 수 있다. 몇몇 실시예에서, 제1 라이너(253)는 제2 패드(555)를 노출시킬 수 있다.
몇몇 실시예에서, 제1 연결 구조체(350) 및 제2 연결 구조체(450) 상에 제4 컬러 필터(370C)가 형성될 수 있다. 예를 들어, 제4 컬러 필터(370C)는 차광 영역(OB) 및 연결 영역(CR) 내의 제1 라이너(253)의 일부를 덮도록 형성될 수 있다.
제4 컬러 필터(370C)는 예를 들어, 청색(blue) 컬러 필터를 포함할 수 있으나, 이에 제한되는 것은 아니다.
몇몇 실시예에서, 제4 컬러 필터(370C) 상에 보호막(380)이 형성될 수 있다. 예를 들어, 보호막(380)은 차광 영역(OB), 연결 영역(CR) 및 패드 영역(PR) 내의 제1 라이너(253)의 일부를 덮도록 형성될 수 있다. 몇몇 실시예에서, 제2 라이너(254)는 제3 보호막(380)의 표면을 따라 연장될 수 있다. 제3 보호막(380)은 예를 들어, 광투과성 수지를 포함할 수 있으나, 이에 제한되는 것은 아니다. 몇몇 실시예에서, 보호막(380)은 마이크로 렌즈(180)와 동일한 물질을 포함할 수 있다.
몇몇 실시예에서, 제2 라이너(254) 및 보호막(380)은 제2 패드(555)를 노출시킬 수 있다. 예를 들어, 제2 라이너(254) 및 보호막(380) 내에, 제2 패드(555)를 노출시키는 노출 개구(ER)가 형성될 수 있다. 이에 따라, 제2 패드(555)는 외부 장치 등과 접속되어, 몇몇 실시예에 따른 이미지 센서와 외부 장치 간의 전기적 신호를 송수신하도록 구성될 수 있다.
도 9는 본 발명의 몇몇 실시예들에 따른 이미지 센서의 단위 픽셀을 설명하기 위한 예시적인 회로도이다.
도 9를 참조하면, 몇몇 실시예에 따른 이미지 센서는 픽셀 영역(PX)에 대응하는 단위 픽셀을 포함한다. 이하에서 설명의 편의를 위해 픽셀 영역(PX)을 단위 픽셀(PX)로 설명한다.
단위 픽셀(PX)은 복수 개로 행 방향 및 열 방향을 따라 행렬(matrix) 형태로 배열될 수 있다. 각각의 단위 픽셀(PX)들은 제1 내지 제8 포토 다이오드(PD1-PD8), 플로팅 디퓨전(FD) 및 제어 트랜지스터들(TX1-TX8, RX, SX, AX)을 포함할 수 있다.
몇몇 실시예에서, 제어 트랜지스터들(TX1-TX8, RX, SX, AX)은 제1 내지 제8 전송 트랜지스터(TX1), 리셋 트랜지스터(RX), 선택 트랜지스터(SX) 및 증폭 트랜지스터(AX)를 포함할 수 있다. 제1 내지 제8 전송 트랜지스터(TX1), 리셋 트랜지스터(RX) 및 선택 트랜지스터(SX)의 게이트 전극들은 구동 신호라인들(TG1-TG8, RG, SG)에 각각 연결될 수 있다.
상기 구동 신호라인들(TG1-TG8, RG, SG)은 도 1의 로우 드라이버(1130)에 의해 제어될 수 있고, 상기 구동 신호라인들(TG1-TG8, RG, SG)은 하나의 로우 라인(ROW)으로 제어될 수 있다.
각각의 단위 픽셀(PX)들은 분리된 8개의 포토 다이오드들(PD1-PD8)을 포함할 수 있다. 제1 내지 제8 포토 다이오드(PD1-PD8)는 각각 외부로부터 입사되는 광의 양에 비례하여 전하를 생성할 수 있다. 제1 포토 다이오드 (PD1)는 제1 전송 트랜지스터(TX1)와 커플링될 수 있고, 제2 포토 다이오드 (PD2)는 제2 전송 트랜지스터(TX2)와 커플링될 수 있다. 나머지 각각의 제3 내지 제8 포토 다이오드(PD3-PD8)는 각각의 제3 내지 제8 전송 트랜지스터(TX3-TX8)와 커플링될 수 있다
플로팅 디퓨전(FD)은 전하를 전압으로 전환하는 영역으로, 기생 커패시턴스를 갖고 있어 전하가 누적적으로 저장될 수 있다. 제1 전송 트랜지스터(TX1)는 소정의 바이어스를 인가하는 제1 전송 라인(TG1)에 의해 구동되어, 제1 포토 다이오드(PD1)로부터 생성된 전하를 센싱 신호로 플로팅 디퓨전(FD)에 전송할 수 있다. 또한, 제2 전송 트랜지스터(TX2)는 소정의 바이어스를 인가하는 제2 전송 라인(TG2)에 의해 구동되어, 제2 포토 다이오드(PD2)로부터 생성된 전하를 센싱 신호로 플로팅 디퓨전(FD)으로 전송할 수 있다. 나머지 제3 내지 제8 전송 트랜지스터(TX3-TX8)의 동작에 대한 설명은 제1 및 제2 전송 트랜지스터(TX1, TX2)의 동작에 대한 설명으로 대체되는 것은 자명하다.
몇몇 실시예에서, 제1 내지 제8 전송 트랜지스터(TX1-TX8)는 플로팅 디퓨전(FD)을 공유할 수 있다. 예를 들어, 제1 전송 트랜지스터(TX1)의 일단은 제1 포토 다이오드(PD1)와 연결되고, 제1 전송 트랜지스터(TX1)의 타단은 플로팅 디퓨전(FD)과 연결될 수 있다. 또한, 제2 전송 트랜지스터(TX2)의 일단은 제2 포토 다이오드(PD2)와 연결되고, 제2 전송 트랜지스터(TX2)의 타단은 플로팅 디퓨전(FD)과 연결될 수 있다. 나머지 각각의 제3 내지 제8 전송 트랜지스터(TX3-TX8)의 일단은 각각의 제3 내지 제8 포토 다이오드(PD3-PD8)와 연결되고, 타단은 플로팅 디퓨전(FD)과 연결될 수 있다.
제1 내지 제8 전송 라인(TG1-TG8)에 의해 각각의 제1 내지 제8 포토 다이오드(PD1-PD8)로부터 생성된 센싱 신호들은, 제1 내지 제8 전송 라인(TG1-TG8)에 의해 플로팅 디퓨전(FD)에서 아날로그 비닝된다.
리셋 트랜지스터(RX)는 플로팅 디퓨전(FD)을 주기적으로 리셋시킬 수 있다. 리셋 트랜지스터(RX)는 소정의 바이어스를 인가하는 리셋 라인(RG)에 의해 구동될 수 있다. 리셋 트랜지스터(RX)가 턴온(turn-on)되면, 리셋 트랜지스터(RX)의 드레인에 제공되는 소정의 전기적 포텐셜, 예컨대 전원 전압(VDD)이 플로팅 디퓨전(FD)으로 전달될 수 있다.
증폭 트랜지스터(AX)는 제1 내지 제8 포토 다이오드(PD1-PD8)에서 생성된 아날로그 비닝된 센싱 신호 중 적어도 하나 이상으로부터 전하를 전달받은 플로팅 디퓨전(FD)의 전위 변화를 증폭하고 이를 출력 전압(VOUT)으로 출력할 수 있다. 증폭 트랜지스터(AX)는 플로팅 디퓨전(FD)의 전하량에 비례하여 소오스-드레인 전류를 발생시키는 소오스 팔로워 버퍼 증폭기(source follower buffer amplifier)일 수 있다. 예를 들어, 증폭 트랜지스터(AX)의 게이트 전극은 플로팅 디퓨전(FD)에 연결될 수 있다. 이를 통해, 증폭 트랜지스터(AX)의 드레인에 제공되는 소정의 전기적 포텐셜, 예컨대 전원 전압(VDD)이 선택 트랜지스터(SX)의 드레인 영역으로 전달될 수 있다.
선택 트랜지스터(SX)는 행 단위로 읽어낼 단위 픽셀(PX)을 선택할 수 있다. 선택 트랜지스터(SX)는 소정의 바이어스를 인가하는 선택 라인(SG)에 의해 구동될 수 있다. 이를 통해, 선택 트랜지스터(SX)에 의해 선택된 단위 픽셀(PX)의 출력 전압(VOUT)이 출력되고, 상기 출력 전압(VOUT)은 아날로그 비닝된 픽셀 신호(SIG_PX)일 수 있다.
도 10 및 도 11은 본 발명의 몇몇 실시예들에 따른 이미지 센서의 단위 픽셀의 동작을 설명하기 위한 도면들이다.
도 9 내지 도 11을 참조하면, 단위 픽셀(PX)은 제2 방향(Y)으로 연장되는 제1 피사체(OBJ1)에 대해 자동 초점(AF; auto-focus) 기능을 수행하는 경우, AF 픽셀로서 제1 동작 모드(mode 1)를 수행할 수 있다.
제1 동작 모드(mode 1)에서 제1 및 제2 포토 다이오드(PD1, PD2) 및 제7 및 제8 포토 다이오드(PD7, PD8)로부터 생성된 센싱 신호들을 기초로 아날로그 비닝 동작이 수행되고, 제3 내지 제6 포토 다이오드(PD3-PD6)로부터 생성된 센싱 신호들을 기초로 아날로그 비닝 동작이 수행된다. 상기 아날로그 비닝 동작은 도 11을 참조하여 이하에서 설명한다.
도 1의 로우 드라이버(1150)의 제어의 의해, 제a 시간(Ta)에 제1 및 제2 전송 라인(TG1, TG2) 및 제7 및 제8 전송 라인(TG7, TG8)이 구동되어, 제1 및 제2 포토 다이오드(PD1, PD2) 및 제7 및 제8 포토 다이오드(PD7, PD8)로부터 생성된 센싱 신호들은 플로팅 디퓨전(FD)에서 아날로그 비닝 동작을 수행한다. 단위 픽셀(PX)은 상기 아날로그 비닝 동작을 통해 생성된 픽셀 신호(SIG_PX)를 출력하도록 할 수 있다.
제a 시간(Ta) 이후, 제1 시간(t1)에서 리셋 제어 라인(RG)이 구동되어 리셋 트랜지스터(RX)은 턴 온되어, 플로팅 디퓨전(FD)에 전원 전압(Vdd)이 인가되어 리셋될 수 있다.
제1 시간(t1) 이후 제b 시간(Tb)에 제3 내지 제6 전송 라인(TG3-TG6)이 구동되어, 제3 내지 제6 포토 다이오드(PD3-PD6)로부터 생성된 센싱 신호들은 플로팅 디퓨전(FD)에서 아날로그 비닝 동작을 수행한다. 단위 픽셀(PX)은 상기 아날로그 비닝 동작을 통해 생성된 픽셀 신호(SIG_PX)를 출력하도록 할 수 있다.
제b 시간(Tb) 이후, 제2 시간(t2)에서 리셋 제어 라인(RG)이 구동되어 리셋 트랜지스터(RX)은 턴 온되어, 플로팅 디퓨전(FD)에 전원 전압(Vdd)이 인가되어 리셋될 수 있다.
제2 시간(t2) 이후 제c 시간(Tc) 제1 및 제2 전송 라인(TG1, TG2) 및 제7 및 제8 전송 라인(TG7, TG8)이 구동되어, 제1 및 제2 포토 다이오드(PD1, PD2) 및 제7 및 제8 포토 다이오드(PD7, PD8)로부터 생성된 센싱 신호들은 플로팅 디퓨전(FD)에서 아날로그 비닝 동작을 수행한다. 단위 픽셀(PX)은 상기 아날로그 비닝 동작을 통해 생성된 픽셀 신호(SIG_PX)를 출력하도록 할 수 있다.
제c 시간(Tc) 이후, 제3 시간(t3)에서 리셋 제어 라인(RG)이 구동되어 리셋 트랜지스터(RX)은 턴 온되어, 플로팅 디퓨전(FD)에 전원 전압(Vdd)이 인가되어 리셋될 수 있다.
제3 시간(t3) 이후 제d 시간(Td)에 제3 내지 제6 전송 라인(TG3-TG6)이 구동되어, 제3 내지 제6 포토 다이오드(PD3-PD6)로부터 생성된 센싱 신호들은 플로팅 디퓨전(FD)에서 아날로그 비닝 동작을 수행한다. 단위 픽셀(PX)은 상기 아날로그 비닝 동작을 통해 생성된 픽셀 신호(SIG_PX)를 출력하도록 할 수 있다.
제a 시간(Ta)와 제c 시간(Tc)사이의 제1 노광 시간(T1)에서 제1 및 제2 포토 다이오드(PD1, PD2) 및 제7 및 제8 포토 다이오드(PD7, PD8)는 광 전하를 충전할 수 있고, 제b 시간(Tb)와 제d 시간(Td)사이의 제2 노광 시간(T2)에서 제3 내지 제6 포토 다이오드(PD3-PD6)는 광 전하를 충전할 수 있다.
도 12 내지 도 14는 본 발명의 몇몇 실시예들에 따른 이미지 센서의 단위 픽셀의 동작을 설명하기 위한 도면들이다.
도 9 및 도 12를 참조하면, 단위 픽셀(PX)은 제1 방향(X)으로 연장되는 제2 피사체(OBJ2)에 대해 자동 초점(AF) 기능을 수행하는 경우, AF 픽셀로서 제2 동작 모드(mode 2)를 수행할 수 있다.
제2 동작 모드(mode 2)에서 제1 내지 제4 포토 다이오드(PD1-PD4) 로부터 생성된 센싱 신호들을 기초로 아날로그 비닝 동작이 수행되고, 제5 내지 제8 포토 다이오드(PD5-PD8)로부터 생성된 센싱 신호들을 기초로 아날로그 비닝 동작이 수행된다.
도 12의 상기 아날로그 비닝 동작은, 도 11의 아날로그 비닝 동작과 같이, 제1 내지 제4 포토 다이오드(PD1-PD4)로부터 생성된 센싱 신호에 대한 아날로그 비닝 동작의 수행시간과 제5 내지 제8 포토 다이오드(PD5-PD8)로부터 생성된 센싱 신호에 대한 아날로그 비닝 동작 수행시간을 달리하면서 수행될 수 있다.
도 9 및 도 13을 참조하면, 단위 픽셀(PX)은 제1 대각 방향(D1)으로 연장되는 제3 피사체(OBJ3)에 대해 자동 초점(AF) 기능을 수행하는 경우, AF 픽셀로서 제3 동작 모드(mode 3)를 수행할 수 있다.
제3 동작 모드(mode 3)에서 제1 포토 다이오드(PD1) 및 제6 내지 제8 포토 다이오드(PD6-PD8)로부터 생성된 센싱 신호들을 기초로 아날로그 비닝 동작이 수행되고, 제2 내지 제5 포토 다이오드(PD2-PD5)로부터 생성된 센싱 신호들을 기초로 아날로그 비닝 동작을 수행된다.
제2 대각 방향(D2)으로 연장되는 피사체에 대해 자동 초점(AF) 기능을 수행하는 경우, 제8 포토 다이오드(PD8) 및 제1 내지 제3 포토 다이오드(PD1-PD3)로부터 생성된 센싱 신호들을 기초로 아날로그 비닝 동작이 수행되고, 제4 내지 제7 포토 다이오드(PD4-PD7)로부터 생성된 센싱 신호들을 기초로 아날로그 비닝 동작을 수행되는 것은 자명하다.
도 13의 상기 아날로그 비닝 동작은, 도 11의 아날로그 비닝 동작과 같이, 제1 포토 다이오드(PD1) 및 제6 내지 제8 포토 다이오드(PD6-PD8)로부터 생성된 센싱 신호에 대한 아날로그 비닝 동작의 수행시간과 제2 내지 제5 포토 다이오드(PD2-PD5)에 대한 아날로그 비닝 동작 수행시간을 달리하면서 수행될 수 있다.
도 9 및 도 14를 참조하면, 단위 픽셀(PX)은 제4 피사체(OBJ4)에 대해 이미지 검출을 수행하는 경우, 이미지 검출 픽셀로서 제4 동작 모드(mode 4)를 수행할 수 있다.
제4 동작 모드(mode 4)에서, 제1 내지 제8 포토 다이오드(PD1-PD8)로부터 생성된 센싱 신호들을 기초로 동일한 시간에 아날로그 비닝 동작이 수행된다.
도 15는 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센서의 단위 픽셀을 설명하기 위한 예시적인 회로도이다.
이하에서, 도 15를 참조하여 본 발명의 또 다른 몇몇 실시예에 따른 단위 픽셀(PX')의 구성을 설명한다. 도 10에 도시된 단위 픽셀(PX)의 구성들과의 차이점을 중심으로 설명한다.
단위 픽셀(PX')은, 도 10의 단위 픽셀(PX)에 비해, 제1 내지 제8 리셋 트랜지스터(RX1-RX8), 제1 내지 제8 선택 트랜지스터(SX1-SX8), 증폭 트랜지스터(AX1-AX8) 및 제1 내지 제8 플로팅 디퓨전(FD1-FD8)을 더 포함한다.
각각의 제1 내지 제8 리셋 트랜지스터(RX1-RX8), 제1 내지 제8 선택 트랜지스터(SX1-SX8), 증폭 트랜지스터(AX1-AX8) 및 제1 내지 제8 플로팅 디퓨전(FD1-FD8)은, 도 10의 리셋 트랜지스터(RX), 선택 트랜지스터(SX), 증폭 트랜지스터(AX) 및 플로팅 디퓨전(FD)에 각각 대응된다.
각각의 제1 내지 제8 전송 트랜지스터(TX1-TX8)는 소정의 바이어스를 인가하는 각각의 제1 내지 제8 전송 라인(TG1-TG8)에 의해 구동되어, 각각의 제1 내지 제8 포토 다이오드(PD1-PD8)로부터 생성된 전하를 센싱 신호로 제1 내지 제8 플로팅 디퓨전(FD1-FD8)에 각각 전송할 수 있다.
제1 내지 제8 전송 트랜지스터(TX1-TX8)는 제1 내지 제8 플로팅 디퓨전(FD1-FD8)을 각각 커플링되고, 각각의 제1 내지 제8 플로팅 디퓨전(FD1-FD8)은 분리된다.
각각의 제1 내지 제8 리셋 트랜지스터(RX1-RX8)는 각각의 제1 내지 제8 플로팅 디퓨전(FD1-FD8)을 주기적으로 각각 리셋시킬 수 있다. 제1 내지 제8 리셋 트랜지스터(RX1-RX8)는 소정의 바이어스를 인가하는 리셋 라인(RG)에 의해 구동될 수 있다. 제1 내지 제8 리셋 트랜지스터(RX1-RX8)가 턴온(turn-on)되면, 제1 내지 제8 리셋 트랜지스터(RX1-RX8)의 드레인에 제공되는 소정의 전기적 포텐셜, 예컨대 전원 전압(VDD)이 제1 내지 제8 플로팅 디퓨전(FD1-FD8)으로 전달될 수 있다.
각각의 제1 내지 제8 증폭 트랜지스터(AX1-AX8)는, 제1 내지 제8 포토 다이오드(PD1-PD8)에서 생성된 센싱 신호에 대한 전하를 전달받은 제1 내지 제8 플로팅 디퓨전(FD1-FD8)의 전위 변화를 증폭하고, 이를 제1 내지 제8 출력 전압(VOUT1-VOUT8)으로 출력할 수 있다. 각각의 제1 내지 제8 증폭 트랜지스터(AX1-AX8)는 각각의 제1 내지 제8 플로팅 디퓨전(FD1-FD8)의 전하량에 비례하여 소오스-드레인 전류를 발생시키는 소오스 팔로워 버퍼 증폭기(source follower buffer amplifier)일 수 있다. 예를 들어, 각각의 제1 내지 제8 증폭 트랜지스터(AX1-AX8)의 게이트 전극은 각각의 제1 내지 제8 플로팅 디퓨전(FD1-FD8)에 연결될 수 있다. 이를 통해, 각각의 제1 내지 제8 증폭 트랜지스터(AX1-AX8)의 드레인에 제공되는 소정의 전기적 포텐셜, 예컨대 전원 전압(VDD)이 각각의 제1 내지 제8 선택 트랜지스터(SX1-SX8)의 드레인 영역으로 전달될 수 있다.
각각의 제1 내지 제8 선택 트랜지스터(SX1-SX8)는 행 단위로 읽어낼 단위 픽셀(PX')을 선택할 수 있다. 각각의 제1 내지 제8 선택 트랜지스터(SX1-SX8)는 소정의 바이어스를 인가하는 선택 라인(SG)에 의해 구동될 수 있다. 이를 통해, 각각의 제1 내지 제8 선택 트랜지스터(SX1-SX8)에 의해 선택된 단위 픽셀(PX')에 대한 제1 내지 제8 출력 전압(VOUT1-VOUT8)이 출력되고, 상기 제1 내지 제8 출력 전압(VOUT1-VOUT8)은 제1 내지 제8 픽셀 신호(SIG_PX1-SIG_PX8)일 수 있다.
제1 내지 제8 픽셀 신호(SIG_PX1-SIG_PX8)은 하나의 컬럼 라인(COL)으로 출력될 수 있다. 제1 내지 제8 픽셀 신호(SIG_PX1-SIG_PX8)은 단위 픽셀(PX')로부터 분리되어 출력되어, 도 1의 리드 아웃 회로(1150)로 동일한 시간에 입력될 수 있다.
도 16은 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센싱 시스템의 동작을 설명하기 위한 도면이다. 도 16은 도 15의 단위 픽셀(PX')을 포함하는 이미지 센싱 시스템의 동작을 설명한다.
도 1, 도 15 및 도 16을 참조하면, 리드아웃 회로(1150)는 비닝 결정부(1151), 상관 이중 샘플러(CDS)(1152) 및 아날로그-디지털 컨버터(1153)를 포함할 수 있다. 비닝 결정부(1151)는 단위 픽셀(PX')로부터 출력된 픽셀 신호(SIG_PX)를 수신할 수 있다. 픽셀 신호(SIG_PX)은 제1 내지 제8 픽셀 신호(SIG_PX1-SIG_PX8)를 수신할 수 있다. 비닝 결정부(1151)는 픽셀 신호(SIG_PX)에 대하여 비닝 동작을 수행할 것인지 여부를 결정할 수 있다.
비닝 결정부(1151)가 단위 픽셀(PX')의 동작 모드에 따라 비닝 동작을 수행하기로 결정하고 픽셀 신호(SIG_PX)에 대하여 제1 내지 제8 픽셀 신호(SIG_PX1-SIG_PX8)에 대한 아날로그 비닝 동작을 수행하여 비닝 이미지 신호(SIG_BIN)인 이미지 신호(IMS)를 출력한다.
단위 픽셀(PX')이, 도 10의 제1 동작 모드(mode 1)와 같이, 제2 방향(Y)으로 연장되는 제1 피사체(OBJ1)에 대해 자동 초점 기능을 수행하는 경우, 비닝 결정부(1151)는 제1 및 제2 포토 다이오드(PD1, PD2) 및 제7 및 제8 포토 다이오드(PD7, PD8)를 기초하여 생성된 제1 및 제2 픽셀 신호(SIG_PX1, SIG_PX2) 및 제7 및 제8 픽셀 신호(SIG_PX7, SIG_PX8)들을 기초로 아날로그 비닝 동작을 수행하고, 제3 내지 제6 포토 다이오드(PD3-PD6)를 기초하여 생성된 제3 내지 제6 픽셀 신호(SIG_PX3-SIG_PX6)들을 기초로 아날로그 비닝 동작을 수행한다.
단위 픽셀(PX')이, 도 12의 제2 동작 모드(mode 2)와 같이, 제1 방향(X)으로 연장되는 제2 피사체(OBJ2)에 대해 자동 초점 기능을 수행하는 경우, 비닝 결정부(1151)는 제1 내지 제4 포토 다이오드(PD1-PD4)를 기초하여 생성된 제1 내지 제4 픽셀 신호(SIG_PX1-SIG_PX4)들을 기초로 아날로그 비닝 동작을 수행하고, 제5 내지 제8 포토 다이오드(PD5-PD8)를 기초하여 생성된 제5 내지 제8 픽셀 신호(SIG_PX5-SIG_PX8)들을 기초로 아날로그 비닝 동작을 수행한다.
단위 픽셀(PX')이, 도 13의 제3 동작 모드(mode 3)와 같이, 제1 대각 방향(D1)으로 연장되는 제3 피사체(OBJ3)에 대해 자동 초점 기능을 수행하는 경우, 비닝 결정부(1151)는 제1 포토 다이오드(PD1) 및 제6 내지 제8 포토 다이오드(PD6-PD8)를 기초하여 생성된 제1 픽셀 신호(SIG_PX1) 및 제6 내지 제8 픽셀 신호(SIG_PX6-SIG_PX8)들을 기초로 아날로그 비닝 동작을 수행하고, 제2 내지 제5 포토 다이오드(PD2-PD5)를 기초하여 생성된 제2 내지 제5 픽셀 신호(SIG_PX2-SIG_PX5)들을 기초로 아날로그 비닝 동작을 수행한다.
단위 픽셀(PX')이, 도 14의 제4 동작 모드(mode 4)와 같이, 제4 피사체(OBJ4)에 대해 이미지 검출을 수행하는 경우, 비닝 결정부(1151)는 제1 내지 제8 포토 다이오드(PD1-PD8)를 기초하여 생성된 제1 내지 제8 픽셀 신호(SIG_PX1-SIG_PX8)들을 기초로 아날로그 비닝 동작을 수행한다.
도 17은 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센싱 시스템의 동작을 설명하기 위한 도면이다. 도 17은 도 15의 단위 픽셀(PX')을 포함하는 이미지 센싱 시스템의 동작을 설명한다.
도 1, 도 15 및 도 17을 참조하면, 버퍼(1170)는 리드아웃 회로(1150)로부터 제1 내지 제8 픽셀 신호(SIG_PX1-SIG_PX8)에 대응하는 이미지 신호(IMS)를 전달받아, 이미지 신호 프로세서(900)에 전달할 수 있다. 이미지 신호 프로세서(900)는 이미지 신호(IMS)에 대하여 디지털 비닝 동작을 수행하여 비닝 이미지 신호(SIG_BIN)를 생성할 수 있다.
이미지 신호 프로세서(900)가 단위 픽셀(PX')의 동작 모드에 따라 비닝 동작을 수행하기로 결정하고, 제1 내지 제8 픽셀 신호(SIG_PX1-SIG_PX8)에 각각 대응하는 이미지 신호(IMS)에 대하여 디지털 비닝 동작을 수행하여 비닝 이미지 신호(SIG_BIN)를 출력한다.
단위 픽셀(PX')이, 도 10의 제1 동작 모드(mode 1)와 같이, 제2 방향(Y)으로 연장되는 제1 피사체(OBJ1)에 대해 자동 초점 기능을 수행하는 경우, 이미지 신호 프로세서(900)는 제1 및 제2 픽셀 신호(SIG_PX1, SIG_PX2) 및 제7 및 제8 픽셀 신호(SIG_PX7, SIG_PX8)를 기초로 하는 제1 및 제2 이미지 신호(IMS1, IMS2) 및 제7 및 제8 이미지 신호(IMS7, IMS8)에 대하여 디지털 비닝 동작을 수행하고, 제3 내지 제6 픽셀 신호(SIG_PX3-SIG_PX6)를 기초로 하는 제3 내지 제6 이미지 신호(IMS3-IMS6)들을 기초로 디지털 비닝 동작을 수행한다.
단위 픽셀(PX')이, 도 12의 제2 동작 모드(mode 2)와 같이, 제1 방향(X)으로 연장되는 제2 피사체(OBJ2)에 대해 자동 초점 기능을 수행하는 경우, 이미지 신호 프로세서(900)는 제1 내지 제4 픽셀 신호(SIG_PX1-SIG_PX4)를 기초로 하는 제1 내지 제4 이미지 신호(IMS1-IMS4)에 대하여 디지털 비닝 동작을 수행하고, 제5 내지 제8 픽셀 신호(SIG_PX5-SIG_PX8)를 기초로 하는 제5 내지 제8 이미지 신호(IMS5-IMS8)에 대하여 디지털 비닝 동작을 수행한다.
단위 픽셀(PX')이, 도 13의 제3 동작 모드(mode 3)와 같이, 제1 대각 방향(D1)으로 연장되는 제3 피사체(OBJ3)에 대해 자동 초점 기능을 수행하는 경우, 이미지 신호 프로세서(900)는 제1 픽셀 신호(SIG_PX1) 및 제6 내지 제8 픽셀 신호(SIG_PX6-SIG_PX8)를 기초로 하는 제1 및 제6 내지 제8 이미지 신호(IMS1, IMS6-IMS8)에 대하여 디지털 비닝 동작을 수행하고, 제2 내지 제5 픽셀 신호(SIG_PX2-SIG_PX5)를 기초로 하는 제2 내지 제5 이미지 신호(IMS2-IMS5)에 대하여 디지털 비닝 동작을 수행한다.
단위 픽셀(PX')이, 도 14의 제4 동작 모드(mode 4)와 같이, 제4 피사체(OBJ4)에 대해 이미지 검출을 수행하는 경우, 이미지 신호 프로세서(900)는 제1 내지 제8 픽셀 신호(SIG_PX1-SIG_PX8)들을 기초로 하는 제1 내지 제8 이미지 신호(IMS1-IMS8)에 대하여 디지털 비닝 동작을 수행한다.
본원 발명의 몇몇 실시예에 따른 이미지 센싱 시스템은, 상기 단위 픽셀(PX, PX)의 상기 제3 동작 모드(mode 1-mode 4)를 통해 대각 방향에 대해 효율적으로 신속하게 자동 초점 검출 동작을 수행할 수 있다.
본원 발명의 몇몇 실시예에 따른 이미지 센싱 시스템은, 상기 단위 픽셀(PX, PX)의 상기 제1 내지 제4 동작 모드(mode 1-mode 4)을 통해, 다양한 방향에 대해 효율적으로 자동 초점 검출 동작을 수행하고 이미지 검출 동작을 수행하는 듀얼 픽셀을 제공할 수 있다.
도 18는 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센서를 설명하기 위한 도면이다.
이하에서, 도 18을 참조하여 본 발명의 또 다른 몇몇 실시예에 따른 이미지 센서를 설명한다. 도 7에 도시된 이미지 센서들과의 차이점을 중심으로 설명한다.
도 7의 픽셀 분리 패턴(221)과 비교하였을 때, 픽셀 분리 패턴(221')의 폭은 제2 반도체 기판(220)의 제3 면(SF1)으로부터 제2 반도체 기판(220)의 제4 면(SF2)을 향함에 따라 감소한다.
이는, 픽셀 분리 패턴(221')을 형성하기 위한 식각 공정의 특성에 기인할 수 있다. 예를 들어, 픽셀 분리 패턴(221')을 형성하기 위해 제2 반도체 기판(220)을 식각하는 공정은 제2 반도체 기판(220)의 제3 면(SF1)에 대해 수행될 수 있다.
도 19는 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센서를 설명하기 위한 도면이다.
이하에서, 도 19을 참조하여 본 발명의 또 다른 몇몇 실시예에 따른 이미지 센서를 설명한다. 도 18에 도시된 이미지 센서들과의 차이점을 중심으로 설명한다.
도 18의 픽셀 분리 패턴(221')과 비교하였을 때, 픽셀 분리 패턴(221'')의 폭은 제2 반도체 기판(220)의 제4 면(SF2)으로부터 제2 반도체 기판(220)의 제3 면(SF1)을 향함에 따라 감소한다.
이는, 픽셀 분리 패턴(221'')을 형성하기 위한 식각 공정의 특성에 기인할 수 있다. 예를 들어, 픽셀 분리 패턴(221'')을 형성하기 위해 제2 반도체 기판(220)을 식각하는 공정은 제2 반도체 기판(220)의 제4 면(SF2)에 대해 수행될 수 있다.
몇몇 실시예에서, 픽셀 분리 패턴(221'')은 제2 반도체 기판(220)을 완전히 관통하지 않을 수 있다. 예를 들어, 픽셀 분리 패턴(221'')은 제2 반도체 기판(220)의 제4 면(SF2)으로부터 연장되지만, 제2 반도체 기판(220)의 제3 면(SF1)까지 연장되지 않을 수 있다. 즉, 픽셀 분리 패턴(221'')의 최하면은 제2 반도체 기판(220)의 제3 면(SF1)으로부터 이격될 수 있다.
도 20은 본 발명의 또 다른 몇몇 실시예들에 따른 이미지 센서를 설명하기 위한 도면이다.
이하에서, 도 20를 참조하여 본 발명의 또 다른 몇몇 실시예에 따른 이미지 센서를 설명한다. 도 7에 도시된 이미지 센서들과의 차이점을 중심으로 설명한다.
몇몇 실시예에 따른 이미지 센서는 연결 영역(CR)에서 제2 연결 구조체(450) 대신 연결 패턴(451)을 포함할 수 있다. 연결 패턴(451)은 제1 연결 패턴(451_1), 제2 연결 패턴(451_2) 및 제3 연결 패턴(451_3)을 포함할 수 있다.
제1 연결 패턴(451_1)은 표면 절연층(210), 제2 반도체 기판(220) 및 제2 배선간 절연막(230)을 제3 방향(Z)으로 관통하고, 연결 영역(CR) 내 제5 배선(ML5)와 연결될 수 있다.
제2 연결 패턴(451_2)은 표면 절연층(210), 제2 반도체 기판(220), 제2 배선간 절연막(230) 및 제1 배선간 절연막(130)을 제3 방향(Z)으로 관통하고, 연결 영역(CR) 내 제2 배선(ML2)와 연결될 수 있다.
제2 연결 패턴(451_2)은 제1 연결 패턴(451_1)과 이격될 수 있다. 제1 연결 패턴(451_1)과 제2 연결 패턴(451_2) 사이에 표면 절연층(210), 제2 반도체 기판(220) 및 제2 배선간 절연막(230)이 배치될 수 있다.
제3 연결 패턴(451_3)은 표면 절연층(210)의 상면 상에 배치될 수 있다. 제3 연결 패턴(451_3)은 제1 연결 패턴(451_1)과 제2 연결 패턴(451_2)을 연결할 수 있다.
도 21는 본 발명의 몇몇 실시예들에 따른 멀티 카메라 모듈을 포함하는 전자 장치를 나타내는 블록도이다. 도 22은 도 21의 카메라 모듈의 상세 블록도이다.
도 21 내지 도 22를 참조하면, 이하, 도 21 및 도 22를 참조하여 다른 몇몇 실시예에 따른 전자 장치(1000)를 설명한다. 설명의 편의를 위해, 도 1 내지 도 20를 이용하여 설명한 것과 중복되는 부분은 간략히 설명하거나 생략한다.
도 21을 참조하면, 전자 장치(1000)는 카메라 모듈 그룹(1100), 애플리케이션 프로세서(1200), PMIC(1300) 및 외부 메모리(1400)를 포함할 수 있다.
카메라 모듈 그룹(1100)은 복수의 카메라 모듈(1100a, 1100b, 1100c)을 포함할 수 있다. 비록 도면에는 3개의 카메라 모듈(1100a, 1100b, 1100c)이 배치된 실시예가 도시되어 있으나, 실시예들이 이에 제한되는 것은 아니다. 몇몇 실시예에서, 카메라 모듈 그룹(1100)은 2개의 카메라 모듈만을 포함하도록 변형되어 실시될 수 있다. 또한, 몇몇 실시예에서, 카메라 모듈 그룹(1100)은 n개(n은 4 이상의 자연수)의 카메라 모듈을 포함하도록 변형되어 실시될 수도 있다.
여기서 3개의 카메라 모듈(1100a, 1100b, 1100c) 중 하나는 도 1 내지 도 20를 이용하여 설명한 이미지 센서(100)를 포함할 수 있다.
이하, 도 21을 참조하여, 카메라 모듈(1100b)의 상세 구성에 대해 보다 구체적으로 설명할 것이나, 이하의 설명은 실시예에 따라 다른 카메라 모듈들(1100a, 1100c)에 대해서도 동일하게 적용될 수 있다.
도 21을 참조하면, 카메라 모듈(1100b)은 프리즘(1105), 광학 경로 폴딩 요소(Optical Path Folding Element, 이하, ˝OPFE˝)(1110), 액츄에이터(1130), 이미지 센싱 장치(1140) 및 저장부(1150)를 포함할 수 있다.
프리즘(1105)은 광 반사 물질의 반사면(1107)을 포함하여 외부로부터 입사되는 광(L)의 경로를 변형시킬 수 있다.
몇몇 실시예에서, 프리즘(1105)은 제1 방향(X)으로 입사되는 광(L)의 경로를 제1 방향(X)에 수직인 제2 방향(Y)으로 변경시킬 수 있다. 또한, 프리즘(1105)은 광 반사 물질의 반사면(1107)을 중심축(1106)을 중심으로 A방향으로 회전시키거나, 중심축(1106)을 B방향으로 회전시켜 제1 방향(X)으로 입사되는 광(L)의 경로를 수직인 제2 방향(Y)으로 변경시킬 수 있다. 이때, OPFE(1110)도 제1 방향(X)및 제2 방향(Y)과 수직인 제3 방향(Z)로 이동할 수 있다.
몇몇 실시예에서, 도시된 것과 같이, 프리즘(1105)의 A방향 최대 회전 각도는 플러스(+) A방향으로는 15도(degree)이하이고, 마이너스(-) A방향으로는 15도보다 클 수 있으나, 실시예들이 이에 제한되는 것은 아니다.
몇몇 실시예에서, 프리즘(1105)은 플러스(+) 또는 마이너스(-) B방향으로 20도 내외, 또는 10도에서 20도, 또는 15도에서 20도 사이로 움직일 수 있고, 여기서, 움직이는 각도는 플러스(+) 또는 마이너스(-) B방향으로 동일한 각도로 움직이거나, 1도 내외의 범위로 거의 유사한 각도까지 움직일 수 있다.
몇몇 실시예에서, 프리즘(1105)은 광 반사 물질의 반사면(1106)을 중심축(1106)의 연장 방향과 평행한 제3 방향(예를 들어, Z방향)으로 이동할 수 있다.
OPFE(1110)는 예를 들어 m(여기서, m은 자연수)개의 그룹으로 이루어진 광학 렌즈를 포함할 수 있다. m개의 렌즈는 제2 방향(Y)으로 이동하여 카메라 모듈(1100b)의 광학 줌 배율(optical zoom ratio)을 변경할 수 있다. 예를 들어, 카메라 모듈(1100b)의 기본 광학 줌 배율을 Z라고할 때, OPFE(1110)에 포함된 m개의 광학 렌즈를 이동시킬 경우, 카메라 모듈(1100b)의 광학 줌 배율은 3Z 또는 5Z 또는 5Z 이상의 광학 줌 배율로 변경될 수 있다.
액츄에이터(1130)는 OPFE(1110) 또는 광학 렌즈(이하, 광학 렌즈로 지칭)를 특정 위치로 이동시킬 수 있다. 예를 들어 액츄에이터(1130)는 정확한 센싱을 위해 이미지 센서(1142)가 광학 렌즈의 초점 거리(focal length)에 위치하도록 광학 렌즈의 위치를 조정할 수 있다.
이미지 센싱 장치(1140)는 이미지 센서(1142), 제어 로직(1144) 및 메모리(1146)을 포함할 수 있다. 이미지 센서(1142)는 광학 렌즈를 통해 제공되는 광(L)을 이용하여 센싱 대상의 이미지를 센싱할 수 있다. 제어 로직(1144)은 카메라 모듈(1100b)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어 로직(1144)은 제어 신호 라인(CSLb)을 통해 제공된 제어 신호에 따라 카메라 모듈(1100b)의 동작을 제어할 수 있다.
메모리(1146)는 캘리브레이션 데이터(1147)와 같은 카메라 모듈(1100b)의 동작에 필요한 정보를 저장할 수 있다. 캘리브레이션 데이터(1147)는 카메라 모듈(1100b)이 외부로부터 제공된 광(L)을 이용하여 이미지 데이터를 생성하는데 필요한 정보를 포함할 수 있다. 캘리브레이션 데이터(1147)는 예를 들어, 앞서 설명한 회전도(degree of rotation)에 관한 정보, 초점 거리(focal length)에 관한 정보, 광학 축(optical axis)에 관한 정보 등을 포함할 수 있다. 카메라 모듈(1100b)이 광학 렌즈의 위치에 따라 초점 거리가 변하는 멀티 스테이트(multi state) 카메라 형태로 구현될 경우, 캘리브레이션 데이터(1147)는 광학 렌즈의 각 위치별(또는 스테이트별) 초점 거리 값과 오토 포커싱(auto focusing)과 관련된 정보를 포함할 수 있다.
저장부(1150)는 이미지 센서(1142)를 통해 센싱된 이미지 데이터를 저장할 수 있다. 저장부(1150)는 이미지 센싱 장치(1140)의 외부에 배치될 수 있으며, 이미지 센싱 장치(1140)를 구성하는 센서 칩과 스택된(stacked) 형태로 구현될 수 있다. 몇몇 실시예에서, 저장부(1150)는 EEPROM(Electrically Erasable Programmable Read-Only Memory)으로 구현될 수 있으나 실시예들이 이에 제한되는 것은 아니다.
도 21과 도 22을 함께 참조하면, 몇몇 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 액추에이터(1130)를 포함할 수 있다. 이에 따라, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 그 내부에 포함된 액추에이터(1130)의 동작에 따른 서로 동일하거나 서로 다른 캘리브레이션 데이터(1147)를 포함할 수 있다.
몇몇 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 하나의 카메라 모듈(예를 들어, 1100b)은 앞서 설명한 프리즘(1105)과 OPFE(1110)를 포함하는 폴디드 렌즈(folded lens) 형태의 카메라 모듈이고, 나머지 카메라 모듈들(예를 들어, 1100a, 1100c)은 프리즘(1105)과 OPFE(1110)가 포함되지 않은 버티칼(vertical) 형태의 카메라 모듈일 수 있으나, 실시예들이 이에 제한되는 것은 아니다.
몇몇 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 하나의 카메라 모듈(예를 들어, 1100c)은 예를 들어, IR(Infrared Ray)을 이용하여 깊이(depth) 정보를 추출하는 버티컬 형태의 깊이 카메라(depth camera)일 수 있다. 이 경우, 애플리케이션 프로세서(1200)는 이러한 깊이 카메라로부터 제공받은 이미지 데이터와 다른 카메라 모듈(예를 들어, 1100a 또는 1100b)로부터 제공받은 이미지 데이터를 병합(merge)하여 3차원 깊이 이미지(3D depth image)를 생성할 수 있다.
몇몇 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 적어도 두 개의 카메라 모듈(예를 들어, 1100a, 1100b)은 서로 다른 관측 시야(Field of View, 시야각)를 가질 수 있다. 이 경우, 예를 들어, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 적어도 두 개의 카메라 모듈(예를 들어, 1100a, 1100b)의 광학 렌즈가 서로 다를 수 있으나, 이에 제한되는 것은 아니다.
또한, 몇몇 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각의 시야각은 서로 다를 수 있다. 이 경우, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 포함된 광학 렌즈 역시 서로 다를 수 있으나, 이에 제한되는 것은 아니다.
몇몇 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 서로 물리적으로 분리되어 배치될 수 있다. 즉, 하나의 이미지 센서(1142)의 센싱 영역을 복수의 카메라 모듈(1100a, 1100b, 1100c)이 분할하여 사용하는 것이 아니라, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각의 내부에 독립적인 이미지 센서(1142)가 배치될 수 있다.
다시 도 21을 참조하면, 애플리케이션 프로세서(1200)는 이미지 처리 장치(1210), 메모리 컨트롤러(1220), 내부 메모리(1230)를 포함할 수 있다. 애플리케이션 프로세서(1200)는 복수의 카메라 모듈(1100a, 1100b, 1100c)과 분리되어 구현될 수 있다. 예를 들어, 애플리케이션 프로세서(1200)와 복수의 카메라 모듈(1100a, 1100b, 1100c)은 별도의 반도체 칩으로 서로 분리되어 구현될 수 있다.
이미지 처리 장치(1210)는 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c), 이미지 생성기(1214) 및 카메라 모듈 컨트롤러(1216)를 포함할 수 있다.
이미지 처리 장치(1210)는 복수의 카메라 모듈(1100a, 1100b, 1100c)의 개수에 대응하는 개수의 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c)를 포함할 수 있다.
각각의 카메라 모듈(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터는 서로 분리된 이미지 신호 라인(ISLa, ISLb, ISLc)를 통해 대응되는 서브 이미지 프로세서(1212a, 1212b, 1212c)에 제공될 수 있다. 예를 들어, 카메라 모듈(1100a)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLa)을 통해 서브 이미지 프로세서(1212a)에 제공되고, 카메라 모듈(1100b)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLb)을 통해 서브 이미지 프로세서(1212b)에 제공되고, 카메라 모듈(1100c)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLc)을 통해 서브 이미지 프로세서(1212c)에 제공될 수 있다. 이러한 이미지 데이터 전송은 예를 들어, MIPI(Mobile Industry Processor Interface)에 기반한 카메라 직렬 인터페이스(CSI; Camera Serial Interface)를 이용하여 수행될 수 있으나, 실시예들이 이에 제한되는 것은 아니다.
한편, 몇몇 실시예에서, 하나의 서브 이미지 프로세서가 복수의의 카메라 모듈에 대응되도록 배치될 수도 있다. 예를 들어, 서브 이미지 프로세서(1212a)와 서브 이미지 프로세서(1212c)가 도시된 것처럼 서로 분리되어 구현되는 것이 아니라 하나의 서브 이미지 프로세서로 통합되어 구현되고, 카메라 모듈(1100a)과 카메라 모듈(1100c)로부터 제공된 이미지 데이터는 선택 소자(예를 들어, 멀티플렉서) 등을 통해 선택된 후, 통합된 서브 이미지 프로세서에 제공될 수 있다.
각각의 서브 이미지 프로세서(1212a, 1212b, 1212c)에 제공된 이미지 데이터는 이미지 생성기(1214)에 제공될 수 있다. 이미지 생성기(1214)는 이미지 생성 정보(Generating Information) 또는 모드 신호(Mode Signal)에 따라 각각의 서브 이미지 프로세서(1212a, 1212b, 1212c)로부터 제공된 이미지 데이터를 이용하여 출력 이미지를 생성할 수 있다.
구체적으로, 이미지 생성기(1214)는 이미지 생성 정보 또는 모드 신호에 따라, 서로 다른 시야각을 갖는 카메라 모듈들(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터 중 적어도 일부를 병합(merge)하여 출력 이미지를 생성할 수 있다. 또한, 이미지 생성기(1214)는 이미지 생성 정보 또는 모드 신호에 따라, 서로 다른 시야각을 갖는 카메라 모듈들(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터 중 어느 하나를 선택하여 출력 이미지를 생성할 수 있다.
몇몇 실시예에서, 이미지 생성 정보는 줌 신호(zoom signal or zoom factor)를 포함할 수 있다. 또한, 몇몇 실시예에서, 모드 신호는 예를 들어, 유저(user)로부터 선택된 모드에 기초한 신호일 수 있다.
이미지 생성 정보가 줌 신호(줌 팩터)이고, 각각의 카메라 모듈(1100a, 1100b, 1100c)이 서로 다른 관측 시야(시야각)를 갖는 경우, 이미지 생성기(1214)는 줌 신호의 종류에 따라 서로 다른 동작을 수행할 수 있다. 예를 들어, 줌 신호가 제1 신호일 경우, 카메라 모듈(1100a)로부터 출력된 이미지 데이터와 카메라 모듈(1100c)로부터 출력된 이미지 데이터를 병합한 후, 병합된 이미지 신호와 병합에 사용하지 않은 카메라 모듈(1100b)로부터 출력된 이미지 데이터를 이용하여, 출력 이미지를 생성할 수 있다. 만약, 줌 신호가 제1 신호와 다른 제2 신호일 경우, 이미지 생성기(1214)는 이러한 이미지 데이터 병합을 수행하지 않고, 각각의 카메라 모듈(1100a, 1100b, 1100c)로부터 출력된 이미지 데이터 중 어느 하나를 선택하여 출력 이미지를 생성할 수 있다. 하지만 실시예들이 이에 제한되는 것은 아니며, 필요에 따라 이미지 데이터를 처리하는 방법은 얼마든지 변형되어 실시될 수 있다.
몇몇 실시예에서, 이미지 생성기(1214)는 복수의 서브 이미지 프로세서(1212a, 1212b, 1212c) 중 적어도 하나로부터 노출 시간이 상이한 복수의 이미지 데이터를 수신하고, 복수의 이미지 데이터에 대하여 HDR(high dynamic range) 처리를 수행함으로서, 다이나믹 레인지가 증가된 병합된 이미지 데이터를 생성할 수 있다.
카메라 모듈 컨트롤러(1216)는 각각의 카메라 모듈(1100a, 1100b, 1100c)에 제어 신호를 제공할 수 있다. 카메라 모듈 컨트롤러(1216)로부터 생성된 제어 신호는 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)를 통해 대응되는 카메라 모듈(1100a, 1100b, 1100c)에 제공될 수 있다.
복수의 카메라 모듈(1100a, 1100b, 1100c) 중 어느 하나는 줌 신호를 포함하는 이미지 생성 정보 또는 모드 신호에 따라 마스터(master) 카메라(예를 들어, 1100b)로 지정되고, 나머지 카메라 모듈들(예를 들어, 1100a, 1100c)은 슬레이브(slave) 카메라로 지정될 수 있다. 이러한 정보는 제어 신호에 포함되어, 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)를 통해 대응되는 카메라 모듈(1100a, 1100b, 1100c)에 제공될 수 있다.
줌 팩터 또는 동작 모드 신호에 따라 마스터 및 슬레이브로서 동작하는 카메라 모듈이 변경될 수 있다. 예를 들어, 카메라 모듈(1100a)의 시야각이 카메라 모듈(1100b)의 시야각보다 넓고, 줌 팩터가 낮은 줌 배율을 나타낼 경우, 카메라 모듈(1100b)이 마스터로서 동작하고, 카메라 모듈(1100a)이 슬레이브로서 동작할 수 있다. 반대로, 줌 팩터가 높은 줌 배율을 나타낼 경우, 카메라 모듈(1100a)이 마스터로서 동작하고, 카메라 모듈(1100b)이 슬레이브로서 동작할 수 있다.
몇몇 실시예에서, 카메라 모듈 컨트롤러(1216)로부터 각각의 카메라 모듈(1100a, 1100b, 1100c)에 제공되는 제어 신호는 싱크 인에이블 신호(sync enable) 신호를 포함할 수 있다. 예를 들어, 카메라 모듈(1100b)이 마스터 카메라이고, 카메라 모듈들(1100a, 1100c)이 슬레이브 카메라인 경우, 카메라 모듈 컨트롤러(1216)는 카메라 모듈(1100b)에 싱크 인에이블 신호를 전송할 수 있다. 이러한 싱크 인에이블 신호를 제공받은 카메라 모듈(1100b)은 제공받은 싱크 인에이블 신호를 기초로 싱크 신호(sync signal)를 생성하고, 생성된 싱크 신호를 싱크 신호 라인(SSL)을 통해 카메라 모듈들(1100a, 1100c)에 제공할 수 있다. 카메라 모듈(1100b)과 카메라 모듈들(1100a, 1100c)은 이러한 싱크 신호에 동기화되어 이미지 데이터를 애플리케이션 프로세서(1200)에 전송할 수 있다.
몇몇 실시예에서, 카메라 모듈 컨트롤러(1216)로부터 복수의 카메라 모듈(1100a, 1100b, 1100c)에 제공되는 제어 신호는 모드 신호에 따른 모드 정보를 포함할 수 있다. 이러한 모드 정보에 기초하여 복수의 카메라 모듈(1100a, 1100b, 1100c)은 센싱 속도와 관련하여 제1 동작 모드 및 제2 동작 모드로 동작할 수 있다.
복수의 카메라 모듈(1100a, 1100b, 1100c)은 제1 동작 모드에서, 제1 속도로 이미지 신호를 생성(예를 들어, 제1 프레임 레이트의 이미지 신호를 생성)하여 이를 제1 속도보다 높은 제2 속도로 인코딩(예를 들어, 제1 프레임 레이트보다 높은 제2 프레임 레이트의 이미지 신호를 인코딩)하고, 인코딩된 이미지 신호를 애플리케이션 프로세서(1200)에 전송할 수 있다. 이때, 제2 속도는 제1 속도의 30배 이하일 수 있다.
애플리케이션 프로세서(1200)는 수신된 이미지 신호, 다시 말해서 인코딩된 이미지 신호를 내부에 구비되는 메모리(1230) 또는 애플리케이션 프로세서(1200) 외부의 스토리지(1400)에 저장하고, 이후, 메모리(1230) 또는 스토리지(1400)로부터 인코딩된 이미지 신호를 독출하여 디코딩하고, 디코딩된 이미지 신호에 기초하여 생성되는 이미지 데이터를 디스플레이할 수 있다. 예컨대 이미지 처리 장치(1210)의 복수의 서브 프로세서들(1212a, 1212b, 1212c) 중 대응하는 서브 프로세서가 디코딩을 수행할 수 있으며, 또한 디코딩된 이미지 신호에 대하여 이미지 처리를 수행할 수 있다.
복수의 카메라 모듈(1100a, 1100b, 1100c)은 제2 동작 모드에서, 제1 속도보다 낮은 제3 속도로 이미지 신호를 생성(예를 들어, 제1 프레임 레이트보다 낮은 제3 프레임 레이트의 이미지 신호를 생성)하고, 이미지 신호를 애플리케이션 프로세서(1200)에 전송할수 있다. 애플리케이션 프로세서(1200)에 제공되는 이미지 신호는 인코딩되지 않은 신호일 수 있다. 애플리케이션 프로세서(1200)는 수신되는 이미지 신호에 대하여 이미지 처리를 수행하거나 또는 이미지 신호를 메모리(1230) 또는 스토리지(1400)에 저장할 수 있다.
PMIC(1300)는 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 전력, 예컨대 전원 전압을 공급할 수 있다. 예를 들어, PMIC(1300)는 애플리케이션 프로세서(1200)의 제어 하에, 파워 신호 라인(PSLa)을 통해 카메라 모듈(1100a)에 제1 전력을 공급하고, 파워 신호 라인(PSLb)을 통해 카메라 모듈(1100b)에 제2 전력을 공급하고, 파워 신호 라인(PSLc)을 통해 카메라 모듈(1100c)에 제3 전력을 공급할 수 있다.
PMIC(1300)는 애플리케이션 프로세서(1200)로부터의 전력 제어 신호(PCON)에 응답하여, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 대응하는 전력을 생성하고, 또한 전력의 레벨을 조정할 수 있다. 전력 제어 신호(PCON)는 복수의 카메라 모듈(1100a, 1100b, 1100c)의 동작 모드 별 전력 조정 신호를 포함할 수 있다. 예를 들어, 동작 모드는 저전력 모드(low power mode)를 포함할 수 있으며, 이때, 전력 제어 신호(PCON)는 저전력 모드로 동작하는 카메라 모듈 및 설정되는 전력 레벨에 대한 정보를 포함할 수 있다. 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 제공되는 전력들의 레벨은 서로 동일하거나 또는 서로 상이할 수 있다. 또한, 전력의 레벨은 동적으로 변경될 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였으나, 본 발명은 상기 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 제조될 수 있으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
221: 픽셀 분리 패턴 224: 제1 분리 패턴
225: 제2 분리 패턴 226_1: 제1 대각 분리 패턴
226_2: 제2 대각 분리 패턴
PD1-PD8: 제1 내지 제8 포토 다이오드
ML: 마이크로 렌즈

Claims (10)

  1. 기판 내에 메쉬 형태로 배치되고, 상기 메쉬 형태에 따라 복수의 픽셀 영역을 정의하는 픽셀 분리 패턴;
    상기 복수의 픽셀 영역 중 적어도 하나의 픽셀 영역에 대해, 제1 방향을 기준으로 분리하는 제1 분리 패턴;
    상기 적어도 하나의 픽셀 영역에 대해, 상기 제1 방향과 교차하는 제2 방향을 기준으로 분리하는 제2 분리 패턴;
    상기 적어도 하나의 픽셀 영역에 대해, 상기 제1 방향과 상기 제2 방향에 대한 제1 대각 방향을 기준으로 분리하는 제1 대각 분리 패턴;
    상기 적어도 하나의 픽셀 영역에 대해, 상기 제1 방향과 상기 제2 방향에 대한 상기 제1 대각 방향과 상이한 제2 대각 방향을 기준으로 분리하는 제2 대각 분리 패턴;
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제1 분리 패턴과 상기 제1 대각 분리 패턴 사이에 배치되고, 상기 제1 분리 패턴 및 상기 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제1 및 제2 포토 다이오드;
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제2 분리 패턴과 상기 제1 대각 분리 패턴 사이에 배치되고, 상기 제2 분리 패턴 및 상기 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제3 및 제4 포토 다이오드;
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제1 분리 패턴과 상기 제2 대각 분리 패턴 사이에 배치되고, 상기 제1 분리 패턴 및 상기 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제5 및 제6 포토 다이오드; 및
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제2 분리 패턴과 상기 제2 대각 분리 패턴 사이에 배치되고, 상기 제2 분리 패턴 및 상기 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제7 및 제8 포토 다이오드를 포함하는 이미지 센서.
  2. 제1항에 있어서,
    상기 제1 포토 다이오드와 상기 제3 포토 다이오드는, 상기 제1 대각 분리 패턴을 기초로 서로 분리되고 인접하게 배치되고,
    상기 제2 포토 다이오드와 상기 제4 포토 다이오드는, 상기 제1 대각 분리 패턴을 기초로 서로 분리되고 인접하게 배치되고,
    제1 동작 모드에서 상기 제1 포토 다이오드에서 생성된 제1 센싱 신호와 상기 제4 포토 다이오드에서 생성된 제4 센싱 신호를 기초로 비닝 동작이 수행되고 상기 제2 포토 다이오드에서 생성된 제2 센싱 신호와 상기 제3 포토 다이오드에서 생성된 제3 센싱 신호를 기초로 비닝 동작이 수행되는 이미지 센서.
  3. 제2항에 있어서,
    상기 제1 동작 모드에서, 상기 제1 센싱 신호와 상기 제4 센싱 신호는 제1 시간에 아날로그 비닝되어 제1 이미지 신호로 출력되고, 상기 제2 센싱 신호와 상기 제3 센싱 신호는 상기 제1 시간과 상이한 제2 시간에 아날로그 비닝되어 제2 이미지 신호로 출력되는 이미지 센서.
  4. 제2항에 있어서,
    각각의 상기 제1 내지 제4 센싱 신호에 기초한 제1 내지 제4 픽셀 신호를 각각 수신하는 리드 아웃 회로를 더 포함하되,
    상기 제1 동작 모드에서, 상기 리드 아웃 회로는, 상기 제1 픽셀 신호와 상기 제4 픽셀 신호를 제1 시간에 아날로그 비닝하여 제1 이미지 신호로 출력하고, 상기 제2 픽셀 신호와 상기 제3 픽셀 신호를 상기 제1 시간에 아날로그 비닝하여 제2 이미지 신호로 출력하는 이미지 센서.
  5. 제2항에 있어서,
    상기 제1 동작 모드와 상이한 제3 동작 모드에서, 상기 제1 포토 다이오드에서 생성된 상기 제1 센싱 신호, 상기 제2 포토 다이오드에서 생성된 상기 제2 센싱 신호, 상기 제3 포토 다이오드에서 생성된 상기 제3 센싱 신호 및 상기 제4 포토 다이오드에서 생성된 상기 제4 센싱 신호를 기초로 비닝 동작이 수행되는 이미지 센서.
  6. 기판 내에 메쉬 형태로 배치되고, 상기 메쉬 형태에 따라 복수의 픽셀 영역을 정의하는 픽셀 분리 패턴;
    상기 복수의 픽셀 영역 중 적어도 하나의 픽셀 영역에 대해, 제1 방향을 기준으로 분리하는 제1 분리 패턴;
    상기 적어도 하나의 픽셀 영역에 대해, 상기 제1 방향과 교차하는 제2 방향을 기준으로 분리하는 제2 분리 패턴;
    상기 적어도 하나의 픽셀 영역에 대해, 상기 제1 방향과 상기 제2 방향에 대한 제1 대각 방향을 기준으로 분리하는 제1 대각 분리 패턴;
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제1 분리 패턴과 상기 제1 대각 분리 패턴 사이에 배치되고, 상기 제1 분리 패턴 및 상기 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제1 및 제2 포토 다이오드; 및
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제1 분리 패턴과 상기 제2 대각 분리 패턴 사이에 배치되고, 상기 제1 분리 패턴 및 상기 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제3 및 제4 포토 다이오드를 포함하되,
    상기 제1 포토 다이오드와 상기 제3 포토 다이오드는, 상기 제1 대각 분리 패턴을 기초로 서로 분리되고 인접하게 배치되고,
    상기 제2 포토 다이오드와 상기 제4 포토 다이오드는, 상기 제1 대각 분리 패턴을 기초로 서로 분리되고 인접하게 배치되고,
    제1 동작 모드에서 상기 제1 포토 다이오드에서 생성된 제1 센싱 신호와 상기 제4 포토 다이오드에서 생성된 제4 센싱 신호를 기초로 비닝 동작을 수행하고 상기 제2 포토 다이오드에서 생성된 제2 센싱 신호와 상기 제3 포토 다이오드에서 생성된 제3 센싱 신호를 기초로 비닝 동작을 수행하는 이미지 센서.
  7. 제6항에 있어서,
    상기 적어도 하나의 픽셀 영역에 대해 상기 제1 방향과 상기 제2 방향에 대한 상기 제1 대각 방향과 상이한 제2 대각 방향을 기준으로 분리하는 제2 대각 분리 패턴;
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제1 분리 패턴과 상기 제2 대각 분리 패턴 사이에 배치되고, 상기 제1 분리 패턴 및 상기 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제5 및 제6 포토 다이오드; 및
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제2 분리 패턴과 상기 제2 대각 분리 패턴 사이에 배치되고, 상기 제2 분리 패턴 및 상기 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제7 및 제8 포토 다이오드를 더 포함하는 이미지 센서.
  8. 제6항에 있어서,
    상기 제1 동작 모드와 상이한 제2 동작 모드에서, 상기 제1 포토 다이오드에서 생성된 상기 제1 센싱 신호와 상기 제3 포토 다이오드에서 생성된 상기 제3 센싱 신호를 기초로 비닝 동작이 수행되고 상기 제2 포토 다이오드에서 생성된 상기 제2 센싱 신호와 상기 제4 포토 다이오드에서 생성된 상기 제4 센싱 신호를 기초로 비닝 동작이 수행되는 이미지 센서.
  9. 이미지 신호를 출력하는 이미지 센서; 및
    상기 이미지 센서와 연결되고 상기 이미지 신호를 제공받아 처리하는 이미지 신호 프로세서를 포함하고,
    상기 이미지 센서는,
    기판 내에 메쉬 형태로 배치되고,, 상기 메쉬 형태에 따라 복수의 픽셀 영역을 정의하는 픽셀 분리 패턴과
    상기 복수의 픽셀 영역 중 적어도 하나의 픽셀 영역에 대해 제1 방향을 기준으로 분리하는 제1 분리 패턴과
    상기 적어도 하나의 픽셀 영역에 대해 상기 제1 방향과 교차하는 제2 방향을 기준으로 분리하는 제2 분리 패턴과
    상기 적어도 하나의 픽셀 영역에 대해, 상기 제1 방향과 상기 제2 방향에 대한 제1 대각 방향을 기준으로 분리하는 제1 대각 분리 패턴과
    상기 적어도 하나의 픽셀 영역에 대해 상기 제1 방향과 상기 제2 방향에 대한 상기 제1 대각 방향과 상이한 제2 대각 방향을 기준으로 분리하는 제2 대각 분리 패턴과
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제1 분리 패턴과 상기 제1 대각 분리 패턴 사이에 배치되고, 상기 제1 분리 패턴 및 상기 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제1 및 제2 포토 다이오드와
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제2 분리 패턴과 상기 제1 대각 분리 패턴 사이에 배치되고, 상기 제2 분리 패턴 및 상기 제1 대각 분리 패턴에 의해 서로 분리되어 배치되는 제3 및 제4 포토 다이오드와
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제1 분리 패턴과 상기 제2 대각 분리 패턴 사이에 배치되고, 상기 제1 분리 패턴 및 상기 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제5 및 제6 포토 다이오드 및
    상기 적어도 하나의 픽셀 영역 내에서, 상기 제2 분리 패턴과 상기 제2 대각 분리 패턴 사이에 배치되고, 상기 제2 분리 패턴 및 상기 제2 대각 분리 패턴에 의해 서로 분리되어 배치되는 제7 및 제8 포토 다이오드를 포함하는 이미지 센싱 시스템.
  10. 제9항에 있어서,
    각각의 상기 제1 내지 제4 센싱 신호를 수신하여, 각각의 상기 제1 내지 제4 센싱 신호에 기초한 제1 내지 제4 이미지 신호를 각각 출력하는 리드 아웃 회로를 더 포함하되,
    상기 제1 동작 모드에서, 상기 이미지 신호 프로세서는 상기 제1 이미지 신호와 상기 제4 이미지 신호에 대해 제1 시간에 디지털 비닝 동작을 수행하고, 상기 제2 이미지 신호와 상기 제3 이미지 신호를 상기 제1 시간에 디지털 비닝을 수행하는 이미지 센싱 시스템.
KR1020210064095A 2021-05-18 2021-05-18 이미지 센서 및 상기 이미지 센서를 포함하는 이미지 센싱 시스템 KR20220156272A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020210064095A KR20220156272A (ko) 2021-05-18 2021-05-18 이미지 센서 및 상기 이미지 센서를 포함하는 이미지 센싱 시스템
US17/579,887 US11711624B2 (en) 2021-05-18 2022-01-20 Image sensor and image sensing system including the same
CN202210425583.7A CN115377131A (zh) 2021-05-18 2022-04-21 图像传感器和包括图像传感器的图像感测系统
US18/224,611 US20230362502A1 (en) 2021-05-18 2023-07-21 Image sensor, image sensing system including the same, and method for sensing an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210064095A KR20220156272A (ko) 2021-05-18 2021-05-18 이미지 센서 및 상기 이미지 센서를 포함하는 이미지 센싱 시스템

Publications (1)

Publication Number Publication Date
KR20220156272A true KR20220156272A (ko) 2022-11-25

Family

ID=84060059

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210064095A KR20220156272A (ko) 2021-05-18 2021-05-18 이미지 센서 및 상기 이미지 센서를 포함하는 이미지 센싱 시스템

Country Status (3)

Country Link
US (2) US11711624B2 (ko)
KR (1) KR20220156272A (ko)
CN (1) CN115377131A (ko)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5967950B2 (ja) * 2011-04-20 2016-08-10 キヤノン株式会社 撮像素子及び撮像装置
JP5556823B2 (ja) 2012-01-13 2014-07-23 株式会社ニコン 固体撮像装置および電子カメラ
JP6052057B2 (ja) 2013-05-22 2016-12-27 ソニー株式会社 信号処理装置および信号処理方法、固体撮像装置、並びに、電子機器
KR102242472B1 (ko) 2014-12-18 2021-04-20 엘지이노텍 주식회사 이미지 센서, 이를 포함하는 영상 획득 장치 및 그 장치를 포함하는 휴대용 단말기
CN107295221B (zh) * 2016-04-08 2020-07-28 佳能株式会社 图像传感器和摄像设备
JPWO2017195613A1 (ja) 2016-05-11 2019-03-14 ソニー株式会社 固体撮像素子、および電子機器
US11350044B2 (en) 2017-07-07 2022-05-31 Brillnics Singapore Pte. Ltd. Solid-state imaging device, method for driving solid-state imaging device, and electronic apparatus
KR102662032B1 (ko) 2019-06-19 2024-05-03 삼성전자주식회사 이미지 센서 및 이미지 센서를 포함하는 전자 장치
KR20200145978A (ko) * 2019-06-21 2020-12-31 삼성전자주식회사 이미지 센서
KR20220019895A (ko) * 2020-08-10 2022-02-18 삼성전자주식회사 이미지 센서
KR20220061410A (ko) * 2020-11-06 2022-05-13 삼성전자주식회사 이미지 센서 및 상기 이미지 센서를 포함하는 이미지 센싱 시스템
KR20220073033A (ko) * 2020-11-26 2022-06-03 삼성전자주식회사 이미지 센서 및 이미지 센싱 시스템

Also Published As

Publication number Publication date
CN115377131A (zh) 2022-11-22
US20230362502A1 (en) 2023-11-09
US20220377262A1 (en) 2022-11-24
US11711624B2 (en) 2023-07-25

Similar Documents

Publication Publication Date Title
US11942499B2 (en) Image sensor
US20220165765A1 (en) Image sensor and image sensing system
US12009374B2 (en) Image sensor including color filter grid including portion overlapping super phase detection (PD) pixel
US20230411423A1 (en) Image sensor
KR20220045482A (ko) 이미지 센서
KR20220061351A (ko) 이미지 센서 및 이미지 센싱 장치
US11881497B2 (en) Image sensor and image sensing circuit
US20220384507A1 (en) Image sensor
KR20220156272A (ko) 이미지 센서 및 상기 이미지 센서를 포함하는 이미지 센싱 시스템
KR20220056475A (ko) 이미지 센서
US20220328554A1 (en) Image sensor and image sensing system including the image sensor
US20230073145A1 (en) Image sensor and method of manufacturing image sensor
US20220285415A1 (en) Image sensor with pixels having uniform sensitivity
US20240088181A1 (en) Image sensor
US20240186349A1 (en) Image sensing device and method of image signal processing
US20220399384A1 (en) Pixel array and image sensor including the same
US20230197754A1 (en) Image sensor
US20230005980A1 (en) Image sensor
US20220337764A1 (en) Image sensor and image sensing system
KR20220162016A (ko) 이미지 센서
KR20230073030A (ko) 이미지 센서
KR20220152043A (ko) 이미지 센서

Legal Events

Date Code Title Description
A201 Request for examination