KR102617241B1 - Camera module and image generating method performed therein - Google Patents

Camera module and image generating method performed therein Download PDF

Info

Publication number
KR102617241B1
KR102617241B1 KR1020190007354A KR20190007354A KR102617241B1 KR 102617241 B1 KR102617241 B1 KR 102617241B1 KR 1020190007354 A KR1020190007354 A KR 1020190007354A KR 20190007354 A KR20190007354 A KR 20190007354A KR 102617241 B1 KR102617241 B1 KR 102617241B1
Authority
KR
South Korea
Prior art keywords
image
unit
image frame
pixel
frames
Prior art date
Application number
KR1020190007354A
Other languages
Korean (ko)
Other versions
KR20200090391A (en
Inventor
이규태
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020190007354A priority Critical patent/KR102617241B1/en
Publication of KR20200090391A publication Critical patent/KR20200090391A/en
Application granted granted Critical
Publication of KR102617241B1 publication Critical patent/KR102617241B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)

Abstract

실시 예에 따른 카메라 모듈은 외부로부터 입사되는 적외선 신호를 통과시키는 렌즈부; 상기 렌즈부를 통과한 적외선 신호를 이용하여 복수의 이미지 프레임을 생성하는 센서부; 상기 센서부와 상기 렌즈부 사이에 배치되고, 상기 센서부로 입사되는 적외선 신호의 경로를 조절하는 유동 플레이트부; 상기 유동 플레이트부를 제어하여 상기 센서부로 입사되는 상기 적외선 신호의 경로가 조절되도록 하는 제어부; 및 상기 센서부를 통해 생성된 복수의 이미지 프레임을 합성하여 합성 이미지를 생성하는 이미지 합성부를 포함하고, 상기 센서부는, 상기 유동 플레이트부의 위치에 기반하여 시차가 서로 다른 복수의 이미지 프레임을 생성하고, 상기 이미지 합성부는, 상기 시차가 서로 다른 복수의 이미지 프레임을 합성하여, 상기 복수의 이미지 프레임보다 높은 해상도를 가지는 상기 합성 이미지를 생성하며, 상기 유동 플레이트부는, 상기 렌즈부를 통과한 적외선 신호를 상기 센서부로 전달하는 필터부; 및 상기 제어부의 제어에 따라 상기 필터부의 배치 각도를 변경시켜 상기 센서부로 입사되는 적외선 신호의 경로가 조절되도록 하는 액추에이터를 포함한다.A camera module according to an embodiment includes a lens unit that passes infrared signals incident from the outside; a sensor unit that generates a plurality of image frames using infrared signals passing through the lens unit; a flow plate unit disposed between the sensor unit and the lens unit and controlling the path of an infrared signal incident on the sensor unit; a control unit that controls the flow plate unit to adjust the path of the infrared signal incident on the sensor unit; and an image synthesis unit that generates a composite image by combining a plurality of image frames generated through the sensor unit, wherein the sensor unit generates a plurality of image frames with different parallaxes based on the position of the moving plate unit, The image synthesis unit synthesizes a plurality of image frames with different parallaxes to generate the composite image having a higher resolution than the plurality of image frames, and the flow plate unit transmits an infrared signal that has passed through the lens unit to the sensor unit. a filter unit that transmits; And an actuator that changes the arrangement angle of the filter unit under the control of the control unit to adjust the path of the infrared signal incident on the sensor unit.

Description

카메라 모듈 및 이의 이미지 생성 방법{CAMERA MODULE AND IMAGE GENERATING METHOD PERFORMED THEREIN}Camera module and image generation method thereof {CAMERA MODULE AND IMAGE GENERATING METHOD PERFORMED THEREIN}

실시 예는 카메라 모듈에 관한 것으로, 특히 초해상도(Super Resolution) 이미지를 생성할 수 있는 카메라 모듈 및 이의 이미지 생성 방법에 관한 것이다.The embodiment relates to a camera module, and in particular, to a camera module capable of generating a super resolution image and a method of generating an image thereof.

휴대용 장치의 사용자는 고해상도를 가지며 크기가 작고 다양한 촬영 기능[광학 줌 기능(zoom-in/zoom-out), 오토포커싱(Auto-Focusing, AF) 기능, 손떨림 보정 내지 영상 흔들림 방지(Optical Image Stabilizer, OIS) 기능 등]을 가지는 광학 기기를 원하고 있다. 이러한 촬영 기능은 여러 개의 렌즈를 조합해서 직접 렌즈를 움직이는 방법을 통해 구현될 수 있으나, 렌즈의 수를 증가시킬 경우 광학 기기의 크기가 커질 수 있다.Users of portable devices have high resolution, small size, and various shooting functions [optical zoom function (zoom-in/zoom-out), auto-focusing (AF) function, image stabilization or image stabilization (Optical Image Stabilizer, They want an optical device that has OIS (OIS) function, etc. This shooting function can be implemented by combining multiple lenses and directly moving the lenses, but if the number of lenses is increased, the size of the optical device may increase.

오토 포커스와 손떨림 보정 기능은, 렌즈 홀더에 고정되어 광축이 정렬된 여러 개의 렌즈 모듈이, 광축 또는 광축의 수직 방향으로 이동하거나 틸팅(Tilting)하여 수행되고, 렌즈 모듈을 구동시키기 위해 별도의 렌즈 구동 장치가 사용된다. 그러나 렌즈 구동 장치는 전력 소모가 높으며, 이를 보호하기 위해서 카메라 모듈과 별도로 커버 글라스를 추가해야 함에 따른 두께 증가 문제를 가진다.The autofocus and image stabilization functions are performed by moving or tilting several lens modules with aligned optical axes fixed to a lens holder in the optical axis or the direction perpendicular to the optical axis, and a separate lens drive is used to drive the lens modules. The device is used. However, the lens driving device consumes high power and has the problem of increasing thickness due to the need to add a cover glass separate from the camera module to protect it.

또한, 고품질 이미지에 대한 수요자의 요구가 증대됨에 따라, 고해상도 이미지를 촬영할 수 있는 이미지 센서가 요구되고 있다. 그러나, 이를 위해 이미지 센서에 포함되는 픽셀의 수가 증가될 수 밖에 없는데, 이는 이미지 센서의 크기를 증가시키게 되고 소모 전력이 낭비되는 결과를 초래할 수 있다.Additionally, as consumer demand for high-quality images increases, image sensors capable of capturing high-resolution images are required. However, for this purpose, the number of pixels included in the image sensor must increase, which increases the size of the image sensor and may result in wasted power consumption.

즉, 기존의 카메라 모듈은 복수의 어레이의 데이터를 그대로 사용하므로, 이미지 센서의 물리적 분해능만큼의 해상도를 갖는 한계가 있다. 또한, 초해상도의 이미지를 생성하기 위해서는 다수의 카메라를 사용해야 하는 제약이 따른다.In other words, existing camera modules use data from multiple arrays as is, so there is a limit to having a resolution equal to the physical resolution of the image sensor. Additionally, there is a limitation in that multiple cameras must be used to generate super-resolution images.

실시 예에서는 이미지 센서의 픽셀 수를 증가시키지 않고 초해상도 이미지를 생성할 수 있는 카메라 모듈 및 이의 이미지 생성 방법을 제공할 수 있도록 한다.The embodiment provides a camera module that can generate a super-resolution image without increasing the number of pixels of the image sensor and a method of generating an image thereof.

또한, 실시 예에서는 가우시안 필터 및 라플라시안 필터를 적용하여 이미지 해상도를 더욱 향상시킬 수 있는 카메라 모듈 및 이의 이미지 생성 방법을 제공할 수 있도록 한다.Additionally, the embodiment provides a camera module that can further improve image resolution by applying a Gaussian filter and a Laplacian filter, and a method of generating its image.

실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the embodiment are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

실시 예에 따른 카메라 모듈은 외부로부터 입사되는 적외선 신호를 통과시키는 렌즈부; 상기 렌즈부를 통과한 적외선 신호를 이용하여 복수의 이미지 프레임을 생성하는 센서부; 상기 센서부와 상기 렌즈부 사이에 배치되고, 상기 센서부로 입사되는 적외선 신호의 경로를 조절하는 유동 플레이트부; 상기 유동 플레이트부를 제어하여 상기 센서부로 입사되는 상기 적외선 신호의 경로가 조절되도록 하는 제어부; 및 상기 센서부를 통해 생성된 복수의 이미지 프레임을 합성하여 합성 이미지를 생성하는 이미지 합성부를 포함하고, 상기 센서부는, 상기 유동 플레이트부의 위치에 기반하여 시차가 서로 다른 복수의 이미지 프레임을 생성하고, 상기 이미지 합성부는, 상기 시차가 서로 다른 복수의 이미지 프레임을 합성하여, 상기 복수의 이미지 프레임보다 높은 해상도를 가지는 상기 합성 이미지를 생성하며, 상기 유동 플레이트부는, 상기 렌즈부를 통과한 적외선 신호를 상기 센서부로 전달하는 필터부; 및 상기 제어부의 제어에 따라 상기 필터부의 배치 각도를 변경시켜 상기 센서부로 입사되는 적외선 신호의 경로가 조절되도록 하는 액추에이터를 포함한다.A camera module according to an embodiment includes a lens unit that passes infrared signals incident from the outside; a sensor unit that generates a plurality of image frames using infrared signals passing through the lens unit; a flow plate unit disposed between the sensor unit and the lens unit and controlling the path of an infrared signal incident on the sensor unit; a control unit that controls the flow plate unit to adjust the path of the infrared signal incident on the sensor unit; and an image synthesis unit that generates a composite image by combining a plurality of image frames generated through the sensor unit, wherein the sensor unit generates a plurality of image frames with different parallaxes based on the position of the moving plate unit, The image synthesis unit synthesizes a plurality of image frames with different parallaxes to generate the composite image having a higher resolution than the plurality of image frames, and the flow plate unit transmits an infrared signal that has passed through the lens unit to the sensor unit. a filter unit that transmits; And an actuator that changes the arrangement angle of the filter unit under the control of the control unit to adjust the path of the infrared signal incident on the sensor unit.

또한, 상기 복수 개의 이미지 프레임은, 제1 및 제2 이미지 프레임을 포함하고, 상기 제2 이미지 프레임은, 상기 제1 이미지 프레임을 기준으로 상기 적외선 신호가 제1 픽셀 간격만큼 이동된 이미지 프레임이며, 상기 제1 픽셀 간격은, 이웃하는 픽셀의 중심 간의 거리의 1/2이다.In addition, the plurality of image frames include first and second image frames, and the second image frame is an image frame in which the infrared signal is moved by a first pixel interval with respect to the first image frame, The first pixel spacing is 1/2 of the distance between the centers of neighboring pixels.

또한, 상기 복수 개의 이미지 프레임은, 상기 센서부를 통해 순차적으로 생성되는 제1 내지 제4 이미지 프레임을 포함하고, 상기 제1 이미지 프레임은, 상기 제4 이미지 프레임을 기준으로 상기 적외선 신호가 제1 방향으로 제1 픽셀 간격만큼 이동된 이미지 프레임이고, 상기 제2 이미지 프레임은, 상기 제1 이미지 프레임을 기준으로 상기 적외선 신호가 제2 방향으로 제1 픽셀 간격만큼 이동된 이미지 프레임이고, 상기 제3 이미지 프레임은, 상기 제2 이미지 프레임을 기준으로 상기 적외선 신호가 제3 방향으로 제1 픽셀 간격만큼 이동된 이미지 프레임이고, 상기 제4 이미지 프레임은, 상기 제3 이미지 프레임을 기준으로 상기 적외선 신호가 제4 방향으로 제1 픽셀 간격만큼 이동된 이미지 프레임이며, 상기 이미지 합성부는, 상기 제1 내지 제4 이미지 프레임을 이용하여 제1 합성 이미지를 생성한다.In addition, the plurality of image frames include first to fourth image frames sequentially generated through the sensor unit, and the first image frame is configured to transmit the infrared signal in a first direction based on the fourth image frame. is an image frame in which the infrared signal is moved by a first pixel interval in a second direction based on the first image frame, and the third image is an image frame in which the infrared signal is moved in a second direction by a first pixel interval, and the third image The frame is an image frame in which the infrared signal is moved by a first pixel interval in a third direction based on the second image frame, and the fourth image frame is an image frame in which the infrared signal is moved by a first pixel interval based on the third image frame. It is an image frame moved by a first pixel interval in four directions, and the image synthesis unit generates a first composite image using the first to fourth image frames.

또한, 상기 복수 개의 이미지 프레임은, 상기 제4 이미지 프레임 이후에 생성된 제5 이미지 프레임을 포함하고, 상기 이미지 합성부는, 상기 제 2 내지 제5 이미지 프레임을 이용하여 제2 합성 이미지를 생성한다.Additionally, the plurality of image frames include a fifth image frame generated after the fourth image frame, and the image synthesis unit generates a second composite image using the second to fifth image frames.

또한, 상기 이미지 합성부는, 상기 센서부를 통해 생성된 복수 개의 이미지 프레임을 가우시안 필터링하는 전처리 필터부; 상기 전처리 필터부를 통해 필터링된 복수 개의 이미지 프레임을 합성하여 합성 이미지를 생성하는 이미지 생성부; 및 상기 이미지 생성부를 통해 생성된 합성 이미지를 라플라시안 필터링하는 후처리 필터부를 포함한다.In addition, the image synthesis unit may include a pre-processing filter unit that performs Gaussian filtering on a plurality of image frames generated through the sensor unit; an image generator that generates a composite image by combining a plurality of image frames filtered through the pre-processing filter unit; and a post-processing filter unit that performs Laplacian filtering on the composite image generated through the image generator.

또한, 상기 전처리 필터부는, 0.1보다 크고, 1보다 작은 범위 내에서의 시그마 값을 적용하여 상기 복수 개의 이미지 프레임을 가우시안 필터링한다.Additionally, the pre-processing filter unit performs Gaussian filtering on the plurality of image frames by applying a sigma value within a range greater than 0.1 and less than 1.

또한, 상기 후처리 필터부는, 3*3 또는 5*5 사이즈의 마스크를 적용하여 상기 합성 이미지를 라플라시안 필터링한다.Additionally, the post-processing filter unit applies Laplacian filtering to the composite image by applying a mask of size 3*3 or 5*5.

한편, 실시 예에 따른 이미지 생성 방법은 렌즈부와 센서부 사이이 배치된 유동 플레이트부를 제1 위치로 이동시키는 단계; 상기 유동 플레이트부가 상기 제1 위치에 위치한 상태에서, 상기 센서부로 입사되는 적외선 신호를 이용하여 제1 이미지 프레임을 생성하는 단계; 상기 유동 플레이트부를 제2 위치로 이동시키는 단계; 상기 제1 이미지 프레임에서 제1 방향으로 제1 거리만큼 이동된 제2 이미지 프레임을 생성하는 단계; 상기 유동 플레이트부를 제3 위치로 이동시키는 단계; 상기 제2 이미지 프레임에서 제2 방향으로 상기 제1 거리만큼 이동된 제3 이미지 프레임을 생성하는 단계; 상기 유동 플레이트부를 제4 위치로 이동시키는 단계; 상기 제3 이미지 프레임에서 제3 방향으로 상기 제1 거리만큼 이동된 제4 이미지 프레임을 생성하는 단계; 및 상기 제1 내지 제4 이미지 프레임을 합성하여 제1 합성 이미지를 생성하는 단계를 포함하고, 상기 제1 합성 이미지는, 상기 제1 내지 제4 이미지 프레임의 해상도보다 높은 해상도를 가진다.Meanwhile, the image generation method according to the embodiment includes moving the moving plate portion disposed between the lens portion and the sensor portion to a first position; With the moving plate unit positioned at the first position, generating a first image frame using an infrared signal incident on the sensor unit; moving the moving plate unit to a second position; generating a second image frame shifted from the first image frame by a first distance in a first direction; moving the moving plate unit to a third position; generating a third image frame shifted from the second image frame by the first distance in a second direction; moving the moving plate unit to a fourth position; generating a fourth image frame shifted from the third image frame by the first distance in a third direction; and generating a first composite image by synthesizing the first to fourth image frames, wherein the first composite image has a higher resolution than the resolution of the first to fourth image frames.

또한, 상기 제4 이미지 프레임이 생성된 이후에, 상기 유동 플레이트부를 상기 제1 위치로 재이동시키는 단계; 상기 제4 이미지 프레임에서 제4 방향으로 상기 제1 거리만큼 이동된 제5 이미지 프레임을 생성하는 단계; 및 상기 제2 내지 제5 이미지 프레임을 이용하여 제2 합성 이미지를 생성하는 단계를 포함한다.Additionally, after the fourth image frame is generated, re-moving the moving plate unit to the first position; generating a fifth image frame shifted from the fourth image frame by the first distance in a fourth direction; and generating a second composite image using the second to fifth image frames.

또한, 상기 제1 합성 이미지를 생성하기 전에 상기 제1 내지 제4 이미지 프레임을 가우시안 필터링하는 단계를 포함한다.Additionally, the method includes Gaussian filtering the first to fourth image frames before generating the first composite image.

또한, 상기 가우시안 필터링하는 단계는 0.1보다 크고, 1보다 작은 범위 내에서의 시그마 값을 적용하여 상기 제1 내지 제4 이미지 프레임을 가우시안 필터링하는 단계를 포함한다.Additionally, the Gaussian filtering step includes Gaussian filtering the first to fourth image frames by applying a sigma value within a range greater than 0.1 and less than 1.

또한, 상기 제1 합성 이미지가 생성되면, 상기 생성된 제1 합성 이미지를 라플라시안 필터링하는 단계를 포함한다.Additionally, when the first composite image is generated, the method includes Laplacian filtering the generated first composite image.

실시 예에 의하면, 이미지 센서의 픽셀 수를 증가시키지 않고도 초고해상도의 이미지를 얻을 수 있다. 즉, 실시 예에서는 광 경로를 변경시키는 필터 액추에이터를 이용하여 1픽셀의 절반(0.5)만큼 쉬프트된 다수의 어레이 데이터를 이용하므로, 이미지 센서의 물리적 분해능보다 높은 초해상도를 갖는 이미지를 얻을 수 있다.According to an embodiment, an ultra-high resolution image can be obtained without increasing the number of pixels of the image sensor. That is, in the embodiment, a plurality of array data shifted by half (0.5) of one pixel is used using a filter actuator that changes the optical path, so an image with a super-resolution higher than the physical resolution of the image sensor can be obtained.

또한, 실시 예에 의하면, 순차적으로 입력되는 현재 프레임에 대해 연속적으로 합성 프레임을 생성함으로써, 프레임 레이트의 저하를 방지할 수 있다.Additionally, according to an embodiment, a decrease in frame rate can be prevented by continuously generating composite frames for sequentially input current frames.

실시 예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained in the embodiment are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 실시 예에 따른 카메라 모듈의 구성을 나타낸 블록도이다.
도 2는 도 1의 이미지 합성부의 상세 구성을 나타낸 블록도이다.
도 3은 실시 예에 따른 카메라 모듈의 구조를 나타낸 도면이다.
도 4는 도 3에 도시된 유동 플레이트부의 분해 사시도이다.
도 5는 도 4의 유동 플레이트부의 결합도이다.
도 6은 일 실시 예에 따른 카메라 모듈의 동작 방법을 설명하기 위한 도면이다.
도 7은 도 6에서 설명되는 카메라 모듈의 동작 방법을 보다 상세히 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 카메라 모듈의 동작 방법에 대한 타이밍도이다.
도 9는 일 실시 예에 따른 카메라 모듈의 프레임 합성 방법의 일 예를 나타낸 도면이다.
도 10은 실시 예에 따른 센서부를 통해 생성된 이미지 프레임을 나타낸 도면이다.
도 11은 실시 예에 따른 전처리 필터부에서 필터링된 이미지 프레임을 나타낸 도면이다.
도 12는 실시 예에 따른 이미지 생성부에서 생성된 초해상도 이미지 프레임을 나타낸 도면이다.
도 13은 실시 예에 따른 후처리 필터부에서 필터링된 이미지 프레임을 나타낸 도면이다.
1 is a block diagram showing the configuration of a camera module according to an embodiment.
FIG. 2 is a block diagram showing the detailed configuration of the image synthesis unit of FIG. 1.
Figure 3 is a diagram showing the structure of a camera module according to an embodiment.
Figure 4 is an exploded perspective view of the flow plate portion shown in Figure 3.
Figure 5 is a combined diagram of the flow plate portion of Figure 4.
Figure 6 is a diagram for explaining a method of operating a camera module according to an embodiment.
FIG. 7 is a diagram for explaining in more detail the operating method of the camera module described in FIG. 6.
Figure 8 is a timing diagram of a method of operating a camera module according to an embodiment.
Figure 9 is a diagram illustrating an example of a method for combining frames of a camera module according to an embodiment.
Figure 10 is a diagram showing an image frame generated through a sensor unit according to an embodiment.
Figure 11 is a diagram showing an image frame filtered in a pre-processing filter unit according to an embodiment.
Figure 12 is a diagram showing a super-resolution image frame generated by an image generator according to an embodiment.
Figure 13 is a diagram showing an image frame filtered in a post-processing filter unit according to an embodiment.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.

또한, 본 발명의 실시 예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다. 또한, 본 발명의 실시예에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless specifically defined and described, are generally understood by those skilled in the art to which the present invention pertains. It can be interpreted as meaning, and the meaning of commonly used terms, such as terms defined in a dictionary, can be interpreted by considering the contextual meaning of the related technology. Additionally, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함 할 수 있다. 또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.In this specification, the singular may also include the plural unless specifically stated in the phrase, and when described as "at least one (or more than one) of A and B and C", it is combined with A, B, and C. It can contain one or more of all possible combinations. Additionally, when describing the components of an embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used.

이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다. 그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속되는 경우 뿐만아니라, 그 구성 요소와 그 다른 구성요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속'되는 경우도 포함할 수 있다.These terms are only used to distinguish the component from other components, and are not limited to the essence, sequence, or order of the component. And, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, combined or connected to that other component, but also is connected to that component. It may also include cases where other components are 'connected', 'coupled', or 'connected' by another component between them.

또한, 각 구성 요소의 " 상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.In addition, when described as being formed or disposed "on top or bottom" of each component, top or bottom refers not only to cases where two components are in direct contact with each other, but also to one component. This also includes cases where another component described above is formed or placed between two components. In addition, when expressed as "top (above) or bottom (bottom)", it may include not only the upward direction but also the downward direction based on one component.

도 1은 실시 예에 따른 카메라 모듈의 구성을 나타낸 블록도이고, 도 2는 도 1의 이미지 합성부의 상세 구성을 나타낸 블록도이다.FIG. 1 is a block diagram showing the configuration of a camera module according to an embodiment, and FIG. 2 is a block diagram showing the detailed configuration of the image synthesis unit of FIG. 1.

도 1 및 2를 참조하면, 카메라 모듈(100)은 렌즈부(110), 센서부(120), 이미지 합성부(130), 유동 플레이트부(140) 및 제어부(150)를 포함한다.Referring to Figures 1 and 2, the camera module 100 includes a lens unit 110, a sensor unit 120, an image synthesis unit 130, a moving plate unit 140, and a control unit 150.

또한, 이미지 합성부(130)는 전처리 필터부(131), 이미지 생성부(132) 및 후처리 필터부(133)를 포함한다.Additionally, the image synthesis unit 130 includes a pre-processing filter unit 131, an image generation unit 132, and a post-processing filter unit 133.

렌즈부(110)는 외부로부터 입사되는 광을 통과시켜 센서부(120)에 광 신호를 전달할 수 있다. 렌즈부(110)는 복수의 렌즈를 포함할 수 있다. 이때, 렌즈부(110)에 포함되는 복수의 렌즈들은 하나의 광학계를 형성하고, 센서부(120)의 광축을 중심으로 정렬되어 배치될 수 있다. The lens unit 110 can pass light incident from the outside and transmit an optical signal to the sensor unit 120. The lens unit 110 may include a plurality of lenses. At this time, the plurality of lenses included in the lens unit 110 form one optical system and may be aligned and arranged around the optical axis of the sensor unit 120.

이때, 렌즈부(110)는 피사체에서 발생하는 적외선 파장 대역을 검출하기 위한 적외선 대역의 렌즈들을 포함할 수 있다. At this time, the lens unit 110 may include lenses in the infrared band for detecting the infrared wavelength band generated from the subject.

즉, 실시 예에 따른 카메라 모듈(100)는 열화상 카메라 모듈이다. 이에 따라, 렌즈부(110)를 구성하는 렌즈들은 피사체에서 발생하는 적외선 복사를 감지하기 위해, 일반적인 카메라 모듈에서 사용되는 가시광 대역의 렌즈가 아닌 적외선 복사 에너지 파장 대역을 통과하면서 가시광 대역은 통과되지 않는 게르마늄(Ge) 또는 실리콘(Si)으로 구성된 렌즈를 사용할 수 있다. 또한, 렌즈부(110)에는 반사 코팅층이 형성될 수 있고, 이에 따라 적외선 복사 에너지의 반사를 방지하면서 상기 적외선 복사 에너지가 모두 통과되도록 할 수 있다.That is, the camera module 100 according to the embodiment is a thermal imaging camera module. Accordingly, in order to detect infrared radiation generated from a subject, the lenses constituting the lens unit 110 do not pass through the infrared radiation energy wavelength band but do not pass through the visible light band, rather than the visible light band lenses used in general camera modules. Lenses made of germanium (Ge) or silicon (Si) can be used. Additionally, a reflective coating layer may be formed on the lens unit 110, thereby preventing reflection of infrared radiant energy and allowing all infrared radiant energy to pass through.

즉, 렌즈부(110)는 피사체로부터 방출되는 적외선을 투과시키기 위해, 칼코게나이드 글라스(Chalcogenide glass) 소재의 PGM (Precision Glass Molding) 가공된 렌즈를 포함할 수 있다. That is, the lens unit 110 may include a PGM (Precision Glass Molding) processed lens made of chalcogenide glass to transmit infrared rays emitted from the subject.

또한, 렌즈부(110)는 전방에 렌즈를 보호하기 위한 적외선 투과 윈도우(도시하지 않음)를 더 포함할 수 있다. 적외선 투과 윈도우는 CaF2, BaF2 또는 폴리에틸렌(Polyethylene) 등의 재질로 제작될 수 있다.Additionally, the lens unit 110 may further include an infrared transmission window (not shown) on the front side to protect the lens. Infrared transmission windows can be made of materials such as CaF2, BaF2, or polyethylene.

센서부(120)는 적외선 복사 에너지에 대하여 감응하는 소자를 포함할 수 있다. 즉, 센서부(120)는 상기 소자를 이용하여 상기 적외선 복사 에너지에 대응하는 에너지를 검출할 수 있다. 바람직하게, 센서부(120)는 렌즈부(110)를 통해 입사된 적외선 복사 에너지의 결과를 전기적 신호로 만들어주는 역할을 할 수 있다.The sensor unit 120 may include an element that is sensitive to infrared radiant energy. That is, the sensor unit 120 can detect energy corresponding to the infrared radiant energy using the device. Preferably, the sensor unit 120 may serve to convert the result of infrared radiant energy incident through the lens unit 110 into an electrical signal.

바람직하게, 센서부(120)는 렌즈부(110)를 통해 투과된 적외선으로부터 피사체의 온도를 감지하여 대응하는 물리적 특성 변화(아날로그 신호)를 출력한다. 이와 같은 센서부(120)는 마이크로볼로미터 어레이(MBA: MicroBolometer Array)가 사용될 수 있다.Preferably, the sensor unit 120 detects the temperature of the subject from infrared light transmitted through the lens unit 110 and outputs a corresponding change in physical characteristics (analog signal). As this sensor unit 120, a microbolometer array (MBA: MicroBolometer Array) may be used.

이미지 합성부(130)는 센서부(120)의 출력 신호를 수신하고, 이를 이미지 처리(예를 들어, 보간, 프레임 합성 등)를 수행하는 이미지 프로세서일 수 있다. 특히, 이미지 합성부(130)는 시차(관측 위치에 따른 피사체의 위치나 방향의 차이, parallax)를 가지는 복수의 프레임의 이미지 신호를 합성하여, 하나의 고해상도의 이미지 신호를 생성할 수 있다. 이때, 복수의 프레임의 이미지 신호는 유동 플레이트부(140)에 의해 적외선의 입사 경로가 변경된 상태에서 생성된 각각의 이미지 프레임일 수 있다. 이때, 복수의 이미지 프레임은 제1 이미지 프레임 및 제2 이미지 프레임을 포함할 수 있다. 이때, 제2 이미지 프레임은 상기 제1 이미지 프레임을 기준으로, 상기 유동 플레이트부(140)에 의해 상기 입사 경로가 제1 간격만큼 이동된 이미지 프레임일 수 있다.The image synthesis unit 130 may be an image processor that receives the output signal of the sensor unit 120 and performs image processing (eg, interpolation, frame synthesis, etc.) on it. In particular, the image synthesis unit 130 can generate one high-resolution image signal by combining image signals of a plurality of frames with parallax (difference in the position or direction of the subject depending on the observation position, parallax). At this time, the image signals of the plurality of frames may be individual image frames generated while the incident path of infrared rays is changed by the moving plate unit 140. At this time, the plurality of image frames may include a first image frame and a second image frame. At this time, the second image frame may be an image frame in which the incident path is moved by the first interval by the moving plate unit 140, based on the first image frame.

유동 플레이트부(140)는 상기 렌즈부(110)를 통과하여 상기 센서부(120)에 입사되는 적외선의 경로를 변경할 수 있다. 이때, 유동 플레이트부(140)는 초기 동작시에 기준 위치에 위치할 수 있다. 그리고, 유동 플레이트부(140)는 제어부(150)의 제어신호에 따라 X축 또는 Y축 또는 X축/Y축으로 이동(명확하게는, 틸팅)할 수 있다. 이하에서는, 틸팅의 개념으로 상기 유동 플레이트부(140)가 이동하는 것으로 설명하기로 한다.The flow plate unit 140 may change the path of infrared rays passing through the lens unit 110 and incident on the sensor unit 120. At this time, the flow plate unit 140 may be located at the reference position during initial operation. Additionally, the moving plate unit 140 may move (specifically, tilt) along the X-axis or Y-axis or Hereinafter, the movement of the moving plate unit 140 will be explained using the concept of tilting.

이때, 유동 플레이트부(140)는 상기 기준 위치를 기준으로 정수 배를 제외한 특정 간격 만큼의 픽셀 간격만큼 이동할 수 있다. At this time, the moving plate unit 140 may move by a specific pixel interval excluding an integer multiple based on the reference position.

이때, 유동 플레이트부(140)는 제어부(150)의 제어 신호에 따라 상기 기준 위치를 기준으로 X축 방향으로 제1 픽셀 간격만큼 상기 적외선의 입사 경로를 이동시킬 수 있다. 또한, 유동 플레이트부(140)는 제어부(150)의 제어 신호에 따라 상기 기준 위치를 기준으로 Y축 방향으로 상기 제1 픽셀 간격 만큼 상기 저괴선광 경로를 이동시킬 수 있다. 또한, 유동 플레이트부(140)는 제어부(150)의 제어 신호에 따라 상기 기준 위치를 기준으로 X축 방향으로 제1 픽셀 간격 및 Y축 방향으로 제1 픽셀 간격만큼 상기 광 경로를 이동시킬 수 있다. 여기에서, 상기 제1 픽셀 간격은 0과 1 사이의 값일 수 있다. 바람직하게, 상기 제1 픽셀 간격은 0.5일 수 있다. 즉, 유동 플레이트부(140)는 제어부(150)의 제어 신호에 따라 기준 위치를 기준으로 0.5 픽셀 간격만큼 상기 적외선 신호의 입사 경로를 X축 및/또는 Y축으로 이동시킬 수 있다. At this time, the moving plate unit 140 may move the incident path of the infrared rays by the first pixel interval in the X-axis direction based on the reference position according to the control signal from the controller 150. In addition, the moving plate unit 140 may move the mass beneficiation path by the first pixel interval in the Y-axis direction based on the reference position according to a control signal from the control unit 150. In addition, the moving plate unit 140 may move the optical path by a first pixel interval in the X-axis direction and a first pixel interval in the Y-axis direction based on the reference position according to a control signal from the controller 150. . Here, the first pixel spacing may be a value between 0 and 1. Preferably, the first pixel spacing may be 0.5. That is, the moving plate unit 140 may move the incident path of the infrared signal to the X-axis and/or Y-axis by 0.5 pixel intervals based on the reference position according to the control signal from the controller 150.

이를 위해, 상기 유동 플레이트부(140)는 액추에이터를 포함할 수 있다. 상기 유동 플레이트부(140)는 렌즈부(110)에 대한 센서부(120)의 상대적 위치를 조절할 수 있다. 상기 액추에이터는 압전 소자(piezoelectric element), 보이스 코일 모터(VCM), 멤스(MEMS)일 수 있으나, 실시 예는 액추에이터의 특정한 형태에 국한되지 않는다. For this purpose, the flow plate unit 140 may include an actuator. The moving plate unit 140 can adjust the relative position of the sensor unit 120 with respect to the lens unit 110. The actuator may be a piezoelectric element, a voice coil motor (VCM), or a MEMS, but the embodiment is not limited to a specific type of actuator.

상기 유동 플레이트부(140)의 구조 및 이의 동작 원리에 대해서는 하기에서 더욱 상세히 설명하기로 한다.The structure of the flow plate unit 140 and its operating principle will be described in more detail below.

제어부(150)는 유동 플레이트부(140)의 동작을 제어할 수 있다. 바람직하게, 제어부(150)는 상기 유동 플레이트부(140)를 제4 픽셀 이동(D) 내지 제1 픽셀 이동(A) 순으로 순차적 이동시킨다. The control unit 150 may control the operation of the flow plate unit 140. Preferably, the control unit 150 sequentially moves the moving plate unit 140 in the order of the fourth pixel movement (D) to the first pixel movement (A).

또한, 제어부(150)는 상기 유동 플레이트부(140)의 순차적 이동에 따라 센서부(120)를 통해 이미지 신호가 생성될 수 있도록 한다. Additionally, the control unit 150 allows image signals to be generated through the sensor unit 120 according to the sequential movement of the moving plate unit 140.

이를 위해, 제어부(150)는 유동 플레이트부(140)와 제1 신호를 송수신하고, 센서부(120)와 제2 신호를 송수신할 수 있다. 이를 토대로, 제어부(150)는 유동 플레이트부(140) 및 센서부(120)를 제어하여, 상기 유동 플레이트부(140)의 이동 상태와 동기화하여 센서부(120)에 의해 이미지 신호가 생성될 수 있도록 한다.To this end, the control unit 150 may transmit and receive a first signal with the flow plate unit 140 and transmit and receive a second signal with the sensor unit 120. Based on this, the control unit 150 controls the flow plate unit 140 and the sensor unit 120 so that an image signal can be generated by the sensor unit 120 in synchronization with the moving state of the flow plate unit 140. Let it happen.

여기에서, 제1 신호는 제어부(150)에 의해 생성되며, 유동 플레이트부(140)의 픽셀 이동을 위한 제어 신호를 포함할 수 있다. 그리고, 상기 픽셀 이동을 위한 제어 신호에 기반하여, 상기 유동 플레이트부(140)의 픽셀 이동이 이루어지고, 이에 의해 상기 센서부(120)로 입사되는 적외선 신호의 입사 각도가 변경될 수 있다. 또한, 상기 제1 신호는 상기 제어 신호에 따라 유동 플레이트부(140)의 이동이 완료되었음을 알리는 응답 신호를 포함할 수 있다.Here, the first signal is generated by the control unit 150 and may include a control signal for pixel movement of the moving plate unit 140. And, based on the control signal for pixel movement, the pixel movement of the moving plate unit 140 is performed, and thereby the angle of incidence of the infrared signal incident on the sensor unit 120 may be changed. Additionally, the first signal may include a response signal indicating that the movement of the flow plate unit 140 has been completed according to the control signal.

제2 신호는 센서부(120)에 의해 생성될 수 있으며, 상기 유동 플레이트부(140)의 제어 신호를 전송할 것을 지시하는 동기 신호를 포함할 수 있다. 실시 예에 따라 제2 신호는 센서부(120)에 의해 생성될 수 있으며, 상기 적외선 신호의 입사 각도를 변경하기 위한 제어 신호의 기초가 되는 제어 정보를 포함할 수 있다. 실시 에에 따라 상기 제2 신호는 제어부(150)에 의해 생성될 수 있으며, 상기 유동 플레이트부(140)의 이동이 완료되었음을 나타내는 응답 신호의 정상적 수신을 알리는 피드백 신호를 포함할 수 있다. 또한, 상기 제2 신호는 센서부(120)를 구동시키는 구동 신호를 포함할 수 있다.The second signal may be generated by the sensor unit 120 and may include a synchronization signal instructing to transmit a control signal of the flow plate unit 140. Depending on the embodiment, the second signal may be generated by the sensor unit 120 and may include control information that is the basis of a control signal for changing the angle of incidence of the infrared signal. Depending on the implementation, the second signal may be generated by the control unit 150 and may include a feedback signal notifying normal reception of a response signal indicating that the movement of the moving plate unit 140 has been completed. Additionally, the second signal may include a driving signal that drives the sensor unit 120.

여기에서, 제1 신호와 제2 신호에 포함되는 신호는 예시적인 것이며, 필요에 따라 생략되거나 다른 신호가 부가될 수 있다. Here, the signals included in the first signal and the second signal are illustrative, and may be omitted or other signals may be added as needed.

도 2를 참조하면, 이미지 합성부(130)는 전처리 필터부(131), 이미지 생성부(132) 및 후처리 필터부(133)를 포함할 수 있다.Referring to FIG. 2, the image synthesis unit 130 may include a pre-processing filter unit 131, an image generation unit 132, and a post-processing filter unit 133.

전처리 필터부(131)는 센서부(120)를 통해 순차적으로 획득되는 이미지 프레임을 수신할 수 있다. 즉, 전처리 필터부(131)는 유동 플레이트부(140)의 제4 픽셀 이동에서의 제1 이미지 프레임(F1)을 수신할 수 있다. 또한, 전처리 필터부(131)는 유동 플레이트부(140)의 제1 픽셀 이동에서의 제2 이미지 프레임(F2)을 수신할 수 있다. 또한, 전처리 필터부(131)는 유동 플레이트부(140)의 제2 픽셀 이동에서의 제3 이미지 프레임(F3)을 수신할 수 있다. 또한, 전처리 필터부(131)는 유동 플레이트부(140)의 제3 픽셀 이동에서의 제4 이미지 프레임(F4)을 수신할 수 있다. 이때, 상기 제1 이미지 프레임(F1)은 유동 플레이트부(140)가 기준 위치에 있는 상태에서 센서부(120)를 통해 획득된 이미지이고, 상기 제2 이미지 프레임(F2)은 유동 플레이트부(140)가 기준 위치에서 X축 방향으로 0.5 픽셀 거리만큼 이동한 상태에서 센서부(120)를 통해 획득된 이미지이며, 상기 제3 이미지 프레임(F3)은 유동 플레이트부(140)가 기준 위치에서 X축 방향으로 0.5 픽셀 거리만큼 이동하고, Y축 방향으로 0.5 픽셀 거리만큼 이동한 상태에서 센서부(120)를 통해 획득된 이미지이며, 상기 제4 이미지 프레임(F4)은 유동 플레이트부(140)가 기준 위치에서 Y축 방향으로 0.5 픽셀 거리만큼 이동한 상태에서 센서부(120)를 통해 획득된 이미지를 의미한다.The pre-processing filter unit 131 may receive image frames sequentially acquired through the sensor unit 120. That is, the pre-processing filter unit 131 may receive the first image frame F1 in the fourth pixel movement of the moving plate unit 140. Additionally, the pre-processing filter unit 131 may receive the second image frame F2 from the first pixel movement of the flow plate unit 140. Additionally, the pre-processing filter unit 131 may receive the third image frame F3 from the second pixel movement of the flow plate unit 140. Additionally, the pre-processing filter unit 131 may receive the fourth image frame F4 from the third pixel movement of the flow plate unit 140. At this time, the first image frame (F1) is an image acquired through the sensor unit 120 with the flow plate unit 140 at the reference position, and the second image frame (F2) is an image obtained by the flow plate unit 140. ) is an image acquired through the sensor unit 120 while moving a distance of 0.5 pixels from the reference position in the It is an image acquired through the sensor unit 120 while moving a distance of 0.5 pixels in the direction and a distance of 0.5 pixels in the Y-axis direction, and the fourth image frame (F4) is based on the moving plate unit 140. This refers to an image acquired through the sensor unit 120 while moving a distance of 0.5 pixels from the location in the Y-axis direction.

그리고, 전처리 필터부(131)는 상기 센서부(120)를 통해 획득된 제1 내지 제4 이미지 프레임에 대해 가우시안 필터링을 진행할 수 있다. 여기에서, 가우시안 필터링(Gaussian Filtering)이란, 원본 영상을 흐리게 해주는 필터링 기법을 말하는 것으로서, 포토샵 같은 영상 애플리케이션 툴 등에서 사용되는 영상 흐림 기법(Blur Filtering)을 말한다. 가우시안 필터링을 거치게 되면, 영상의 주파수 중에서 저주파와 고주파를 통과되지 않게 되어 영상이 뿌옇게 보이게 된다. 즉, 전처리 필터부(131)는 상기 센서부(120)를 통해 획득된 제1 내지 제4 이미지 프레임의 고주파 영역을 무너뜨려 블러링 효과를 적용함으로써, 상기 제1 내지 제4 이미지 프레임에 포함된 노이즈를 제거하도록 한다.In addition, the pre-processing filter unit 131 may perform Gaussian filtering on the first to fourth image frames obtained through the sensor unit 120. Here, Gaussian Filtering refers to a filtering technique that blurs the original image, and refers to an image blurring technique (Blur Filtering) used in image application tools such as Photoshop. When Gaussian filtering is performed, low and high frequencies among the frequencies of the image are not passed through, making the image appear blurry. That is, the pre-processing filter unit 131 applies a blurring effect by breaking down the high-frequency region of the first to fourth image frames obtained through the sensor unit 120, thereby applying a blurring effect to the first to fourth image frames included in the first to fourth image frames. Try to remove noise.

이때, 실시 예에서와 같은, 열화상 카메라를 통해 획득된 이미지 프레임에 대해 가우시안 필터링을 적용하는 경우, 이의 제어 팩터 설정이 중요한 요소로 작용하게 된다. 여기에서, 제어 팩터는 가우시안 필터에서 가우시안 블러를 이루는 가우시안 분포의 넓이 변수를 의미하는 σ(시그마) 값을 포함할 수 있다. 이때, 상기 시그마 값에 기반하여 이미지 합성부(130)에서 최종 출력되는 이미지의 화질이 크게 변화할 수 있다. At this time, when Gaussian filtering is applied to an image frame acquired through a thermal imaging camera, as in the embodiment, the control factor setting becomes an important factor. Here, the control factor may include a σ (sigma) value, which means the area variable of the Gaussian distribution that forms Gaussian blur in the Gaussian filter. At this time, the image quality of the image finally output from the image synthesis unit 130 may change significantly based on the sigma value.

이에 따라, 실시 예에서는 상기 전처리 필터부(131)를 구성하는 가우시안 필터의 제어 팩터를 구성하는 시그마 값을 다음의 식1과 같이 설정하도록 한다.Accordingly, in the embodiment, the sigma value constituting the control factor of the Gaussian filter constituting the pre-processing filter unit 131 is set as shown in Equation 1 below.

0.1 < σ < 1 ----- 식10.1 < σ < 1 ----- Equation 1

이때, 상기 시그마 값에 따라 상기 제1 내지 제4 이미지 프레임의 블러링 정도가 변화한다. 여기에서, 상기 시그마 값이 1보다 크게 되면, 상기 블러링의 정도가 심하게 되어, 이에 따른 열화상 이미지에 해당하는 제1 내지 제4 이미지 프레임 내에서의 경계가 무너지게 된다. 또한, 상기 시그마 값이 0.1보다 작으면 상기 제1 내지 제4 이미지 프레임에서의 블러링 정도가 너무 작아짐에 따라 노이즈가 정상적으로 제거되지 않을 수 있다. 따라서, 열화상 이미지에 대응하는 제1 내지 제4 이미지 프레임의 전처리를 위한 가우시안 필터링에서는, 제어 팩터에 해당하는 시그마 값을 0.1보다는 크고, 1보다는 작게 설정하도록 한다.At this time, the degree of blurring of the first to fourth image frames changes depending on the sigma value. Here, when the sigma value is greater than 1, the degree of blurring becomes severe, and the boundaries within the first to fourth image frames corresponding to the thermal image accordingly collapse. Additionally, if the sigma value is less than 0.1, the degree of blurring in the first to fourth image frames becomes too small and noise may not be removed properly. Therefore, in Gaussian filtering for preprocessing of the first to fourth image frames corresponding to the thermal image, the sigma value corresponding to the control factor is set to be greater than 0.1 and less than 1.

이미지 생성부(132)는 상기 전처리 필터부(131)를 통해 가우시안 필터링된 제1 내지 제4 이미지 프레임을 합성하여 합성 프레임을 생성한다. The image generator 132 generates a composite frame by synthesizing the first to fourth image frames that have been Gaussian filtered through the pre-processing filter unit 131.

이미지 생성부(132)는 상기 가우시안 필터링된 제1 내지 제4 프레임을 합성함으로써 NxM의 픽셀 어레이가 아닌 2Nx2M의 픽셀 어레이가 획득한 이미지를 생성할 수 있다. 이미지 생성부(132)가 제1 내지 제4 프레임을 합성하는 방법은, 제1 내지 제4 프레임을 각 픽셀의 위치에 따라 단순 병합(예를 들어, 첫 번째 행의 경우 A1의 픽셀 신호, B1의 픽셀 신호, A2의 픽셀 신호, B2의 픽셀 신호로 배열하여 하나의 프레임으로 생성)하는 방법, 또는 인접하는 픽셀의 경우 픽셀 장면이 오버랩됨을 이용하여 어느 하나의 픽셀(예컨대, C1)의 픽셀 신호를 인접하는 픽셀(예컨대, A1, B1, A2, D1, D2, A3, B3, A4)의 픽셀 신호를 이용해 보정하는 방법 등이 이용될 수 있으나, 실시 예의 범위는 이에 한정되지 않고 다양한 초해상도 이미지 생성 방법이 이용될 수 있다. The image generator 132 may generate an image obtained by a 2Nx2M pixel array rather than an NxM pixel array by combining the Gaussian filtered first to fourth frames. The method for the image generator 132 to synthesize the first to fourth frames is to simply merge the first to fourth frames according to the position of each pixel (for example, in the case of the first row, the pixel signal of A1 and B1 a method of generating one frame by arranging the pixel signal of A2, the pixel signal of B2, or in the case of adjacent pixels, the pixel signal of one pixel (e.g., C1) by using the pixel scene overlap. A method of correcting using pixel signals of adjacent pixels (e.g., A1, B1, A2, D1, D2, A3, B3, A4) may be used, but the scope of the embodiment is not limited to this and various super-resolution images A creation method may be used.

또한, 이미지 생성부(132)는 전처리 필터부(131)로부터 필터링된 제1 내지 제4 이미지 프레임을 이용하여 제1 초해상도 이미지 프레임을 합성하고, 이후 전처리 필터부(131)를 통해 필터링된 제5 이미지 프레임 및 제2 내지 제4 이미지 프레임을 이용하여 제2 초해상도 이미지 프레임을 합성할 수 있다.In addition, the image generator 132 synthesizes a first super-resolution image frame using the first to fourth image frames filtered by the pre-processing filter unit 131, and then synthesizes the first super-resolution image frame using the first to fourth image frames filtered through the pre-processing filter unit 131. A second super-resolution image frame can be synthesized using the 5 image frame and the second to fourth image frames.

후처리 필터부(133)는 이미지 생성부(132)를 통해 생성된 초해상도 이미지 프레임에 대해 후처리를 진행한다. The post-processing filter unit 133 performs post-processing on the super-resolution image frame generated through the image generation unit 132.

바람직하게, 후처리 필터부(133)는 상기 이미지 생성부(132)를 통해 생성된 초해상도 이미지 프레임에 대해 라플라시안 필터링을 진행한다.Preferably, the post-processing filter unit 133 performs Laplacian filtering on the super-resolution image frame generated through the image generation unit 132.

즉, 이미지 생성부(132)를 통해 초해상도 이미지 프레임이 생성되면, 후처리 필터부(133)를 라플라시안 필터링을 진행하여, 상기 초해상도 이미지 프레임에 대해 에지를 선명화하는 이미지 후처리를 진행할 수 있다. That is, when a super-resolution image frame is generated through the image generator 132, Laplacian filtering is performed in the post-processing filter unit 133, and image post-processing to sharpen the edges of the super-resolution image frame can be performed. there is.

바람직하게, 상기 후처리 필터부(133)는 라플라시안 필터를 포함할 수 있다. 이때, 라플라시안 필터는 일정 마스크 사이즈 내에서 필터링을 진행할 수 있다. 여기에서, 라플라시안 필터의 마스크 사이즈는 3*3 또는 5*5일 수 있다.Preferably, the post-processing filter unit 133 may include a Laplacian filter. At this time, the Laplacian filter can perform filtering within a certain mask size. Here, the mask size of the Laplacian filter may be 3*3 or 5*5.

도 3은 실시 예에 따른 카메라 모듈의 구조를 나타낸 도면이고, 도 4는 도 3에 도시된 유동 플레이트부의 분해 사시도이며, 도 5는 도 4의 유동 플레이트부의 결합도이다. FIG. 3 is a diagram showing the structure of a camera module according to an embodiment, FIG. 4 is an exploded perspective view of the flow plate portion shown in FIG. 3, and FIG. 5 is a combined view of the flow plate portion of FIG. 4.

도 3 내지 도 5를 참조하면, 카메라 모듈(200)은 홀더(210), 렌즈 배럴(220), 렌즈부(230), 유동 플레이트부(240), 기판(250), 센서부(260) 및 데이터 처리 소자(270)를 포함할 수 있으며, 이들 중 적어도 어느 하나의 구성은 생략되거나 서로 상하 배치 관계가 변경될 수도 있다. 다만, 유동 플레이트부(240)는 렌즈부(230) 및 센서부(260) 사이에 배치되며, 상기 렌즈부(230)를 통과한 적외선 신호에 대한 센서부(260)로의 입사 경로를 변경할 수 있다. 3 to 5, the camera module 200 includes a holder 210, a lens barrel 220, a lens unit 230, a moving plate unit 240, a substrate 250, a sensor unit 260, and It may include a data processing element 270, and at least one of these components may be omitted or the vertical arrangement relationship may be changed. However, the moving plate unit 240 is disposed between the lens unit 230 and the sensor unit 260, and can change the incident path to the sensor unit 260 for the infrared signal passing through the lens unit 230. .

즉, 유동 플레이트부(240)는 제어부(150)의 제어 신호에 따라 제1 위치 및 제4 위치 중 어느 하나의 위치로 이동할 수 있다. 그리고, 유동 플레이트부(240)가 제1 위치에 존재하는 경우, 상기 적외선 신호는 센서부(260)의 픽셀 중심에 대응하는 방향으로 입사될 수 있다. 그리고, 유동 플레이트부(240)가 제2 위치에 존재하는 경우, 상기 적외선 신호는 센서부(260)의 픽셀 중심에서 +X축 방향으로 0.5 픽셀 거리만큼 이동한 방향으로 입사될 수 있다. 그리고, 유동 플레이트부(240)가 제3 위치에 존재하는 경우, 상기 적외선 신호는 센서부(260)의 픽셀 중심에서 +X축 방향 및 +Y축 방향으로 각각 0.5 픽셀 거리만큼 이동한 방향으로 입사될 수 있다. 그리고, 유동 플레이트부(240)가 제4 위치에 존재하는 경우, 상기 적외선 신호는 센서부(260)의 픽셀 중심에서 +Y축 방향으로 0.5 픽셀 거리만큼 이동한 방향으로 입사될 수 있다. That is, the moving plate unit 240 can move to either the first position or the fourth position according to the control signal from the control unit 150. And, when the flow plate unit 240 is present at the first position, the infrared signal may be incident in a direction corresponding to the pixel center of the sensor unit 260. And, when the moving plate unit 240 is present in the second position, the infrared signal may be incident in a direction moved by 0.5 pixel distance in the +X axis direction from the pixel center of the sensor unit 260. And, when the flow plate unit 240 is present in the third position, the infrared signal is incident in a direction moved by 0.5 pixel distance in each of the +X-axis direction and +Y-axis direction from the pixel center of the sensor unit 260. It can be. And, when the moving plate unit 240 is present at the fourth position, the infrared signal may be incident in a direction moved by 0.5 pixel distance in the +Y-axis direction from the pixel center of the sensor unit 260.

홀더(210)는 렌즈 배럴(220)과 결합되어 렌즈 배럴(220)을 지지하고, 센서부(260)가 부착된 기판(250)에 결합될 수 있다. 또한, 홀더(210)는 렌즈 배럴(220) 하부에 유동 플레이트부(240)가 부착될 수 있는 공간을 구비할 수 있다. 홀더(210)는 나선형 구조를 포함할 수 있다. 또한, 렌즈 배럴(220)도 상기 홀더(210)에 대응되는 나선형 구조를 포함할 수 있으며, 이에 따라 렌즈 배럴(220)과 홀더(210)는 상호 회전 결합할 수 있다. 그러나, 이는 예시적인 것이며, 홀더(210)와 렌즈 배럴(220)은 접착제(예를 들어, 에폭시 등의 접착용 수지)를 통해 결합되거나, 홀더(210)와 렌즈 배럴(220)이 일체형으로 형성될 수도 있다.The holder 210 is coupled to the lens barrel 220 to support the lens barrel 220, and may be coupled to the substrate 250 to which the sensor unit 260 is attached. Additionally, the holder 210 may have a space where the moving plate portion 240 can be attached to the lower part of the lens barrel 220. Holder 210 may include a spiral structure. Additionally, the lens barrel 220 may also include a spiral structure corresponding to the holder 210, and accordingly, the lens barrel 220 and the holder 210 may be rotationally coupled to each other. However, this is an example, and the holder 210 and the lens barrel 220 are coupled through an adhesive (e.g., an adhesive resin such as epoxy), or the holder 210 and the lens barrel 220 are formed as one piece. It could be.

렌즈 배럴(220)은 홀더(210)와 결합되며, 내부에 렌즈부(230)를 수용할 수 있는 공간을 구비할 수 있다. 렌즈 배럴(220)은 렌즈부(230)와 회전 결합될 수 있으나, 이는 예시적인 것이며 접착제를 이용한 방식 등의 다른 방식으로도 결합될 수 있을 것이다.The lens barrel 220 is coupled to the holder 210 and may have a space therein to accommodate the lens unit 230. The lens barrel 220 may be rotationally coupled to the lens unit 230, but this is an example and may be coupled in other ways, such as using an adhesive.

렌즈부(230)는 피사체로부터 방사되는 적외선을 통과시키는 적외선 렌즈일 수 있다. 즉, 렌즈부(230)는 피사체로부터 방출되는 적외선을 투과시키기 위해, 칼코게나이드 글라스(Chalcogenide glass) 소재의 PGM (Precision Glass Molding) 가공된 렌즈를 포함할 수 있다. The lens unit 230 may be an infrared lens that passes infrared rays emitted from a subject. That is, the lens unit 230 may include a lens processed by Precision Glass Molding (PGM) made of chalcogenide glass to transmit infrared rays emitted from the subject.

또한, 렌즈부(230)는 전방에 렌즈를 보호하기 위한 적외선 투과 윈도우(도시하지 않음)를 더 포함할 수 있다. 적외선 투과 윈도우는 CaF2, BaF2 또는 폴리에틸렌(Polyethylene) 등의 재질로 제작될 수 있다.Additionally, the lens unit 230 may further include an infrared transmission window (not shown) on the front side to protect the lens. Infrared transmission windows can be made of materials such as CaF2, BaF2, or polyethylene.

센서부(260)는 기판(250) 상에 장착될 수 있고, 렌즈부(230) 및 유동 플레이트부(240)를 통과한 적외선 신호(적외선 복사 에너지)를 이미지 신호로 변환하는 기능을 수행할 수 있다. 즉, 센서부(260)는 적외선 복사 에너지에 대하여 감응하는 소자를 포함할 수 있다. 즉, 센서부(260)는 상기 소자를 이용하여 상기 적외선 복사 에너지에 대응하는 에너지를 검출할 수 있다. 바람직하게, 센서부(260)는 렌즈부(230)를 통해 입사된 적외선 복사 에너지의 결과를 전기적 신호로 만들어주는 역할을 할 수 있다.The sensor unit 260 may be mounted on the substrate 250 and may perform the function of converting an infrared signal (infrared radiant energy) passing through the lens unit 230 and the flow plate unit 240 into an image signal. there is. That is, the sensor unit 260 may include an element that is sensitive to infrared radiant energy. That is, the sensor unit 260 can detect energy corresponding to the infrared radiant energy using the device. Preferably, the sensor unit 260 may serve to convert the result of infrared radiant energy incident through the lens unit 230 into an electrical signal.

바람직하게, 센서부(260)는 렌즈부(230)를 통해 투과된 적외선으로부터 피사체의 온도를 감지하여 대응하는 물리적 특성 변화(아날로그 신호)를 출력한다. 이와 같은 센서부(230)는 마이크로볼로미터 어레이(MBA: MicroBolometer Array)가 사용될 수 있다.Preferably, the sensor unit 260 detects the temperature of the subject from infrared light transmitted through the lens unit 230 and outputs a corresponding change in physical characteristics (analog signal). As this sensor unit 230, a microbolometer array (MBA: MicroBolometer Array) may be used.

기판(250)은 홀더(210)의 하부에 배치될 수 있고, 이미지 합성부(130) 및 제어부(150)와 함께 각 구성간의 전기 신호의 전달을 위한 배선을 포함할 수 있다. 또한, 기판(250)에는 카메라 모듈(100)의 외부의 전원 또는 기타 다른 장치(예를 들어, 애플리케이션 프로세서)와 전기적으로 연결하기 위한 커넥터(미도시)가 연결될 수 있다. The substrate 250 may be placed below the holder 210 and may include the image synthesis unit 130 and the control unit 150 as well as wiring for transmitting electrical signals between each component. Additionally, a connector (not shown) may be connected to the board 250 to electrically connect an external power source of the camera module 100 or another device (eg, an application processor).

기판(250)은 RFPCB(Rigid Flexible Printed Circuit Board)로 구성되고 카메라 모듈(200)이 장착되는 공간이 요구하는 바에 따라 벤딩(bending)될 수 있으나, 실시 예는 이에 한정되지 않는다.The substrate 250 is composed of a Rigid Flexible Printed Circuit Board (RFPCB) and can be bent as required by the space in which the camera module 200 is mounted, but the embodiment is not limited thereto.

센서부(260)와 렌즈부(230) 사이에는 유동 플레이트부(240)가 배치될 수 있다. 유동 플레이트부(240)는 상기 렌즈부(230)를 통과한 적외선 신호에 대한 상기 센서부(260)로의 입사 경로를 변경한다. 예를 들어, 유동 플레이트부(240)는 액추에이터(246)를 포함할 수 있다. 그리고, 액추에이터(246)는 상기 유동 플레이트부(240)의 적어도 일부분의 각도를 조절하여, 상기 적외선 신호의 입사 경로를 변경할 수 있다. A moving plate unit 240 may be disposed between the sensor unit 260 and the lens unit 230. The flow plate unit 240 changes the incident path of the infrared signal passing through the lens unit 230 to the sensor unit 260. For example, the flow plate portion 240 may include an actuator 246. Additionally, the actuator 246 may change the incident path of the infrared signal by adjusting the angle of at least a portion of the flow plate unit 240.

도 4 및 5를 참조하면, 유동 플레이트부(240)는 제1 브라켓(241), 제2 브라켓(242), 제1 스프링부(243), 제2 스프링부(244), 필터부(245), 액추에이터(246), 액추에이터 기판(247) 및 커넥터(248)를 포함할 수 있다. Referring to Figures 4 and 5, the moving plate part 240 includes a first bracket 241, a second bracket 242, a first spring part 243, a second spring part 244, and a filter part 245. , may include an actuator 246, an actuator board 247, and a connector 248.

제1 브라켓(241)은 액추에이터 기판(247)이 장착되는 기판으로, 중앙에 개방 영역을 포함할 수 있다. 그리고, 제1 브라켓(241)은 중앙이 개방된 폐루프 형상을 가질 수 있다. 제1 브라켓(241)의 외면에는 액추에이터 기판(247)이 배치될 수 있다. 상기 액추에이터 기판(247)은 상기 제1 브라켓(241)의 외면을 둘러싸며 배치될 수 있다. 이때, 액추에이터 기판(247)에는 액추에이터(246)의 기능을 하는 코일(도시하지 않음)이 형성될 수 있다. 그리고, 상기 제1 브라켓(241)에는 상기 코일이 삽입되는 삽입 홈(도시하지 않음)이 형성될 수 있다. The first bracket 241 is a board on which the actuator board 247 is mounted, and may include an open area in the center. Additionally, the first bracket 241 may have a closed loop shape with an open center. An actuator board 247 may be disposed on the outer surface of the first bracket 241. The actuator board 247 may be arranged to surround the outer surface of the first bracket 241. At this time, a coil (not shown) that functions as the actuator 246 may be formed on the actuator substrate 247. Additionally, an insertion groove (not shown) into which the coil is inserted may be formed in the first bracket 241.

상기 제1 브라켓(241)의 개방 영역 내에는 제2 브라켓(242)이 배치될 수 있다. 상기 제2 브라켓(242)의 면적은 상기 제1 브라켓(241)의 상기 개방 영역의 면적보다 작을 수 있다. 따라서, 상기 제2 브라켓(242)은 상기 제1 브라켓(241)의 개방 영역 내에서 상하좌우 방향으로 이동할 수 있다.A second bracket 242 may be disposed within the open area of the first bracket 241. The area of the second bracket 242 may be smaller than the area of the open area of the first bracket 241. Accordingly, the second bracket 242 can move in the up, down, left and right directions within the open area of the first bracket 241.

이때, 제1 브라켓(241) 및 제2 브라켓(242)에는 각각 제1 스프링부(243) 및 제2 스프링부(244)가 고정되는 고정부(도시하지 않음)가 형성된다. 제1 스프링부(243)는 상기 제1 브라켓(241) 및 제2 브라켓(242)의 하부에 배치될 수 있다. 또한, 제2 스프링부(244)는 상기 제1 브라켓(241) 및 제2 브라켓(242)의 상부에 배치될 수 있다. 상기 제2 브라켓(242)은 상기 제1 스프링부(243) 및 제2 스프링부(244)에 의해 상기 제1 브라켓(241)의 개방 영역 내에서 부유(floating)하며 배치될 수 있다. At this time, fixing parts (not shown) to which the first spring part 243 and the second spring part 244 are respectively formed are formed on the first bracket 241 and the second bracket 242. The first spring portion 243 may be disposed below the first bracket 241 and the second bracket 242. Additionally, the second spring unit 244 may be disposed on the first bracket 241 and the second bracket 242. The second bracket 242 may be arranged to float within the open area of the first bracket 241 by the first spring part 243 and the second spring part 244.

한편, 제2 브라켓(242)의 외면에는 상기 제1 브라켓(241)에 형성된 삽입 홈과 마주보도록 자석 홈(도시하지 않음)이 형성될 수 있다. 그리고, 상기 자석 홈에는 액추에이터(246)를 구성하는 자석이 배치될 수 있다. 상기 자석은 상기 액추에이터 기판(247)에 배치된 코일과 마주보며 배치될 수 있다. 그리고, 상기 액추에이터 기판(247)을 통해 상기 코일에 특정 방향으로의 전류를 인가하면, 상기 인가되는 전류의 방향에 따라 특정 방향으로의 힘이 발생하게 되며, 이로 인해 상기 제2 브라켓(242)이 상기 개방 영역 내에서 이동할 수 있다. Meanwhile, a magnet groove (not shown) may be formed on the outer surface of the second bracket 242 to face the insertion groove formed in the first bracket 241. Additionally, magnets constituting the actuator 246 may be placed in the magnet groove. The magnet may be disposed facing the coil disposed on the actuator substrate 247. And, when a current in a specific direction is applied to the coil through the actuator board 247, a force in a specific direction is generated according to the direction of the applied current, which causes the second bracket 242 to It is possible to move within the open area.

한편, 상기 제2 브라켓(242)은 중앙 영역에 필터 안착부(도시하지 않음)를 포함할 수 있다. 그리고, 상기 필터 안착부에는 필터부(245)가 배치될 수 있다. 상기 필터부(245)는 상기 제2 브라켓(242)의 회전에 따라 특정 방향으로 상기 적외선 신호를 통과시킬 수 있다. Meanwhile, the second bracket 242 may include a filter mounting portion (not shown) in the central area. Additionally, a filter unit 245 may be disposed on the filter seating part. The filter unit 245 may pass the infrared signal in a specific direction according to the rotation of the second bracket 242.

상기 필터부(245)는 적외선 대역은 통과시키면서 가시광 대역은 통과되지 않는 게르마늄(Ge) 또는 실리콘(Si)으로 형성될 수 있다. The filter unit 245 may be formed of germanium (Ge) or silicon (Si) that passes the infrared band but does not pass the visible light band.

도 6은 일 실시 예에 따른 카메라 모듈의 동작 방법을 설명하기 위한 도면이다. 도 7은 도 6에서 설명되는 카메라 모듈의 동작 방법을 보다 상세히 설명하기 위한 도면이다.Figure 6 is a diagram for explaining a method of operating a camera module according to an embodiment. FIG. 7 is a diagram for explaining in more detail the operating method of the camera module described in FIG. 6.

도 6을 참조하면, 유동 플레이트부(140)에 의해 센서부(120)에 입사되는 적외선의 경로를 변경시킴으로써 초해상도(super resolution) 이미지를 얻을 수 있는 방법의 모식도가 도시되어 있다.Referring to FIG. 6, a schematic diagram of a method for obtaining a super resolution image is shown by changing the path of infrared rays incident on the sensor unit 120 by the flow plate unit 140.

센서부(120)의 픽셀 어레이는 NxM의 매트릭스 형태로 배치된 복수의 픽셀들을 포함할 수 있다. 이하의 설명에서는 설명의 편의상 도 6에서와 같이 픽셀 어레이가 2*2의 매트릭스 형태로 배치된 복수의 픽셀들(A1 내지 A4)을 포함한다고 가정하기로 한다.The pixel array of the sensor unit 120 may include a plurality of pixels arranged in an NxM matrix. In the following description, for convenience of explanation, it will be assumed that the pixel array includes a plurality of pixels (A1 to A4) arranged in a 2*2 matrix as shown in FIG. 6.

각 픽셀(A1 내지 A4)은 렌즈부(110)를 통해 전달되는 적외선 신호를 통해 각 픽셀 장면(PS1 내지 PS4)에 대한 이미지 정보(즉, 적외선 신호에 대응하는 아날로그 픽셀 신호)를 생성할 수 있다.Each pixel (A1 to A4) can generate image information (i.e., an analog pixel signal corresponding to an infrared signal) for each pixel scene (PS1 to PS4) through an infrared signal transmitted through the lens unit 110. .

x축 방향(또는 y축 방향)으로 인접하는 픽셀 간의 거리(예를 들어 픽셀 중심 간의 거리)를 1 PD(픽셀 거리)라 할 때, 그 절반은 0.5 PD에 해당한다. 여기서, 제1 내지 제4 픽셀이동(A 내지 D)을 정의하기로 한다.When the distance between adjacent pixels in the x-axis direction (or y-axis direction) (for example, the distance between pixel centers) is 1 PD (pixel distance), half of it corresponds to 0.5 PD. Here, the first to fourth pixel movements (A to D) will be defined.

제1 픽셀이동(A)은 각 픽셀(A1 내지 A4)을 +x축 방향을 따라 우측으로 0.5 PD 만큼 이동시키는 것을 의미하며, 제1 픽셀이동(A)이 완료된 후의 픽셀은 B1 내지 B4이다. The first pixel movement (A) means moving each pixel (A1 to A4) to the right by 0.5 PD along the +x-axis direction, and the pixels after the first pixel movement (A) is completed are B1 to B4.

제2 픽셀이동(B)은 각 픽셀(B1 내지 B4)을 +y축 방향을 따라 아래로 0.5 PD 만큼 이동시키는 것을 의미하며, 제2 픽셀이동(B)이 완료된 후의 픽셀은 C1 내지 C4이다.The second pixel movement (B) means moving each pixel (B1 to B4) downward by 0.5 PD along the +y-axis direction, and the pixels after the second pixel movement (B) is completed are C1 to C4.

제3 픽셀이동(C)은 각 픽셀(C1 내지 C4)을 -x축 방향을 따라 좌측으로 0.5 PD 만큼 이동시키는 것을 의미하며, 제3 픽셀이동(C)이 완료된 후의 픽셀은 D1 내지 D4이다.The third pixel movement (C) means moving each pixel (C1 to C4) to the left along the -x axis direction by 0.5 PD, and the pixels after the third pixel movement (C) is completed are D1 to D4.

제4 픽셀이동(D)은 각 픽셀(D1 내지 D4)을 -y축 방향을 따라 위로 0.5 PD 만큼 이동시키는 것을 의미하며, 제4 픽셀이동(D)이 완료된 후의 픽셀은 A1 내지 A4이다.The fourth pixel movement (D) means moving each pixel (D1 to D4) upward by 0.5 PD along the -y-axis direction, and the pixels after the fourth pixel movement (D) is completed are A1 to A4.

여기서, 픽셀 이동은 픽셀 어레이의 픽셀의 물리적 위치를 이동시키는 것이 아니라, 두 픽셀(예를 들어, A1과 A2) 사이의 가상의 픽셀(예를 들어, B1)이 픽셀 장면을 획득할 수 있도록 유동 플레이트부(140)를 이용하여 적외선 신호의 입사 경로를 조정하는 동작을 의미한다.Here, pixel movement does not move the physical position of a pixel in the pixel array, but rather moves a virtual pixel (e.g., B1) between two pixels (e.g., A1 and A2) to obtain a pixel scene. This refers to an operation of adjusting the incident path of an infrared signal using the plate unit 140.

결론적으로, 제4 픽셀 이동(D)에 대응하는 픽셀 A1 내지 A4은 상기 유동 플레이트부(140)가 픽셀 중심에 대응하는 제1 위치에 위치한 상태에서의 픽셀을 의미할 수 있다.In conclusion, pixels A1 to A4 corresponding to the fourth pixel movement D may mean pixels when the moving plate unit 140 is located at the first position corresponding to the pixel center.

그리고, 제1 픽셀 이동(A)에 대응하는 픽셀 B1 내지 B4는 상기 유동 플레이트부(140)가 상기 제1 위치에서 제2 위치로 이동(상기 픽셀 중심을 기준으로 +X축 방향으로 0.5 PD 만큼 이동)한 상태에서의 픽셀을 의미할 수 있다.And, pixels B1 to B4 corresponding to the first pixel movement (A) are moved by the moving plate unit 140 from the first position to the second position (by 0.5 PD in the +X-axis direction based on the pixel center). It can refer to a pixel in a moving state.

또한, 제2 픽셀 이동(B)에 대응하는 픽셀 C1 내지 C4는 상기 유동 플레이트부(140)가 상기 제2 위치에서 제3 위치로 이동(상기 픽셀 중심을 기준으로 +X축 방향 및 +Y축 방향으로 각각 0.5 PD 만큼 이동)한 상태에서의 픽셀을 의미할 수 있다.In addition, pixels C1 to C4 corresponding to the second pixel movement (B) are moved by the moving plate unit 140 from the second position to the third position (+X-axis direction and +Y-axis with respect to the pixel center). This may mean a pixel in a state of moving by 0.5 PD in each direction.

또한, 제3 픽셀 이동(C)에 대응하는 픽셀 D1 내지 D4는 상기 유동 플레이트부(140)가 상기 제3 위치에서 제4 위치로 이동(상기 픽셀 중심을 기준으로 +Y축 방향으로 0.5 PD 만큼 이동)한 상태에서의 픽셀을 의미할 수 있다.In addition, pixels D1 to D4 corresponding to the third pixel movement (C) are moved by the moving plate unit 140 from the third position to the fourth position (by 0.5 PD in the +Y axis direction based on the pixel center). It can refer to a pixel in a moving state.

한편, 이는 일 실시 예에 불과하며, 상기 제1 내지 제4 픽셀 이동에 대한 방법은 변경될 수 있다.Meanwhile, this is only an example, and the method for moving the first to fourth pixels may be changed.

도 7을 참조하면, 각 픽셀(A1 내지 A4)은 픽셀 장면(S1)을 획득하여 센서부(120)는 각 픽셀(A1 내지 A4)의 픽셀 신호로부터 제1 프레임(F1)을 생성할 수 있다.Referring to FIG. 7, each pixel (A1 to A4) obtains a pixel scene (S1), and the sensor unit 120 can generate a first frame (F1) from the pixel signal of each pixel (A1 to A4). .

제1 픽셀이동(A)을 위해 센서부(120)로 입사되는 적외선 신호의 경로를 변경시키도록 하는 제어부(150)의 제어 신호에 따라, 유동 플레이트부(140)는 상기 적외선 신호의 입사 각도를 기준 각도를 기준으로 제1 각도 변화량(θx)만큼 우측으로 변경시킴으로써 제1 픽셀 이동(A)이 수행될 수 있다. According to the control signal of the control unit 150 that changes the path of the infrared signal incident on the sensor unit 120 for the first pixel movement (A), the flow plate unit 140 changes the incident angle of the infrared signal. The first pixel movement (A) can be performed by changing the reference angle to the right by the first angle change amount (θx).

이후 각 픽셀(B1 내지 B4)은 픽셀 장면(S2)을 획득하고, 센서부(120)는 각 픽셀(B1 내지 B4)의 픽셀 신호로부터 제2 프레임(F2)을 생성할 수 있다.Thereafter, each pixel (B1 to B4) obtains a pixel scene (S2), and the sensor unit 120 may generate a second frame (F2) from the pixel signal of each pixel (B1 to B4).

제2 픽셀이동(B)을 위해 센서부(120)로 입사되는 적외선 신호의 경로를 변경시키도록 하는 제어부(150)의 제어 신호에 따라, 유동 플레이트부(140)는 상기 적외선 신호의 입사 각도를 제2 각도 변화량(θy)만큼 아래로 변경시킴으로써 제2 픽셀 이동(B)이 수행될 수 있다. 이후 각 픽셀(C1 내지 C4)은 픽셀 장면(S3)을 획득하여 센서부(120)는 각 픽셀(C1 내지 C4)의 픽셀 신호로부터 제3 프레임(F3)을 생성할 수 있다.According to the control signal of the control unit 150 that changes the path of the infrared signal incident on the sensor unit 120 for the second pixel movement (B), the flow plate unit 140 changes the incident angle of the infrared signal. The second pixel movement (B) can be performed by changing downward by the second angle change amount (θy). Thereafter, each pixel (C1 to C4) obtains a pixel scene (S3), and the sensor unit 120 can generate a third frame (F3) from the pixel signal of each pixel (C1 to C4).

제3 픽셀이동(C)을 위해 센서부(120)로 입사되는 적외선 신호의 경로를 변경시키도록 하는 제어부(150)의 제어 신호에 따라, 유동 플레이트부(140)는 상기 적외선 신호의 입사 각도를 제1 각도 변화량(θx)만큼 좌측으로 변경시킴으로써 제3 픽셀 이동(C)이 수행될 수 있다. 이후 각 픽셀(D1 내지 D4)은 픽셀 장면(S4)을 획득하여 센서부(120)는 각 픽셀(D1 내지 D4)의 픽셀 신호로부터 제4 프레임(F4)을 생성할 수 있다.According to the control signal of the control unit 150 to change the path of the infrared signal incident on the sensor unit 120 for the third pixel movement (C), the flow plate unit 140 changes the incident angle of the infrared signal. The third pixel movement (C) can be performed by changing to the left by the first angle change amount (θx). Thereafter, each pixel (D1 to D4) obtains a pixel scene (S4), and the sensor unit 120 can generate a fourth frame (F4) from the pixel signal of each pixel (D1 to D4).

제4 픽셀이동(D)을 위해 센서부(120)로 입사되는 적외선 신호의 경로를 변경시키도록 하는 제어부(150)의 제어 신호에 따라, 유동 플레이트부(140)는 상기 적외선 신호의 입사 각도를 제2 각도 변화량(θy)만큼 위로 변경시킴으로써 제4 픽셀 이동(D)이 수행될 수 있다. 이후 각 픽셀(A1 내지 A4)은 픽셀 장면(S1)을 획득하여 센서부(120)는 각 픽셀(A1 내지 A4)의 픽셀 신호로부터 제5 프레임(F5)을 생성할 수 있다. 이후로도 픽셀 이동 및 이동된 픽셀을 통한 프레임 생성 동작은 반복적으로 수행될 수 있다.According to the control signal of the control unit 150 to change the path of the infrared signal incident on the sensor unit 120 for the fourth pixel movement (D), the flow plate unit 140 changes the incident angle of the infrared signal. The fourth pixel movement (D) can be performed by changing the pixel upward by the second angle change amount (θy). Thereafter, each pixel (A1 to A4) obtains the pixel scene (S1), and the sensor unit 120 can generate the fifth frame (F5) from the pixel signal of each pixel (A1 to A4). Afterwards, pixel movement and frame creation operations using the moved pixels may be repeatedly performed.

여기서, 제1 각도 변화량(θx)과 제2 각도 변화량(θy) 각각은 0.5 PD 만큼 픽셀 이동이 이루어질 수 있도록, 센서부(120)로의 적외선 신호가 입사되는 입사 각도에 대응되는 정보가 저장되어 있을 수 있다.Here, the first angle change amount (θx) and the second angle change amount (θy) each store information corresponding to the angle of incidence at which the infrared signal is incident on the sensor unit 120 so that the pixel can be moved by 0.5 PD. You can.

이미지 합성부(130)는 센서부(120)로부터 영상 신호를 수신하고, 영상 신호를 처리(예컨대, 보간, 프레임 합성 등)하는 이미지 프로세서일 수 있다. 특히, 이미지 합성부(130)는 복수의 프레임의 영상 신호(저해상도)를 이용하여 하나의 프레임의 영상 신호(고해상도)로 합성할 수 있다. 복수의 이미지 프레임은 유동 플레이트부(140)에 의해 서로 다른 경로로 적외선 신호의 입사 경로가 변경됨에 따라 생성된 각각의 이미지 프레임일 수 있다. 복수의 이미지 프레임은 제1 이미지 프레임과 제2 이미지 프레임을 포함할 수 있고, 제2 이미지 프레임은 제1 이미지 프레임을 기준으로 제1 간격만큼 이동된 이미지 프레임일 수 있다.The image synthesis unit 130 may be an image processor that receives an image signal from the sensor unit 120 and processes the image signal (eg, interpolation, frame synthesis, etc.). In particular, the image synthesis unit 130 can synthesize an image signal (high resolution) of a single frame using multiple frames of image signals (low resolution). The plurality of image frames may be individual image frames generated as the incident path of the infrared signal is changed to different paths by the moving plate unit 140. The plurality of image frames may include a first image frame and a second image frame, and the second image frame may be an image frame moved by a first distance with respect to the first image frame.

이미지 합성부(130)는 제1 내지 제4 프레임을 합성함으로써 NxM의 픽셀 어레이가 아닌 2Nx2M의 픽셀 어레이가 획득한 이미지를 생성할 수 있다. 이미지 합성부(130)가 제1 내지 제4 프레임을 합성하는 방법은, 제1 내지 제4 프레임을 각 픽셀의 위치에 따라 단순 병합(예를 들어, 첫 번째 행의 경우 A1의 픽셀 신호, B1의 픽셀 신호, A2의 픽셀 신호, B2의 픽셀 신호로 배열하여 하나의 프레임으로 생성)하는 방법, 또는 인접하는 픽셀의 경우 픽셀 장면이 오버랩됨을 이용하여 어느 하나의 픽셀(예컨대, C1)의 픽셀 신호를 인접하는 픽셀(예컨대, A1, B1, A2, D1, D2, A3, B3, A4)의 픽셀 신호를 이용해 보정하는 방법 등이 이용될 수 있으나, 실시 예의 범위는 이에 한정되지 않고 다양한 초해상도 이미지 생성 방법이 이용될 수 있다. The image synthesis unit 130 may generate an image obtained by a 2Nx2M pixel array rather than an NxM pixel array by combining the first to fourth frames. The method for the image synthesis unit 130 to synthesize the first to fourth frames is to simply merge the first to fourth frames according to the position of each pixel (for example, in the case of the first row, the pixel signal of A1 and B1 a method of generating one frame by arranging the pixel signal of A2, the pixel signal of B2, or in the case of adjacent pixels, the pixel signal of one pixel (e.g., C1) by using the pixel scene overlap. A method of correcting using pixel signals of adjacent pixels (e.g., A1, B1, A2, D1, D2, A3, B3, A4) may be used, but the scope of the embodiment is not limited to this and various super-resolution images A creation method may be used.

또한, 이미지 합성부(130)는 센서부(120)로부터 전달된 제1 내지 제4 이미지 프레임을 이용하여 제1 초해상도 이미지 프레임을 합성하고, 이후 센서부(120)로부터 출력되는 제5 이미지 프레임 및 제2 내지 제4 이미지 프레임을 이용하여 제2 초해상도 이미지 프레임을 합성할 수 있다.In addition, the image synthesis unit 130 synthesizes a first super-resolution image frame using the first to fourth image frames transmitted from the sensor unit 120, and then a fifth image frame output from the sensor unit 120. And a second super-resolution image frame can be synthesized using the second to fourth image frames.

도 6과 도 7에 도시된 카메라 모듈의 동작 방법에 따르면, 픽셀 이동을 통해 획득한 복수의 프레임을 합성함으로써 4배의 해상도를 갖는 이미지를 생성할 수 있다.According to the operating method of the camera module shown in FIGS. 6 and 7, an image with four times the resolution can be generated by combining a plurality of frames obtained through pixel movement.

도 8은 일 실시 예에 따른 카메라 모듈의 동작 방법에 대한 타이밍도이다.Figure 8 is a timing diagram of a method of operating a camera module according to an embodiment.

도 8을 참조하면, 센서부(120)로 입사되는 적외선 신호의 경로를 변경시키도록 하는 제어부(150)의 제어 신호에 따라, 유동 플레이트부(140)는 상기 적외선 신호의 입사 각도를 제2 각도 변화량(θy)만큼 위로 변경시킴으로써 제4 픽셀 이동(D)을 수행할 수 있다. 실시 예에 따라, 제어부(150)가 상기 유동 플레이트부(140)의 제4 픽셀 이동(D)이 완료되었음을 나타내는 피드백 신호를 센서부(120)로 전달할 수 있다. 이때, 제어부(150)는 제4 픽셀 이동(D)이 완료되었음을 유동 플레이트부(140)로부터의 응답 신호 또는 별도의 타이머를 통해 판단할 수 있다. 피드백 신호를 수신한 센서부(120)의 각 픽셀(A1 내지 A4)은 픽셀 장면(S1)을 획득하고, 이에 따라 센서부(120)는 각 픽셀(A1 내지 A4)의 픽셀 신호로부터 제1 프레임(F1)을 생성할 수 있다.Referring to FIG. 8, according to a control signal from the control unit 150 to change the path of the infrared signal incident on the sensor unit 120, the flow plate unit 140 changes the incident angle of the infrared signal to a second angle. The fourth pixel movement (D) can be performed by changing the pixel upward by the amount of change (θy). Depending on the embodiment, the control unit 150 may transmit a feedback signal indicating that the fourth pixel movement (D) of the moving plate unit 140 has been completed to the sensor unit 120. At this time, the control unit 150 may determine that the fourth pixel movement (D) has been completed through a response signal from the moving plate unit 140 or a separate timer. Each pixel (A1 to A4) of the sensor unit 120 that receives the feedback signal acquires a pixel scene (S1), and accordingly, the sensor unit 120 generates a first frame from the pixel signal of each pixel (A1 to A4). (F1) can be generated.

이후, 센서부(120)로 입사되는 적외선 신호의 경로를 변경시키도록 하는 제어부(150)의 제어 신호에 따라, 유동 플레이트부(140)는 상기 적외선 신호의 입사 각도를 제1 각도 변화량(θx)만큼 우측으로 변경시킴으로써 제1 픽셀 이동(A)을 수행할 수 있다. 실시 예에 따라, 제어부(150)가 상기 유동 플레이트부(140)의 제1 픽셀 이동(A)이 완료되었음을 나타내는 피드백 신호를 센서부(120)로 전달할 수 있다. 이때, 제어부(150)는 제1 픽셀 이동(A)이 완료되었음을 유동 플레이트부(140)로부터의 응답 신호 또는 별도의 타이머를 통해 판단할 수 있다. 피드백 신호를 수신한 센서부(120)의 각 픽셀(B1 내지 B4)은 픽셀 장면(S2)을 획득하고, 이에 따라 센서부(120)는 각 픽셀(B1 내지 B4)의 픽셀 신호로부터 제2 프레임(F2)을 생성할 수 있다.Thereafter, according to a control signal from the control unit 150 to change the path of the infrared signal incident on the sensor unit 120, the flow plate unit 140 changes the incident angle of the infrared signal to a first angle change amount (θx). The first pixel movement (A) can be performed by changing the pixel to the right. Depending on the embodiment, the control unit 150 may transmit a feedback signal indicating that the first pixel movement (A) of the moving plate unit 140 has been completed to the sensor unit 120. At this time, the control unit 150 may determine that the first pixel movement (A) is completed through a response signal from the moving plate unit 140 or a separate timer. Each pixel (B1 to B4) of the sensor unit 120 that receives the feedback signal acquires a pixel scene (S2), and accordingly, the sensor unit 120 generates a second frame from the pixel signal of each pixel (B1 to B4). (F2) can be generated.

이후, 센서부(120)로 입사되는 적외선 신호의 경로를 변경시키도록 하는 제어부(150)의 제어 신호에 따라, 유동 플레이트부(140)는 상기 적외선 신호의 입사 각도를 제2 각도 변화량(θy)만큼 아래로 변경시킴으로써 제2 픽셀 이동(B)을 수행할 수 있다. 실시 예에 따라, 제어부(150)가 상기 유동 플레이트부(140)의 제2 픽셀 이동(B)이 완료되었음을 나타내는 피드백 신호를 센서부(120)로 전달할 수 있다. 이때, 제어부(150)는 제2 픽셀 이동(B)이 완료되었음을 유동 플레이트부(140)로부터의 응답 신호 또는 별도의 타이머를 통해 판단할 수 있다. 피드백 신호를 수신한 센서부(120)의 각 픽셀(C1 내지 C4)은 픽셀 장면(S3)을 획득하고, 이에 따라 센서부(120)는 각 픽셀(C1 내지 C4)의 픽셀 신호로부터 제3 프레임(F3)을 생성할 수 있다.Thereafter, according to a control signal from the control unit 150 to change the path of the infrared signal incident on the sensor unit 120, the flow plate unit 140 changes the incident angle of the infrared signal to a second angle change amount (θy). The second pixel movement (B) can be performed by changing the pixel downward. Depending on the embodiment, the control unit 150 may transmit a feedback signal indicating that the second pixel movement (B) of the moving plate unit 140 is completed to the sensor unit 120. At this time, the control unit 150 may determine that the second pixel movement (B) is completed through a response signal from the moving plate unit 140 or a separate timer. Each pixel (C1 to C4) of the sensor unit 120 that receives the feedback signal acquires a pixel scene (S3), and accordingly, the sensor unit 120 generates a third frame from the pixel signal of each pixel (C1 to C4). (F3) can be created.

이후, 센서부(120)로 입사되는 적외선 신호의 경로를 변경시키도록 하는 제어부(150)의 제어 신호에 따라, 유동 플레이트부(140)는 상기 적외선 신호의 입사 각도를 제1 각도 변화량(θx)만큼 좌측으로 변경시킴으로써 제3 픽셀 이동(C)을 수행할 수 있다. 실시 예에 따라, 제어부(150)가 상기 유동 플레이트부(140)의 제3 픽셀 이동(C)이 완료되었음을 나타내는 피드백 신호를 센서부(120)로 전달할 수 있다. 이때, 제어부(150)는 제3 픽셀 이동(C)이 완료되었음을 유동 플레이트부(140)로부터의 응답 신호 또는 별도의 타이머를 통해 판단할 수 있다. 피드백 신호를 수신한 센서부(120)의 각 픽셀(D1 내지 D4)은 픽셀 장면(S4)을 획득하고, 이에 따라 센서부(120)는 각 픽셀(D1 내지 D4)의 픽셀 신호로부터 제3 프레임(F4)을 생성할 수 있다.Thereafter, according to a control signal from the control unit 150 to change the path of the infrared signal incident on the sensor unit 120, the flow plate unit 140 changes the incident angle of the infrared signal to a first angle change amount (θx). The third pixel movement (C) can be performed by changing the pixel to the left by that amount. Depending on the embodiment, the control unit 150 may transmit a feedback signal indicating that the third pixel movement (C) of the moving plate unit 140 has been completed to the sensor unit 120. At this time, the control unit 150 may determine that the third pixel movement (C) has been completed through a response signal from the moving plate unit 140 or a separate timer. Each pixel (D1 to D4) of the sensor unit 120 that receives the feedback signal acquires a pixel scene (S4), and accordingly, the sensor unit 120 generates a third frame from the pixel signal of each pixel (D1 to D4). (F4) can be created.

이후, 센서부(120)로 입사되는 적외선 신호의 경로를 변경시키도록 하는 제어부(150)의 제어 신호에 따라, 유동 플레이트부(140)는 상기 적외선 신호의 입사 각도를 제2 각도 변화량(θy)만큼 위로 변경시킴으로써 제4 픽셀 이동(D)을 수행할 수 있다. 실시 예에 따라, 제어부(150)가 상기 유동 플레이트부(140)의 제4 픽셀 이동(D)이 완료되었음을 나타내는 피드백 신호를 센서부(120)로 전달할 수 있다. 이때, 제어부(150)는 제4 픽셀 이동(D)이 완료되었음을 유동 플레이트부(140)로부터의 응답 신호 또는 별도의 타이머를 통해 판단할 수 있다. 피드백 신호를 수신한 센서부(120)의 각 픽셀(A1 내지 A4)은 픽셀 장면(S1)을 획득하고, 이에 따라 센서부(120)는 각 픽셀(A1 내지 A4)의 픽셀 신호로부터 제5 프레임(F5)을 생성할 수 있다. 이후로도 픽셀 이동 및 이동된 픽셀을 통한 프레임 생성 동작은 반복적으로 수행될 수 있다.Thereafter, according to a control signal from the control unit 150 to change the path of the infrared signal incident on the sensor unit 120, the flow plate unit 140 changes the incident angle of the infrared signal to a second angle change amount (θy). The fourth pixel movement (D) can be performed by changing the pixel upward by the amount. Depending on the embodiment, the control unit 150 may transmit a feedback signal indicating that the fourth pixel movement (D) of the moving plate unit 140 has been completed to the sensor unit 120. At this time, the control unit 150 may determine that the fourth pixel movement (D) has been completed through a response signal from the moving plate unit 140 or a separate timer. Each pixel (A1 to A4) of the sensor unit 120 that receives the feedback signal acquires a pixel scene (S1), and accordingly, the sensor unit 120 generates a fifth frame from the pixel signal of each pixel (A1 to A4). (F5) can be created. Afterwards, pixel movement and frame creation operations using the moved pixels may be repeatedly performed.

도 9는 일 실시 예에 따른 카메라 모듈의 프레임 합성 방법의 일 예를 나타낸 도면이다.Figure 9 is a diagram illustrating an example of a method for combining frames of a camera module according to an embodiment.

도 9를 참조하면, 센서부(120)가 순차적인 픽셀 이동(A 내지 D)에 따라 제1 내지 제7 프레임(F1 내지 F7)을 순차적으로 생성한다고 가정한다.Referring to FIG. 9, it is assumed that the sensor unit 120 sequentially generates first to seventh frames (F1 to F7) according to sequential pixel movements (A to D).

이미지 합성부(130)는 순차적으로 프레임들을 입력받아 초해상도(SR) 이미지 합성을 통해 초해상도 이미지인 합성 프레임을 생성할 수 있다.The image synthesis unit 130 may sequentially receive frames and generate a composite frame that is a super-resolution image through super-resolution (SR) image synthesis.

이때, 도 9에 도시된 바와 같이, 이미지 합성부(130)는 제1 내지 제4 프레임(F1 내지 F4)을 입력받아 제1 합성 프레임(F1')을 생성할 수 있다. 이후, 이미지 합성부(130)는 제2 내지 제5 프레임(F2 내지 F5)을 입력받아 제2 합성 프레임(F2')을 생성할 수 있다. 이후, 이미지 합성부(30130)는 제3 내지 제6 프레임(F3 내지 F6)을 입력받아 제3 합성 프레임(F3')을 생성할 수 있다. 이후, 이미지 합성부(130)는 제4 내지 제7 프레임(F4 내지 F7)을 입력받아 초해상도 이미지 생성 알고리즘을 통해 제4 합성 프레임(F4')을 생성할 수 있다. 이때, 상기 제1 내지 제4 합성 프레임(F1' 내지 F4')를 생성하는 동작은 상기 설명한 이미지 생성부(132)에 의해 수행될 수 있다. 이때, 상기와 같은 합성 프레임을 생성하기 이전에 상기 제1 내지 제4 이미지 프레임에 대해 가우시안 필터를 적용한 전처리를 진행할 수 있다. 또한, 상기와 같은 합성 프레임이 생성된 이후에 라플라시안 필터를 적용한 후처리를 진행할 수 있다. 따라서, 이미지 합성부(130)를 통해 최종적으로 출력되는 상기 제1 내지 제4 합성 프레임(F1' 내지 F4')은 상기 후처리 필터부(133)의 필터링을 거친 이미지 프레임일 수 있다. At this time, as shown in FIG. 9, the image synthesis unit 130 may receive the first to fourth frames F1 to F4 and generate the first composite frame F1'. Thereafter, the image synthesis unit 130 may receive the second to fifth frames F2 to F5 and generate a second composite frame F2'. Thereafter, the image synthesis unit 30130 may receive the third to sixth frames F3 to F6 and generate a third composite frame F3'. Thereafter, the image synthesis unit 130 may receive the fourth to seventh frames F4 to F7 and generate the fourth composite frame F4' through a super-resolution image generation algorithm. At this time, the operation of generating the first to fourth composite frames F1' to F4' may be performed by the image generator 132 described above. At this time, before generating the above composite frame, preprocessing may be performed by applying a Gaussian filter to the first to fourth image frames. Additionally, after the above-mentioned composite frame is generated, post-processing by applying a Laplacian filter can be performed. Accordingly, the first to fourth composite frames (F1' to F4') that are finally output through the image synthesis unit 130 may be image frames that have undergone filtering by the post-processing filter unit 133.

여기서, 이미지 합성부(130)는 센서부(120)로부터 제1 내지 제7 프레임(F1 내지 F7)을 순차적으로 수신하고, 합성 프레임 생성을 위해 현재 입력되는 프레임의 직전 3개의 프레임을 저장할 수 있다. 실시 예에 따라, 프레임을 저장하는 버퍼는 적어도 3개의 프레임을 저장할 수 있는 저장 용량을 가질 수 있다.Here, the image synthesis unit 130 sequentially receives the first to seventh frames (F1 to F7) from the sensor unit 120, and can store the three frames immediately preceding the currently input frame to generate the composite frame. . Depending on the embodiment, a buffer storing frames may have a storage capacity capable of storing at least three frames.

만일, 제1 내지 제4 프레임을 이용해 합성 프레임을 생성하고, 이후 제5 내지 제8 프레임을 이용해 합성 프레임을 생성한다면, 원래의 프레임 레이트(frame rate)보다 1/4로 줄어들게 된다. 그러나, 실시 예에 따른 방식과 같이 순차적으로 입력되는 현재 프레임 및 현재 프레임 직전의 3개의 프레임을 이용해 연속적으로 합성 프레임을 생성함으로써, 프레임 레이트의 저하를 방지할 수 있다.If a composite frame is created using the first to fourth frames and then a composite frame is created using the fifth to eighth frames, the original frame rate is reduced to 1/4. However, by continuously generating composite frames using the current frame and the three frames immediately preceding the current frame that are input sequentially, as in the method according to the embodiment, a decrease in frame rate can be prevented.

본 실시 예에서는 4 번의 픽셀 이동을 통해 4배의 해상도를 갖는 초해상도 이미지를 생성하는 방식에 대해 설명하였으나, 본 발명의 범위는 이에 한정되지 않고 다른 방식의 픽셀 이동을 통해 더 높은 해상도를 갖는 초해상도 이미지를 생성할 수 있다.In this embodiment, a method of generating a super-resolution image with 4 times the resolution through four pixel movements has been described, but the scope of the present invention is not limited to this and a super-resolution image with higher resolution through another method of pixel movement has been described. High-resolution images can be created.

이하, 전술한 카메라 모듈(100)에서 수행되는 초 해상도 이미지 생성 방법을 첨부된 다음과 같이 살펴본다.Hereinafter, the super-resolution image generation method performed in the above-described camera module 100 will be described as follows.

초 해상도 이미지 생성 방법은, 제1 이미지 프레임을 출력하는 단계, 제1 이미지 프레임에서 제1 방향으로 제1 거리만큼 이동된 제2 이미지 프레임을 생성하는 단계, 제2 이미지 프레임에서 제2 방향으로 제1 거리만큼 이동된 제3 이미지 프레임을 생성하는 단계, 제3 이미지 프레임에서 제3 방향으로 제1 거리만큼 이동된 제4 이미지 프레임을 생성하는 단계, 및 제1 이미지 프레임 내지 제4 이미지 프레임을 합성하여 합성 이미지를 생성하는 단계를 포함할 수 있다. 이러한 방법을 통해 생성된 합성 이미지는 복수의 이미지 프레임보다 높은 해상도를 가질 수 있다.The method for generating a super-resolution image includes outputting a first image frame, generating a second image frame moved by a first distance in a first direction from the first image frame, and generating a second image frame in a second direction from the second image frame. Generating a third image frame shifted by 1 distance, generating a fourth image frame shifted by a first distance in a third direction in the third image frame, and synthesizing the first to fourth image frames. This may include generating a composite image. A composite image created through this method may have a higher resolution than multiple image frames.

실시 예에 따른 카메라 모듈(100)에 의하면, 초해상도 이미지를 얻기 위해 요구되는 높은 연산량을, 센서부(120)로 입사되는 적외선 신호에 대한 입사 각도를 변경시키는 유동 플레이트부(140)를 이용하여 하드웨어적으로 해결할 수 있다.According to the camera module 100 according to the embodiment, the high computational amount required to obtain a super-resolution image is achieved by using the flow plate unit 140 that changes the angle of incidence for the infrared signal incident on the sensor unit 120. This can be solved with hardware.

또한, 순차적으로 입력되는 현재 프레임에 대해 연속적으로 합성 프레임을 생성함으로써, 프레임 레이트의 저하를 방지할 수 있다.Additionally, by continuously generating composite frames for the current frames that are sequentially input, it is possible to prevent frame rate deterioration.

이하에서는 실시 예에 따라 생성되는 각각의 이미지 프레임에 대해 설명하기로 한다.Hereinafter, each image frame generated according to the embodiment will be described.

도 10은 실시 예에 따른 센서부를 통해 생성된 이미지 프레임을 나타낸 도면이다. 도 11은 실시 예에 따른 전처리 필터부에서 필터링된 이미지 프레임을 나타낸 도면이다. 도 12는 실시 예에 따른 이미지 생성부에서 생성된 초해상도 이미지 프레임을 나타낸 도면이다. 도 13은 실시 예에 따른 후처리 필터부에서 필터링된 이미지 프레임을 나타낸 도면이다. Figure 10 is a diagram showing an image frame generated through a sensor unit according to an embodiment. Figure 11 is a diagram showing an image frame filtered in a pre-processing filter unit according to an embodiment. Figure 12 is a diagram showing a super-resolution image frame generated by an image generator according to an embodiment. Figure 13 is a diagram showing an image frame filtered in a post-processing filter unit according to an embodiment.

도 10을 참조하면, 센서부(120)는 상기 유동 플레이트부(140)의 픽셀 이동에 따라 순차적으로 입사되는 적외선 신호에 대한 이미지 프레임을 생성할 수 있다.Referring to FIG. 10, the sensor unit 120 may generate an image frame for sequentially incident infrared signals according to pixel movement of the moving plate unit 140.

즉, 센서부(120)는 유동 플레이트부(140)의 제1 위치에서의 제1 이미지 프레임(F1)을 생성할 수 있다. 이후, 센서부(120)는 유동 플레이트부(140)의 제2 위치에서의 제2 이미지 프레임(F2)을 생성할 수 있다. 센서부(120)는 유동 플레이트부(140)의 제3 위치에서의 제3 이미지 프레임(F3)을 생성할 수 있다. 센서부(120)는 유동 플레이트부(140)의 제4 위치에서의 제4 이미지 프레임(F4)을 생성할 수 있다. 이때, 상기 제1 내지 제4 이미지 프레임 각각은 시차가 서로 다른 이미지이다. That is, the sensor unit 120 may generate the first image frame F1 at the first position of the flow plate unit 140. Thereafter, the sensor unit 120 may generate a second image frame F2 at the second position of the flow plate unit 140. The sensor unit 120 may generate a third image frame F3 at the third position of the flow plate unit 140. The sensor unit 120 may generate a fourth image frame F4 at the fourth position of the flow plate unit 140. At this time, each of the first to fourth image frames is an image with a different parallax.

도 11을 참조하면, 전처리 필터부(131)는 상기 센서부(260)를 통해 획득된 제1 내지 제4 이미지 프레임에 대해 각각 전처리를 진행할 수 있다. 즉, 전처리 필터부(131)는 상기 센서부(120)를 통해 획득된 제1 내지 제4 이미지 프레임에 대해 가우시안 필터링을 진행할 수 있다. 이를 위해, 전처리 필터부(131)는 가우시안 필터를 포함할 수 있다. Referring to FIG. 11, the pre-processing filter unit 131 may perform pre-processing on the first to fourth image frames obtained through the sensor unit 260, respectively. That is, the pre-processing filter unit 131 may perform Gaussian filtering on the first to fourth image frames obtained through the sensor unit 120. For this purpose, the preprocessing filter unit 131 may include a Gaussian filter.

여기에서, 가우시안 필터링(Gaussian Filtering)이란, 원본 영상을 흐리게 해주는 필터링 기법을 말하는 것으로서, 포토샵 같은 영상 애플리케이션 툴 등에서 사용되는 영상 흐림 기법(Blur Filtering)을 말한다. 가우시안 필터링을 거치게 되면, 영상의 주파수 중에서 저주파와 고주파를 통과되지 않게 되어 영상이 뿌옇게 보이게 된다. 즉, 전처리 필터부(131)는 상기 센서부(120)를 통해 획득된 제1 내지 제4 이미지 프레임의 고주파 영역을 무너뜨려 블러링 효과를 적용함으로써, 상기 제1 내지 제4 이미지 프레임에 포함된 노이즈를 제거하도록 한다.Here, Gaussian Filtering refers to a filtering technique that blurs the original image, and refers to an image blurring technique (Blur Filtering) used in image application tools such as Photoshop. When Gaussian filtering is performed, low and high frequencies among the frequencies of the image are not passed through, making the image appear blurry. That is, the pre-processing filter unit 131 applies a blurring effect by breaking down the high-frequency region of the first to fourth image frames obtained through the sensor unit 120, thereby applying a blurring effect to the first to fourth image frames included in the first to fourth image frames. Try to remove noise.

이때, 실시 예에서와 같은, 열화상 카메라를 통해 획득된 이미지 프레임에 대해 가우시안 필터링을 적용하는 경우, 이의 제어 팩터 설정이 중요한 요소로 작용하게 된다. 여기에서, 제어 팩터는 가우시안 필터에서 가우시안 블러를 이루는 가우시안 분포의 넓이 변수를 의미하는 σ(시그마) 값을 포함할 수 있다. 이때, 상기 시그마 값에 기반하여 이미지 합성부(130)에서 최종 출력되는 이미지의 화질이 크게 변화할 수 있다. At this time, when Gaussian filtering is applied to an image frame acquired through a thermal imaging camera, as in the embodiment, the control factor setting becomes an important factor. Here, the control factor may include a σ (sigma) value, which means the area variable of the Gaussian distribution that forms Gaussian blur in the Gaussian filter. At this time, the image quality of the image finally output from the image synthesis unit 130 may change significantly based on the sigma value.

이에 따라, 실시 예에서는 상기 전처리 필터부(131)를 구성하는 가우시안 필터의 제어 팩터를 구성하는 시그마 값이 0.1보다는 크면서 1보다는 작도록 한다.Accordingly, in the embodiment, the sigma value constituting the control factor of the Gaussian filter constituting the pre-processing filter unit 131 is set to be greater than 0.1 and less than 1.

이때, 상기 시그마 값에 따라 상기 제1 내지 제4 이미지 프레임의 블러링 정도가 변화한다. 여기에서, 상기 시그마 값이 1보다 크게 되면, 상기 블러링의 정도가 심하게 되어, 이에 따른 열화상 이미지에 해당하는 제1 내지 제4 이미지 프레임 내에서의 경계가 무너지게 된다. 또한, 상기 시그마 값이 0.1보다 작으면 상기 제1 내지 제4 이미지 프레임에서의 블러링 정도가 너무 작아짐에 따라 노이즈가 정상적으로 제거되지 않을 수 있다. 따라서, 열화상 이미지에 대응하는 제1 내지 제4 이미지 프레임의 전처리를 위한 가우시안 필터링에서는, 제어 팩터에 해당하는 시그마 값을 0.1보다는 크고, 1보다는 작게 설정하도록 한다.At this time, the degree of blurring of the first to fourth image frames changes depending on the sigma value. Here, when the sigma value is greater than 1, the degree of blurring becomes severe, and the boundaries within the first to fourth image frames corresponding to the thermal image accordingly collapse. Additionally, if the sigma value is less than 0.1, the degree of blurring in the first to fourth image frames becomes too small and noise may not be removed properly. Therefore, in Gaussian filtering for preprocessing of the first to fourth image frames corresponding to the thermal image, the sigma value corresponding to the control factor is set to be greater than 0.1 and less than 1.

이후, 도 12를 참조하면, 이미지 생성부(132)는 상기 전처리 필터부(131)를 통해 가우시안 필터링된 제1 내지 제4 이미지 프레임을 합성하여 합성 프레임을 생성한다. Next, referring to FIG. 12, the image generator 132 generates a composite frame by synthesizing the first to fourth image frames that have been Gaussian filtered through the pre-processing filter unit 131.

이미지 생성부(132)는 상기 가우시안 필터링된 제1 내지 제4 프레임을 합성함으로써 NxM의 픽셀 어레이가 아닌 2Nx2M의 픽셀 어레이가 획득한 이미지를 생성할 수 있다. 이미지 생성부(132)가 제1 내지 제4 프레임을 합성하는 방법은, 제1 내지 제4 프레임을 각 픽셀의 위치에 따라 단순 병합(예를 들어, 첫 번째 행의 경우 A1의 픽셀 신호, B1의 픽셀 신호, A2의 픽셀 신호, B2의 픽셀 신호로 배열하여 하나의 프레임으로 생성)하는 방법, 또는 인접하는 픽셀의 경우 픽셀 장면이 오버랩됨을 이용하여 어느 하나의 픽셀(예컨대, C1)의 픽셀 신호를 인접하는 픽셀(예컨대, A1, B1, A2, D1, D2, A3, B3, A4)의 픽셀 신호를 이용해 보정하는 방법 등이 이용될 수 있으나, 실시 예의 범위는 이에 한정되지 않고 다양한 초해상도 이미지 생성 방법이 이용될 수 있다. The image generator 132 may generate an image obtained by a 2Nx2M pixel array rather than an NxM pixel array by combining the Gaussian filtered first to fourth frames. The method for the image generator 132 to synthesize the first to fourth frames is to simply merge the first to fourth frames according to the position of each pixel (for example, in the case of the first row, the pixel signal of A1 and B1 a method of generating one frame by arranging the pixel signal of A2, the pixel signal of B2, or in the case of adjacent pixels, the pixel signal of one pixel (e.g., C1) by using the pixel scene overlap. A method of correcting using pixel signals of adjacent pixels (e.g., A1, B1, A2, D1, D2, A3, B3, A4) may be used, but the scope of the embodiment is not limited to this and various super-resolution images A creation method may be used.

또한, 이미지 생성부(132)는 전처리 필터부(131)로부터 필터링된 제1 내지 제4 이미지 프레임을 이용하여 제1 초해상도 이미지 프레임을 합성하고, 이후 전처리 필터부(131)를 통해 필터링된 제5 이미지 프레임 및 제2 내지 제4 이미지 프레임을 이용하여 제2 초해상도 이미지 프레임을 합성할 수 있다.In addition, the image generator 132 synthesizes a first super-resolution image frame using the first to fourth image frames filtered by the pre-processing filter unit 131, and then synthesizes the first super-resolution image frame using the first to fourth image frames filtered through the pre-processing filter unit 131. A second super-resolution image frame can be synthesized using the 5 image frame and the second to fourth image frames.

이후, 도 13을 참조하면, 후처리 필터부(133)는 이미지 생성부(132)를 통해 생성된 초해상도 이미지 프레임에 대해 후처리를 진행한다. Next, referring to FIG. 13, the post-processing filter unit 133 performs post-processing on the super-resolution image frame generated through the image generating unit 132.

바람직하게, 후처리 필터부(133)는 상기 이미지 생성부(132)를 통해 생성된 초해상도 이미지 프레임에 대해 라플라시안 필터링을 진행한다.Preferably, the post-processing filter unit 133 performs Laplacian filtering on the super-resolution image frame generated through the image generating unit 132.

즉, 이미지 생성부(132)를 통해 초해상도 이미지 프레임이 생성되면, 후처리 필터부(133)를 라플라시안 필터링을 진행하여, 상기 초해상도 이미지 프레임에 대해 에지를 선명화하는 이미지 후처리를 진행할 수 있다. That is, when a super-resolution image frame is generated through the image generator 132, Laplacian filtering is performed in the post-processing filter unit 133, and image post-processing to sharpen the edges of the super-resolution image frame can be performed. there is.

바람직하게, 상기 후처리 필터부(133)는 라플라시안 필터를 포함할 수 있다. 이때, 라플라시안 필터는 일정 마스크 사이즈 내에서 필터링을 진행할 수 있다. 여기에서, 라플라시안 필터의 마스크 사이즈는 3*3 또는 5*5일 수 있다.Preferably, the post-processing filter unit 133 may include a Laplacian filter. At this time, the Laplacian filter can perform filtering within a certain mask size. Here, the mask size of the Laplacian filter may be 3*3 or 5*5.

이에 따르면, 실시 예에서는 상기 이미지 합성부(130)의 동작 없이, 상기 센서부(260)가 가지는 분해능을 가지고 80*60급의 이미지를 제공할 수 있다. According to this, in the embodiment, an 80*60 level image can be provided with the resolution of the sensor unit 260 without the operation of the image synthesis unit 130.

반면, 이미지 합성부(130)를 통해 이미지 합성을 거친 초해상도 이미지는, 320*240급의 이미지일 수 있으며, 이에 따라 센서부(260)의 물리적 분해능보다 높은 초해상도를 갖는 이미지를 제공할 수 있다.On the other hand, the super-resolution image that has undergone image synthesis through the image synthesis unit 130 may be a 320*240 image, and thus an image with a higher super-resolution than the physical resolution of the sensor unit 260 can be provided. there is.

실시 예에 의하면, 이미지 센서의 픽셀 수를 증가시키지 않고도 초고해상도의 이미지를 얻을 수 있다. 즉, 실시 예에서는 광 경로를 변경시키는 필터 액추에이터를 이용하여 1픽셀의 절반(0.5)만큼 쉬프트된 다수의 어레이 데이터를 이용하므로, 이미지 센서의 물리적 분해능보다 높은 초해상도를 갖는 이미지를 얻을 수 있다.According to an embodiment, an ultra-high resolution image can be obtained without increasing the number of pixels of the image sensor. That is, in the embodiment, a plurality of array data shifted by half (0.5) of one pixel is used using a filter actuator that changes the optical path, so an image with a super-resolution higher than the physical resolution of the image sensor can be obtained.

또한, 실시 예에 의하면, 순차적으로 입력되는 현재 프레임에 대해 연속적으로 합성 프레임을 생성함으로써, 프레임 레이트의 저하를 방지할 수 있다.Additionally, according to an embodiment, a decrease in frame rate can be prevented by continuously generating composite frames for sequentially input current frames.

실시 예와 관련하여 전술한 바와 같이 몇 가지만을 기술하였지만, 이외에도 다양한 형태의 실시가 가능하다. 앞서 설명한 실시 예들의 기술적 내용들은 서로 양립할 수 없는 기술이 아닌 이상은 다양한 형태로 조합될 수 있으며, 이를 통해 새로운 실시형태로 구현될 수도 있다.Although only a few examples have been described as described above, various other forms of implementation are possible. The technical contents of the above-described embodiments can be combined in various forms unless they are incompatible technologies, and through this, can be implemented as a new embodiment.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It is obvious to those skilled in the art that the present invention can be embodied in other specific forms without departing from the spirit and essential features of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (12)

외부로부터 입사되는 광을 통과시키는 렌즈부;
상기 렌즈부를 통해 통과된 광으로부터 가시광 대역의 광을 차단하고 적외선 대역의 광을 통과시키며, 상기 적외선 대역의 광에 대한 적외선 신호의 경로를 조절하는 유동 플레이트부;
상기 유동 플레이트부를 통과한 적외선 신호를 이용하여 복수의 이미지 프레임을 생성하는 센서부;
상기 유동 플레이트부를 제어하여 상기 센서부로 입사되는 상기 적외선 신호의 경로가 조절되도록 하는 제어부; 및
상기 센서부를 통해 생성된 복수의 이미지 프레임을 합성하여 합성 이미지를 생성하는 이미지 합성부를 포함하고,
상기 센서부는,
상기 유동 플레이트부의 위치에 기반하여 시차가 서로 다른 복수의 이미지 프레임을 생성하고,
상기 이미지 합성부는,
상기 시차가 서로 다른 복수의 이미지 프레임을 합성하여, 상기 복수의 이미지 프레임보다 높은 해상도를 가지는 상기 합성 이미지를 생성하며,
상기 유동 플레이트부는,
상기 렌즈부를 통과한 광으로부터 가시광 대역의 광을 차단하고 적외선 대역의 광을 통과시키는 필터부; 및
상기 제어부의 제어에 따라 상기 필터부의 배치 각도를 변경시켜 상기 센서부로 입사되는 적외선 신호의 경로가 조절되도록 하는 액추에이터를 포함하는
카메라 모듈.
a lens unit that passes light incident from the outside;
a flow plate unit that blocks light in the visible light band from light passing through the lens unit, passes light in the infrared band, and adjusts the path of an infrared signal for the light in the infrared band;
a sensor unit that generates a plurality of image frames using infrared signals passing through the moving plate unit;
a control unit that controls the flow plate unit to adjust the path of the infrared signal incident on the sensor unit; and
An image synthesis unit that generates a composite image by combining a plurality of image frames generated through the sensor unit,
The sensor unit,
Generating a plurality of image frames with different parallaxes based on the position of the moving plate unit,
The image synthesis unit,
Combining a plurality of image frames with different parallaxes to generate the composite image having a higher resolution than the plurality of image frames,
The moving plate part,
a filter unit that blocks light in the visible light band and passes light in the infrared band from the light passing through the lens unit; and
An actuator that changes the arrangement angle of the filter unit under the control of the control unit to adjust the path of the infrared signal incident on the sensor unit.
Camera module.
제1항에 있어서,
상기 복수 개의 이미지 프레임은,
제1 및 제2 이미지 프레임을 포함하고,
상기 제2 이미지 프레임은,
상기 제1 이미지 프레임을 기준으로 상기 적외선 신호가 제1 픽셀 간격만큼 이동된 이미지 프레임이며,
상기 제1 픽셀 간격은,
이웃하는 픽셀의 중심 간의 거리의 1/2인
카메라 모듈.
According to paragraph 1,
The plurality of image frames are,
comprising first and second image frames,
The second image frame is,
An image frame in which the infrared signal is moved by a first pixel interval based on the first image frame,
The first pixel spacing is,
1/2 the distance between the centers of neighboring pixels
Camera module.
제1항에 있어서,
상기 복수 개의 이미지 프레임은,
상기 센서부를 통해 순차적으로 생성되는 제1 내지 제4 이미지 프레임을 포함하고,
상기 제1 이미지 프레임은,
상기 제4 이미지 프레임을 기준으로 상기 적외선 신호가 제1 방향으로 제1 픽셀 간격만큼 이동된 이미지 프레임이고,
상기 제2 이미지 프레임은,
상기 제1 이미지 프레임을 기준으로 상기 적외선 신호가 제2 방향으로 제1 픽셀 간격만큼 이동된 이미지 프레임이고,
상기 제3 이미지 프레임은,
상기 제2 이미지 프레임을 기준으로 상기 적외선 신호가 제3 방향으로 제1 픽셀 간격만큼 이동된 이미지 프레임이고,
상기 제4 이미지 프레임은,
상기 제3 이미지 프레임을 기준으로 상기 적외선 신호가 제4 방향으로 제1 픽셀 간격만큼 이동된 이미지 프레임이며,
상기 이미지 합성부는,
상기 제1 내지 제4 이미지 프레임을 이용하여 제1 합성 이미지를 생성하는
카메라 모듈.
According to paragraph 1,
The plurality of image frames are,
Includes first to fourth image frames sequentially generated through the sensor unit,
The first image frame is,
An image frame in which the infrared signal is moved by a first pixel interval in a first direction based on the fourth image frame,
The second image frame is,
An image frame in which the infrared signal is moved by a first pixel interval in a second direction based on the first image frame,
The third image frame is,
An image frame in which the infrared signal is moved by a first pixel interval in a third direction based on the second image frame,
The fourth image frame is,
An image frame in which the infrared signal is moved by a first pixel interval in a fourth direction based on the third image frame,
The image synthesis unit,
Generating a first composite image using the first to fourth image frames
Camera module.
제3항에 있어서,
상기 복수 개의 이미지 프레임은,
상기 제4 이미지 프레임 이후에 생성된 제5 이미지 프레임을 포함하고,
상기 이미지 합성부는,
상기 제 2 내지 제5 이미지 프레임을 이용하여 제2 합성 이미지를 생성하는
카메라 모듈.
According to paragraph 3,
The plurality of image frames are,
Includes a fifth image frame generated after the fourth image frame,
The image synthesis unit,
Generating a second composite image using the second to fifth image frames
Camera module.
제1항에 있어서,
상기 이미지 합성부는,
상기 센서부를 통해 생성된 복수 개의 이미지 프레임을 가우시안 필터링하는 전처리 필터부;
상기 전처리 필터부를 통해 필터링된 복수 개의 이미지 프레임을 합성하여 합성 이미지를 생성하는 이미지 생성부; 및
상기 이미지 생성부를 통해 생성된 합성 이미지를 라플라시안 필터링하는 후처리 필터부를 포함하는
카메라 모듈.
According to paragraph 1,
The image synthesis unit,
a pre-processing filter unit that performs Gaussian filtering on a plurality of image frames generated through the sensor unit;
an image generator that generates a composite image by combining a plurality of image frames filtered through the pre-processing filter unit; and
A post-processing filter unit that performs Laplacian filtering on the composite image generated through the image generator.
Camera module.
제5항에 있어서,
상기 전처리 필터부는,
0.1보다 크고, 1보다 작은 범위 내에서의 시그마 값을 적용하여 상기 복수 개의 이미지 프레임을 가우시안 필터링하는
카메라 모듈.
According to clause 5,
The pre-processing filter unit,
Gaussian filtering of the plurality of image frames by applying a sigma value within a range greater than 0.1 and less than 1.
Camera module.
제 5항에 있어서,
상기 후처리 필터부는,
3*3 또는 5*5 사이즈의 마스크를 적용하여 상기 합성 이미지를 라플라시안 필터링하는
카메라 모듈.
According to clause 5,
The post-processing filter unit,
Laplacian filtering of the composite image by applying a mask of size 3*3 or 5*5
Camera module.
렌즈부와 센서부 사이에 배치된 필터부를 구비한 유동 플레이트부를 제1 위치로 이동시키는 단계를 포함하고, 상기 필터부는 상기 렌즈부를 통과한 광으로부터 가시광 대역의 광을 차단하고 적외선 대역의 광을 상기 센서부로 통과시키도록 상기 렌즈부와 상기 센서부 사이에 구비되며,
상기 유동 플레이트부가 상기 제1 위치에 위치한 상태에서, 상기 센서부로 입사되는 적외선 신호를 이용하여 제1 이미지 프레임을 생성하는 단계;
상기 유동 플레이트부를 제2 위치로 이동시키는 단계;
상기 제1 이미지 프레임에서 제1 방향으로 제1 거리만큼 이동된 제2 이미지 프레임을 생성하는 단계;
상기 유동 플레이트부를 제3 위치로 이동시키는 단계;
상기 제2 이미지 프레임에서 제2 방향으로 상기 제1 거리만큼 이동된 제3 이미지 프레임을 생성하는 단계
상기 유동 플레이트부를 제4 위치로 이동시키는 단계;
상기 제3 이미지 프레임에서 제3 방향으로 상기 제1 거리만큼 이동된 제4 이미지 프레임을 생성하는 단계; 및
상기 제1 내지 제4 이미지 프레임을 합성하여 제1 합성 이미지를 생성하는 단계를 포함하고,
상기 제1 합성 이미지는,
상기 제1 내지 제4 이미지 프레임의 해상도보다 높은 해상도를 가지는
이미지 생성 방법.
A step of moving a moving plate unit having a filter unit disposed between a lens unit and a sensor unit to a first position, wherein the filter unit blocks light in the visible light band from light passing through the lens unit and transmits light in the infrared band. It is provided between the lens unit and the sensor unit to pass through the sensor unit,
With the moving plate unit positioned at the first position, generating a first image frame using an infrared signal incident on the sensor unit;
moving the moving plate unit to a second position;
generating a second image frame shifted from the first image frame by a first distance in a first direction;
moving the moving plate unit to a third position;
Generating a third image frame shifted from the second image frame by the first distance in a second direction.
moving the moving plate unit to a fourth position;
generating a fourth image frame shifted from the third image frame by the first distance in a third direction; and
Generating a first composite image by synthesizing the first to fourth image frames,
The first composite image is,
Having a higher resolution than the resolution of the first to fourth image frames
How to create an image.
제8항에 있어서,
상기 제4 이미지 프레임이 생성된 이후에, 상기 유동 플레이트부를 상기 제1 위치로 재이동시키는 단계;
상기 제4 이미지 프레임에서 제4 방향으로 상기 제1 거리만큼 이동된 제5 이미지 프레임을 생성하는 단계; 및
상기 제2 내지 제5 이미지 프레임을 이용하여 제2 합성 이미지를 생성하는 단계를 포함하는
이미지 생성 방법.
According to clause 8,
After the fourth image frame is generated, re-moving the moving plate unit to the first position;
generating a fifth image frame shifted from the fourth image frame by the first distance in a fourth direction; and
Comprising generating a second composite image using the second to fifth image frames.
How to create an image.
제9항에 있어서,
상기 제1 합성 이미지를 생성하기 전에 상기 제1 내지 제4 이미지 프레임을 가우시안 필터링하는 단계를 포함하는
이미지 생성 방법.
According to clause 9,
Comprising Gaussian filtering of the first to fourth image frames before generating the first composite image.
How to create an image.
제10항에 있어서,
상기 가우시안 필터링하는 단계는
0.1보다 크고, 1보다 작은 범위 내에서의 시그마 값을 적용하여 상기 제1 내지 제4 이미지 프레임을 가우시안 필터링하는 단계를 포함하는
이미지 생성 방법.
According to clause 10,
The Gaussian filtering step is
Comprising Gaussian filtering of the first to fourth image frames by applying a sigma value within a range greater than 0.1 and less than 1.
How to create an image.
제 9항에 있어서,
상기 제1 합성 이미지가 생성되면, 상기 생성된 제1 합성 이미지를 라플라시안 필터링하는 단계를 포함하는
이미지 생성 방법.
According to clause 9,
When the first composite image is generated, comprising Laplacian filtering the generated first composite image.
How to create an image.
KR1020190007354A 2019-01-21 2019-01-21 Camera module and image generating method performed therein KR102617241B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190007354A KR102617241B1 (en) 2019-01-21 2019-01-21 Camera module and image generating method performed therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190007354A KR102617241B1 (en) 2019-01-21 2019-01-21 Camera module and image generating method performed therein

Publications (2)

Publication Number Publication Date
KR20200090391A KR20200090391A (en) 2020-07-29
KR102617241B1 true KR102617241B1 (en) 2023-12-26

Family

ID=71893416

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190007354A KR102617241B1 (en) 2019-01-21 2019-01-21 Camera module and image generating method performed therein

Country Status (1)

Country Link
KR (1) KR102617241B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240044174A (en) * 2022-09-28 2024-04-04 문재영 Distance map generation method based on parallax analysis and system therefor
KR102614389B1 (en) * 2023-04-12 2023-12-15 한화시스템 주식회사 Apparatus and method for acquiring thermal image with high frame rate

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4672470B2 (en) * 2005-07-15 2011-04-20 富士通株式会社 Infrared imaging device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4336447A1 (en) * 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR100999888B1 (en) * 2008-12-31 2010-12-09 엠텍비젼 주식회사 Apparatus for Processing Image Siganls, Method for Reducing luminence Noise in the Image Signal Processing Apparatus and Record Medium for Performing Method of Reducing luminence Noise
JP7315327B2 (en) * 2016-03-02 2023-07-26 ネクストレンズ スウィッツァーランド アーゲー Optical devices, in particular cameras including, among others, autofocus, image stabilization, and super-resolution

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4672470B2 (en) * 2005-07-15 2011-04-20 富士通株式会社 Infrared imaging device

Also Published As

Publication number Publication date
KR20200090391A (en) 2020-07-29

Similar Documents

Publication Publication Date Title
KR102113379B1 (en) Autofocus for folded optic array cameras
KR101993077B1 (en) Automatic focus and optical image stabilization by roll compensation of compact folding camera
CN111901503B (en) Camera module, terminal equipment, imaging method and imaging device
US11889203B2 (en) Camera module
CN110554474B (en) Auto-focusing and optical image stabilization system
US7245363B2 (en) Optical sensor
EP3646100B1 (en) A module with a plurality of cameras for integration in a mobile device
US11782232B2 (en) Camera module
EP3864461A1 (en) Actuator assemblies and methods of controlling the same
KR102617241B1 (en) Camera module and image generating method performed therein
KR20150071408A (en) Camera module having separated auto-focusing device and image stabilizing apparatus
KR102601288B1 (en) Camera module and image operating method performed therein
KR20200113748A (en) Camera device and Method for controlling the camera device thereof
US20080136949A1 (en) Optical image capture structure
KR20200109018A (en) Filter actuator, camera module including the same
KR20210003579A (en) Filter actuator and camera module including the same
KR20220120947A (en) Camera module

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant