KR20200113437A - 카메라 모듈 - Google Patents

카메라 모듈 Download PDF

Info

Publication number
KR20200113437A
KR20200113437A KR1020190033623A KR20190033623A KR20200113437A KR 20200113437 A KR20200113437 A KR 20200113437A KR 1020190033623 A KR1020190033623 A KR 1020190033623A KR 20190033623 A KR20190033623 A KR 20190033623A KR 20200113437 A KR20200113437 A KR 20200113437A
Authority
KR
South Korea
Prior art keywords
light
light emitting
image
unit
camera module
Prior art date
Application number
KR1020190033623A
Other languages
English (en)
Inventor
김지성
주양현
김석현
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020190033623A priority Critical patent/KR20200113437A/ko
Publication of KR20200113437A publication Critical patent/KR20200113437A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • H04N5/2254
    • H04N5/2256
    • H04N5/23299

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 실시예에 따른 카메라 모듈은 복수의 발광 소자를 포함하고 객체에 광을 출력하는 발광부; 상기 발광부로부터 출력되어 상기 객체에 반사된 광을 통과시키는 필터와 렌즈를 포함하는 수광부; 상기 수광부를 통과한 광을 수신하는 복수의 픽셀을 포함하는 센서부;및 상기 발광부를 복수의 구동 시퀀스에 따라 제어하는 제어부를 포함하며, 상기 구동 시퀀스는 기 설정된 간격만큼 이격된 상기 발광 소자들을 동일 시점에 구동하고, 상기 복수의 구동 시퀀스 각각은 서로 다른 발광 소자를 구동한다.

Description

카메라 모듈{CAMERA MODULE}
실시 예는 카메라 모듈에 관한 것이다.
3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다.
깊이 정보를 획득하는 방법으로, IR(Infrared) 구조광을 객체에 투사하는 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다. TOF 방식에 따르면, 비행 시간, 즉 빛을 쏘아서 반사되어 오는 시간을 측정함으로써 물체와의 거리를 계산한다. ToF 방식의 가장 큰 장점은 3차원 공간에 대한 거리정보를 실시간으로 빠르게 제공한다는 점에 있다. 또한 사용자가 별도의 알고리즘 적용이나 하드웨어적 보정을 하지 않고도 정확한 거리 정보를 얻을 수 있다. 또한 매우 가까운 피사체를 측정하거나 움직이는 피사체를 측정하여도 정확한 깊이 정보를 획득할 수 있다.
이에 따라, TOF 방식을 생체 인증에 이용하고자 하는 시도가 있다. 예를 들어, 손가락 등에 퍼진 정맥의 모양은 태아 때부터 일생 동안 변하지 않고, 사람마다 다르다고 알려져 있다. 이에 따라, TOF 기능이 탑재된 카메라 장치를 이용하여 정맥 패턴을 식별할 수 있다. 이를 위하여, 손가락을 촬영한 후, 손가락의 색과 형상을 기반으로 배경을 제거하여 각 손가락을 검출할 수 있으며, 검출된 각 손가락의 색 정보로부터 각 손가락의 정맥 패턴을 추출할 수 있다. 즉, 손가락의 평균 색깔, 손가락에 분포된 정맥의 색깔, 및 손가락에 있는 주름의 색깔은 서로 상이할 수 있다. 예를 들어, 손가락에 분포된 정맥의 색깔은 손가락의 평균 색깔에 비하여 적색이 약할 수 있으며, 손가락에 있는 주름의 색깔은 손가락의 평균 색깔에 비하여 어두울 수 있다. 이러한 특징을 이용하여 픽셀 별로 정맥에 근사한 값을 계산할 수 있으며, 계산한 결과를 이용하여 정맥 패턴을 추출할 수 있다. 그리고 추출된 각 손가락의 정맥 패턴과 미리 등록된 데이터를 대비하여 개인을 식별할 수 있다.
다만, TOF 기능이 탑재된 카메라 장치가 정맥 패턴 등을 추출하기 위하여, 근거리에 있는 손가락을 정밀하게 촬영할 필요가 있으며, 높은 해상도로 촬영될 필요가 있다. 특히, 한 손의 정맥 패턴을 촬영하기 위하여, 다른 한 손만으로 카메라 장치를 들고 조작하여야 하는 경우가 있으므로 손떨림에 의한 흔들림이 발생할 가능성이 크다.
본 발명이 이루고자 하는 기술적 과제는 전력 효율을 높임으로써 장거리 객체에 대한 정보를 획득할 수 있는 카메라 모듈을 제공하는데 있다.
본 발명의 실시예에 따른 카메라 모듈은 복수의 발광 소자를 포함하고 객체에 광을 출력하는 발광부; 상기 발광부로부터 출력되어 상기 객체에 반사된 광을 통과시키는 필터와 렌즈를 포함하는 수광부; 상기 수광부를 통과한 광을 수신하는 복수의 픽셀을 포함하는 센서부;및 상기 발광부를 복수의 구동 시퀀스에 따라 제어하는 제어부를 포함하며, 상기 구동 시퀀스는 기 설정된 간격만큼 이격된 상기 발광 소자들을 동일 시점에 구동하고, 상기 복수의 구동 시퀀스 각각은 서로 다른 발광 소자를 구동한다.
상기 발광부는, 상기 복수의 발광 소자가 생성하는 광을 복제하여 출력하는 광학 소자를 포함할 수 있다.
상기 제어부는, 상기 복수의 구동 시퀀스를 순차 적용하여 상기 복수의 발광 소자를 구동시키되, 상기 복수의 구동 시퀀스를 반복 적용하여 상기 복수의 발광 소자를 구동시킬 수 있다.
상기 복수의 구동 시퀀스에 대응하여 생성된 복수의 전기 신호에 기초하여 복수의 제1 영상을 획득하는 영상 처리부를 더 포함할 수 있다.
상기 영상 처리부는, 상기 복수의 제1 영상을 이용하여 상기 제1 영상보다 높은 해상도를 가지는 제2 영상을 생성할 수 있다.
상기 영상 처리부는, 상기 복수의 구동 시퀀스에 따라 상기 객체에 출력된 광의 경로에 대응하여 상기 복수의 제1 영상의 픽셀값을 배치함으로써 상기 제2 영상을 생성할 수 있다.
상기 필터 및 렌즈 중 적어도 하나를 통과한 상기 광의 경로가 소정의 규칙에 따라 반복하여 이동하도록 상기 필터 및 렌즈 중 적어도 하나를 틸트시키는 틸트부를 더 포함할 수 있다.
상기 틸트부는, 상기 복수의 구동 시퀀스가 1회 순차 구동되면 상기 필터 및 렌즈 중 적어도 하나를 틸트시킬 수 있다.
상기 틸트부는, 틸트 후 상기 필터 및 렌즈 중 적어도 하나를 통과한 광의 경로가 틸트 전 상기 필터 및 렌즈 중 적어도 하나를 통과한 광의 경로를 기준으로 상기 센서의 0픽셀보다 크고 1픽셀보다 작은 단위만큼 이동되도록 상기 필터 및 렌즈 중 적어도 하나를 틸트시킬 수 있다.
상기 영상 처리부는, 상기 필터 및 렌즈 중 적어도 하나를 틸트한 상태에서 상기 복수의 구동 시퀀스에 대응하여 생성된 복수의 전기 신호에 기초하여 복수의 제1 영상을 획득할 수 있다.
상기 영상 처리부는, 상기 복수의 제1 영상을 이용하여 상기 제1 영상보다 높은 해상도를 가지는 하나의 제2 영상을 생성할 수 있다.
도 1은 본 발명의 실시예에 따른 카메라 모듈의 구성도이다.
도 2는 본 발명의 실시예에 따른 발광부의 구성도이다.
도 3은 본 발명의 실시예에 따른 발광부의 단면도이다.
도 4는 본 발명의 실시예에 따른 수광부를 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 센서부를 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 전기 신호 생성 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 서브 프레임 영상을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 깊이 영상을 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 ToF IR 영상을 설명하기 위한 도면이다.
도 10 및 도 11은 영상 처리부의 영상 처리 과정을 설명하기 위한 도면이다.
도 12는 본 발명의 제1 실시예에 따른 카메라 모듈의 구동을 설명하기 위한 도면이다.
도 13은 본 발명의 제1 실시예에 따른 발광부가 출력한 광과 센서부의 픽셀 사이의 관계를 설명하기 위한 도면이다.
도 14는 본 발명의 제1 실시예에 따른 카메라 모듈의 구동 프로세스를 설명하기 위한 도면이다.
도 15는 본 발명의 제2 실시예에 따른 카메라 모듈의 구동을 설명하기 위한 도면이다.
도 16은 본 발명의 제2 실시예에 따른 발광부가 출력한 광과 센서부의 픽셀 사이의 관계를 설명하기 위한 도면이다.
도 17은 본 발명의 제2 실시예에 따른 카메라 모듈의 구동 프로세스를 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
도 1은 본 발명의 실시예에 따른 카메라 모듈의 구성도이다.
본 발명의 실시예에 따른 카메라 모듈(100)은 카메라 장치, ToF(Time of Flight) 카메라 모듈, ToF 카메라 장치 등으로 명명될 수 있다.
본 발명의 실시예에 따른 카메라 모듈(100)은 광학기기에 포함될 수 있다. 광학기기는 핸드폰, 휴대폰, 스마트폰(smart phone), 휴대용 스마트 기기, 디지털 카메라, 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 및 네비게이션 중 어느 하나를 포함할 수 있다. 다만, 광학기기의 종류가 이에 제한되는 것은 아니며 영상 또는 사진을 촬영하기 위한 어떠한 장치도 광학기기에 포함될 수 있다.
도 1을 참조하면, 본 발명의 실시예에 따른 카메라 모듈(100)은 발광부(110), 수광부(120), 센서부(130) 및 제어부(140)를 포함하며, 영상 처리부(150) 및 틸트부(160)를 더 포함할 수 있다.
발광부(110)는 발광모듈, 발광유닛, 발광어셈블리 또는 발광장치일 수 있다. 발광부(110)는 광을 생성한 후 객체에 출력, 즉 조사할 수 있다. 이때, 발광부(110)는 펄스파(pulse wave)의 형태나 지속파(continuous wave)의 형태로 광을 생성하여 출력할 수 있다. 지속파는 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다. 본 명세서에서, 발광부(110)가 출력하는 광은 객체에 입사되는 광을 의미할 수 있다. 발광부(110)가 출력하는 광은 카메라 모듈(100)을 기준으로 출력광, 출력광 신호 등으로 불릴 수 있다. 발광부(110)가 출력하는 광은 객체를 기준으로 입사광, 입사광 신호 등으로 불릴 수 있다.
발광부(110)는 광을 소정의 노출주기(integration time) 동안 객체에 출력, 즉 조사할 수 있다. 여기서, 노출주기란 1개의 프레임 주기를 의미한다. 복수의 프레임을 생성하는 경우, 설정된 노출주기가 반복된다. 예를 들어, 카메라 모듈(100)이 20 FPS로 객체를 촬영하는 경우, 노출주기는 1/20[sec]가 된다. 그리고 100개의 프레임을 생성하는 경우, 노출주기는 100번 반복될 수 있다.
발광부(110)는 서로 다른 주파수를 가지는 복수의 광을 출력할 수 있다. 발광부(110)는 서로 다른 주파수를 가지는 복수의 광을 순차적으로 반복하여 출력할 수 있다. 또는, 발광부(110)는 서로 다른 주파수를 가지는 복수의 광을 동시에 출력할 수도 있다.
발광부(110)는 기 설정된 시퀀스에 따라 발광 소자를 구동시킬 수 있다. 발광부(110)는 복수의 구동 시퀀스에 따라 복수의 발광 소자 중 적어도 하나를 구동시킬 수 있다. 발광부(110)는 복수의 구동 시퀀스를 순차 적용하여 복수의 발광 소자를 구동시키되, 복수의 구동 시퀀스를 반복 적용하여 복수의 발광 소자를 구동시킬 수 있다. 예를 들어, 발광부(110)는 n개의 구동 시퀀스에 따라 복수의 발광 소자 중 적어도 하나를 구동시킬 수 있다. 이때, n은 2이상의 양의 정수일 수 있다. 발광부(110)는 n개의 구동 시퀀스를 순차 적용하여 복수의 발광 소자를 구동시키되, n의 구동 시퀀스를 반복 적용하여 복수의 발광 소자를 구동시킬 수 있다.
각 구동 시퀀스는, 복수의 발광 소자 중 서로 다른 발광 소자를 구동시키도록 설정될 수 있다. 구동 시퀀스는 기 설정된 간격만큼 이격된 행 또는 열에 배치된 복수의 발광 소자를 동일 시점에 구동시킬 수 있다.
수광부(120)는 수광모듈, 수광유닛, 수광어셈블리 또는 수광장치일 수 있다. 수광부(120)는 발광부(110)로부터 출력되어 객체로부터 반사된 광을 집광할 수 있다. 수광부(120)는 발광부(110)와 나란히 배치될 수 있다. 수광부(120)는 발광부(110) 옆에 배치될 수 있다. 수광부(120)는 발광부(110)와 같은 방향으로 배치될 수 있다. 수광부(120)는 객체에 반사된 광을 통과시키기 위한 필터를 포함할 수 있다.
본 명세서에서, 수광부(120)가 집광하는 광은 발광부(110)로부터 출력된 광이 객체에 도달한 후 반사된 광을 의미할 수 있다. 수광부(120)가 집광하는 광은 카메라 모듈(100)을 기준으로 입력광, 입력광 신호 등으로 불릴 수 있다. 수광부(120)가 출력하는 광은 객체를 기준으로 반사광, 반사광 신호 등으로 불릴 수 있다.
센서부(130)는 수광부(120)가 집광한 광을 센싱할 수 있다. 센서부(130)는 광을 센싱하는 이미지 센서일 수 있다. 센서부(130)는 센서, 이미지 센서, 이미지 센서부, ToF 센서, ToF 이미지 센서, ToF 이미지 센서부 등과 혼용될 수 있다.
센서부(130)는 광을 감지하여 전기적 신호로 출력할 수 있다. 즉, 센서부(130)는 수광부(120)가 집광한 광을 통해 전기 신호를 생성할 수 있다. 생성된 전기 신호는 아날로그 신호일 수 있다. 센서부(130)는 아날로그 신호인 전기 신호를 디지털 변환하여 영상 처리부(150)로 전송하거나 아날로그 신호인 전기 신호를 영상 처리부(150)로 전송할 수 있다. 아날로그 신호인 전기 신호를 영상 처리부(150)로 전송하는 경우, 영상 처리부(150)는 아날로그 디지털 컨버터(analog-digital converter, ADC)와 같은 장치를 통해 전기 신호를 디지털 변환할 수 있다.
센서부(130)는 발광부(110)에서 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 센서부(130)는 적외선을 감지할 수 있다. 또는, 센서부(130)는 가시광선을 감지할 수 있다.
센서부(130)는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서일 수 있으며, CCD(Charge Coupled Device) 이미지 센서일 수도 있다. 또한, 센서부(130)는 피사체에 반사되는 적외선 광을 받아들여 시간 또는 위상 차를 이용해 거리를 측정하는 ToF 센서를 포함할 수 있다.
제어부(140)는 카메라 모듈(100)에 포함된 각 구성을 제어할 수 있다.
제어부(140)는 발광부(110)를 제어할 수 있다. 예를 들어, 제어부(140)는 발광부(110)가 기 설정된 시퀀스에 따라 발광 소자를 구동하도록 제어할 수 있다. 다른 예로, 제어부(140)는 발광부(110)의 광의 노출주기나 광의 주파수를 제어할 수도 있다.
제어부(140)는 센서부(130)를 제어할 수 있다. 예를 들어, 제어부(140)는 센서부(130)의 수광부(120)가 집광한 광의 센싱 주기를 발광부의 노출주기에 연동하여 제어할 수 있다.
제어부(140)는 틸트부(160)를 제어할 수 있다. 예를 들어, 제어부(140)는 소정의 규칙에 따라 틸트부(160)의 틸트 구동을 제어할 수 있다.
영상 처리부(150)는 센서부(130)로부터 전기 신호를 입력받고, 전기 신호를 처리(예컨대, 디지털 변환, 보간, 프레임 합성 등)하여 영상을 생성할 수 있다. 특히, 영상 처리부(150)는 복수의 프레임(저해상도)을 이용하여 하나의 프레임(고해상도)을 합성할 수 있다. 즉, 영상 처리부(150)는 센서부(130)로부터 받은 전기 신호에 대응하는 복수의 영상 프레임을 합성하고, 합성된 결과를 합성 영상으로서 생성할 수 있다. 영상 처리부(150)에서 생성된 합성 영상은 전기 신호에 대응하는 복수의 영상 프레임보다 높은 해상도를 가질 수 있다. 즉, 영상 처리부(150)는 슈퍼레졸루션(Super Resolution, SR) 기법을 통해 고해상도의 영상을 생성할 수 있다.
영상 처리부(150)는 복수의 구동 시퀀스에 대응하여 생성된 복수의 전기 신호를 통해 복수의 제1 영상을 획득할 수 있다. 영상 처리부(150)는 복수의 제1 영상을 이용하여 제1 영상보다 높은 해상도를 가지는 제2 영상을 생성할 수 있다. 영상 처리부(150)는 복수의 구동 시퀀스에 따라 객체에 출력된 광의 경로에 대응하여 복수의 제1 영상의 픽셀값을 배치함으로써 제2 영상을 생성할 수 있다. 예를 들어, 영상 처리부(150)는 n개의 구동 시퀀스에 대응하여 생성된 복수의 전기 신호를 통해 복수의 제1 영상을 획득할 수 있다. 영상 처리부(150)는 n개의 제1 영상을 이용하여 제1 영상보다 높은 해상도를 가지는 하나의 제2 영상을 생성할 수 있다.
영상 처리부(150)는 기 설정된 기준 경로에서 복수의 구동 시퀀스에 대응하여 생성된 복수의 전기 신호 및 필터를 틸트한 상태에서 복수의 구동 시퀀스에 대응하여 생성된 복수의 전기 신호에 기초하여 복수의 제1 영상을 획득할 수 있다. 예를 들어, 영상 처리부(150)는 기 설정된 기준 경로에서 n개의 구동 시퀀스에 대응하여 생성된 복수의 전기 신호 및 필터를 틸트한 상태에서 n개의 구동 시퀀스에 대응하여 생성된 복수의 전기 신호에 기초하여 복수의 제1 영상을 획득할 수 있다. 영상 처리부(150)는 복수의 제1 영상을 이용하여 제1 영상보다 높은 해상도를 가지는 하나의 제2 영상을 생성할 수 있다. 영상 처리부(150)는 복수의 구동 시퀀스 및 필터를 틸트한 상태에 따라 객체에 출력된 광의 경로에 대응하여 복수의 제1 영상의 픽셀값을 배치함으로써 제2 영상을 생성할 수 있다.
영상 처리부(150)는 전기 신호를 처리하여 영상을 생성하는 프로세서를 포함할 수 있다. 프로세서는 영상 처리부(150)의 기능에 따라 복수로 구현될 수 있으며, 복수의 프로세서 중 일부가 센서부(130)와 결합되어 구현될 수 있다. 예를 들어, 아날로그 방식의 전기 신호를 디지털 방식의 전기 신호로 변환하는 프로세서는 센서와 결합되어 구현될 수 있다. 다른 예로, 영상 처리부(150)가 포함하는 복수의 프로세서는 센서부(130)와 분리되어 구현될 수도 있다.
틸트부(160)는 필터 및 렌즈 중 적어도 하나를 통과한 광의 광경로가 소정의 규칙에 따라 반복하여 이동하도록 필터 및 렌즈 중 적어도 하나를 틸트시킬 수 있다. 이를 위해, 틸트부(160)는 틸트 드라이버 및 틸트 액츄에이터(Tilting Actuator)를 포함할 수 있다.
렌즈는 광 경로를 변경시킬 수 있는 가변 렌즈일 수도 있다. 가변 렌즈는 초점 가변 렌즈일 수 있다. 또한 가변 렌즈는 초점이 조절되는 렌즈일 수 있다. 가변 렌즈는 액체 렌즈, 폴리머 렌즈, 액정 렌즈, VCM 타입, SMA 타입 중 적어도 하나일 수 있다. 액체 렌즈는 하나의 액체를 포함하는 액체 렌즈와 두 개의 액체를 포함하는 액체 렌즈를 포함할 수 있다. 하나의 액체를 포함하는 액체 렌즈는 액체와 대응되는 위치에 배치되는 멤브레인을 조절하여 초점을 가변시킬 수 있으며, 예를들어 마그넷과 코일의 전자기력에 의해 멤브레인을 가압하여 초점을 가변시킬 수 있다. 두개의 액체를 포함하는 액체 렌즈는 전도성 액체와 비전도성 액체를 포함하여 액체 렌즈에 인가되는 전압을 이용하여 전도성 액체와 비전도성 액체가 형성하는 계면을 조절할 수 있다. 폴리머 렌즈는 고분자 물질을 피에조 등의 구동부를 통해 초점을 가변시킬 수 있다. 액정 렌즈는 전자기력에 의해 액정을 제어하여 초점을 가변시킬 수 있다. VCM 타입은 고체 렌즈 또는 고체 렌즈를 포함하는 렌즈 어셈블리를 마그넷과 코일간의 전자기력을 통해 조절하여 초점을 가변시킬 수 있다. SMA 타입은 형상기억합금을 이용하여 고체 렌즈 또는 고체 렌즈를 포함하는 렌즈 어셈블리를 제어하여 초점을 가변시킬 수 있다.
틸트부(160)는 복수의 구동 시퀀스가 1회 순차 구동되면 필터 및 렌즈 중 적어도 하나를 틸팅시킬 수 있다. 예를 들어, 틸트부(160)는 n개의 구동 시퀀스가 1회 순차 구동되면 필터 및 렌즈 중 적어도 하나를 틸트시킬 수 있다. 틸트부(160)는 틸트 후 필터를 통과한 광의 경로가 틸트 전 필터 및 렌즈 중 적어도 하나를 통과한 광의 경로를 기준으로 센서부(130)의 0픽셀보다 크고 1픽셀보다 작은 단위만큼 이동되도록 필터 및 렌즈 중 적어도 하나를 틸트시킬 수 있다.
틸트부(160)는 필터 및 렌즈 중 적어도 하나를 통과한 광의 경로가 기 설정된 기준 경로로부터 적어도 1회 이동되도록 필터 및 렌즈 중 적어도 하나를 틸트시킬 수 있다. 틸트부(160)는 필터 및 렌즈 중 적어도 하나를 통과한 광의 경로가 기 설정된 기준 경로로부터 m회 이동되도록 필터 및 렌즈 중 적어도 하나를 틸트시킬 수 있다. 이때, m는 양의 정수일 수 있다.
이하에서는 도면을 참조하여, 도 1에 도시된 본 발명의 실시예에 따른 카메라 모듈(100)의 각 구성을 상세하게 살펴보도록 한다.
도 2는 본 발명의 실시예에 따른 발광부의 구성도이다.
앞서 도 1을 통해 살펴본 것처럼, 발광부(110)는 광을 생성한 후 객체에 출력하는 구성 요소를 의미할 수 있다. 이러한 기능을 구현하기 위하여, 발광부(110)는 발광 소자(111)와 광학 소자(112)를 포함할 수 있으며, 광변조부(113)를 포함할 수 있다.
우선, 발광 소자(111)는 전기를 공급받아 빛을 생성하는 소자를 의미할 수 있다. 발광 소자(111)가 생성하는 빛은 파장이 770 내지 3000nm인 적외선 일 수 있다. 또는 발광 소자(111)가 생성하는 빛은 파장이 380 내지 770 nm인 가시광선 일 수 있다.
발광 소자(111)는 발광 다이오드(Light Emitting Diode, LED)를 포함할 수 있다. 뿐만 아니라, 발광 소자(111)는 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수 있다.
발광 소자(111)는 일정한 패턴에 따라 배열된 형태로 구현될 수 있다. 따라서, 발광 소자(111)는 복수로 구성될 수 있다. 복수의 발광 소자(111)는 기판 상에 행과 열에 따라 배열될 수 있다. 복수의 발광 소자(111)는 기판 위에 실장될 수 있다. 기판은 회로 패턴이 형성된 인쇄 회로 기판(Printed Circuit Board, PCB)일 수 있다. 기판은 일정 유연성을 확보하기 위하여 연성 인쇄 회로 기판(FPCB)으로 구현될 수 있다. 이 외에도 기판은 수지 계열의 인쇄회로기판, 메탈 코아(MetalCore) PCB, 세라믹 PCB, FR-4 기판 중 어느 하나로 구현될 수도 있다. 이외에도 복수의 발광 소자(111)는 칩(chip)의 형태로 구현될 수도 있다.
다음으로, 광학 소자(112)는 복수의 발광 소자(111)가 생성하는 광을 복제하여 출력할 수 있다. 광학 소자(112)는 발광 소자(111)가 출력한 광의 패턴을 복제하여 보다 많은 광의 패턴을 출력할 수 있다. 예를 들어, 발광 소자(111)가 16개의 라인을 포함하는 패턴의 광을 출력할 경우, 광학 소자(112)는 이를 40배로 복제하여 640개의 라인을 포함하는 패턴의 광을 출력할 수 있다.
또한, 광학 소자(112)는 발광 소자(111)로부터 입력된 빛을 산란시켜 출력할 수 있다. 광학 소자(112)는 일정한 산란 패턴에 따라 입력된 빛을 산란시킬 수 있다. 광학 소자(112)는 빛을 산란시킴으로써 발광 소자(111)로부터 출력되는 빛의 휘도 균일도를 향상시킴과 동시에 발광 소자(111)가 위치한 곳에 빛이 집중되는 핫 스팟(Hot Spot)을 제거할 수 있다. 즉, 광학 소자(112)는 입력된 빛을 산란시켜 출력되는 빛을 전면에 걸쳐 균일하게 확산시킬 수 있다.
광변조부(113)는 광학 소자(112)의 점멸을 제어하여 광학 소자(112)가 지속파나 펄스파 형태의 출력광 신호를 생성하도록 제어할 수 있다. 광변조부(113)는 주파수 변조(frequency modulation)나 펄스 변조(pulse modulation) 등을 통해 광학 소자(112)가 지속파나 펄스파 형태의 광을 생성하도록 제어할 수 있다. 예를 들어, 광변조부(113)는 일정 시간 간격으로 발광 소자(111)의 점멸(on/off)을 반복시켜 펄스파 형태나 지속파 형태의 광을 생성하도록 제어할 수 있다. 일정 시간 간격은 광의 주파수일 수 있다.
도 3은 본 발명의 실시예에 따른 발광부의 단면도이다.
도 3을 참조하면, 본 발명의 실시예에 따른 발광부(110)는 하우징(115)에 실장된 기판(114), 발광 소자(111), 광학 소자(112)를 포함할 수 있다.
복수의 발광 소자(111)는 기판(114)의 일면에 실장될 수 있다. 그리고 광학 소자(112)는 발광 소자(111)의 전면에 배치될 수 있다. 이때, 발광 소자(111)의 전면이라 함은 발광 소자(111)에서 빛이 출력되는 방향에 위치한 일면을 의미한다. 광학 소자(112)는 발광 소자(111)와 일정한 거리만큼 이격되어 배치될 수 있다. 광학 소자(112)와 발광 소자(111) 사이의 거리는 카메라 모듈(100)의 용도, 발광 소자(111)의 형태 및 종류 등을 고려하여 당업자에 의해 설계 변경이 가능하다.
광학 소자(112)는 빛이 입력되는 제1면과 산란된 광이 출력되는 제2면을 포함하는 플레이트 형태로 구현될 수 있다. 광학 소자(112)는 구면 또는 평면으로 구현될 수 있다. 광학 소자(112)의 제1면에는 마이크로 렌즈(micro lens)가 일정한 피치에 따라 배치된다. 이때, 마이크로 렌즈의 크기, 곡률, 굴절률, 피치의 크기 등에 따라 제1면을 통해 집광되는 빛의 각도를 조절함으로써 입력되는 빛을 산란시켜 제2면을 통해 출력한다. 마이크로 렌즈의 크기, 곡률, 굴절률, 피치의 크기는 본 발명의 실시예에 따른 카메라 모듈(100)의 용도, 광학 소자(112)와 발광 소자(111) 사이의 간격, 발광 소자(111)의 형태 및 종류 등을 고려하여 당업자에 의해 설계 변경이 가능하다. 광학 소자(112)는 디퓨져(diffuser)일 수 있으며, 디퓨져 렌즈일 수 있다. 또한, 광학 소자(112)는 회절 광학 소자(diffractive optical element, DOE)일 수도 있다.
도 4는 본 발명의 실시예에 따른 수광부를 설명하기 위한 도면이다.
도 4를 참조하면, 수광부(120)는 렌즈 어셈블리(121) 및 필터(125)를 포함한다.
렌즈 어셈블리(121)는 렌즈(122), 렌즈 배럴(123) 및 렌즈 홀더(124)를 포함할 수 있다.
렌즈(122)는 복수 매로 구성될 수 있으며, 1매로 구성될 수도 있다. 렌즈(122)는 위에서 설명한 가변 렌즈를 포함할 수 있다. 렌즈(122)가 복수 매로 구성될 경우 각 렌즈들은 중심축을 기준으로 정렬하여 광학계를 형성할 수 있다. 여기서, 중심축은 광학계의 광축(Optical axis)과 동일할 수 있다.
렌즈 배럴(123)은 렌즈 홀더(124)와 결합되며, 내부에 렌즈를 수용할 수 있는 공간이 마련될 수 있다. 렌즈 배럴(123)은 하나 또는 복수의 렌즈와 회전 결합될 수 있으나, 이는 예시적인 것이며, 접착제(예를 들어, 에폭시(epoxy) 등의 접착용 수지)를 이용한 방식 등 다른 방식으로 결합될 수 있다.
렌즈 홀더(124)는 렌즈 배럴(123)과 결합되어 렌즈 배럴(123)을 지지하고, 센서(130)가 탑재된 인쇄회로기판(126)에 결합될 수 있다. 여기서, 센서는 도 1의 센서부(130)에 대응할 수 있다. 렌즈 홀더(124)에 의하여 렌즈 배럴(123) 하부에 필터(125)가 부착될 수 있는 공간이 형성될 수 있다. 렌즈 홀더(124)외 내주면에는 나선형 패턴이 형성될 수 있고, 이와 마찬가지로 외주면에 나선형 패턴이 형성된 렌즈 배럴(123)과 회전 결합할 수 있다. 그러나, 이는 예시적인 것이며, 렌즈 홀더(124)와 렌즈 배럴(123)은 접착제를 통해 결합되거나, 렌즈 홀더(124)와 렌즈 배럴(123)이 일체형으로 형성될 수도 있다.
렌즈 홀더(124)는 렌즈 배럴(123)과 결합되는 상부 홀더(124-1) 및 센서(130)가 탑재된 인쇄 회로 기판(126)과 결합되는 하부 홀더(124-2)로 구분될 수 있으며, 상부 홀더(124-1) 및 하부 홀더(124-2)는 일체형으로 형성되거나, 서로 분리된 구조로 형성된 후 체결 또는 결합되거나, 서로 분리되어 이격된 구조를 가질 수도 있다. 이때, 상부 홀더(124-1)의 직경은 하부 홀더(124-2)의 직경보다 작게 형성될 수 있다.
필터(125)는 렌즈 홀더(124)에 결합될 수 있다. 필터(125)는 렌즈 어셈블리(121)와 센서 사이에 배치될 수 있다. 필터(125)는 객체와 센서 사이의 광경로 상에 배치될 수 있다. 필터(125)는 소정 파장 범위를 갖는 광을 필터링할 수 있다. 필터(125)는 특정 파장의 광을 통과시킬 수 있다. 즉, 필터(125)는 특정 파장 외의 광을 반사 또는 흡수하여 차단할 수 있다. 필터(125)는 적외선을 통과시키고 적외선 이외의 파장의 광을 차단시킬 수 있다. 또는, 필터(125)는 가시광선을 통과시키고 가시광선 이외의 파장의 광을 차단시킬 수 있다. 필터(125)는 이동할 수 있다. 필터(125)는 렌즈 홀더(124)와 일체로 이동할 수 있다. 필터(125)는 틸트(tilt)될 수 있다. 필터(125)는 이동되어 광경로를 조절할 수 있다. 필터(125)는 이동을 통해 센서부(130)로 입사되는 광의 경로를 변경시킬 수 있다. 필터(125)는 입사되는 광의 FOV(Field of View) 각도 또는 FOV의 방향 등을 변경시킬 수 있다.
도 4에 도시되지 않았으나, 영상 처리부(150) 등은 인쇄 회로 기판 내에서 구현될 수 있다. 그리고, 도 1의 발광부(110)는 인쇄 회로 기판(126) 상에서 센서(130)의 측면에 배치되거나, 카메라 모듈(100)의 외부, 예를 들어 카메라 모듈(100)의 측면에 배치될 수도 있다.
상기의 예시는 일 실시예에 불과하며, 수광부(120)는 카메라 모듈(100)로 입사되는 광을 집광하여 센서에 전달할 수 있는 다른 구조로 구성될 수도 있다.
도 5는 본 발명의 실시예에 따른 센서부를 설명하기 위한 도면이다.
도 5에 도시된 것처럼, 본 발명의 실시예에 따른 센서부(130)는 복수의 셀 영역(P1, P2, …)이 그리드 형태로 배열될 수 있다. 예를 들어, 도 8에서와 같이 320x240 해상도의 센서부(130)는 76,800개의 셀 영역이 그리드 형태로 배열될 수 있다.
그리고, 각 셀 영역 사이에는 일정한 간격(L)이 형성될 수 있으며, 해당 간격(L)에는 복수의 셀을 전기적으로 연결하기 위한 와이어 등이 배치될 수 있다. 이러한 간격(L)의 폭(dL)은 셀 영역의 폭에 비해 매우 작을 수 있다.
셀 영역(P1, P2, …)은 입력광 신호를 전기 에너지로 변환하는 영역을 의미할 수 있다. 즉, 셀 영역(P1, P2, …)은 빛을 전기 에너지로 변환하는 포토 다이오드가 구비된 셀 영역을 의미하거나, 구비된 포토 다이오드가 동작하는 셀 영역을 의미할 수도 있다.
일 실시예에 따르면, 복수의 셀 영역(P1, P2, …)에는 2개의 포토 다이오드가 구비될 수 있다. 각 셀 영역(P1, P2, …)은 제1 포토 다이오드 및 제1 트랜지스터를 포함하는 제1 수광 유닛(132-1)과 제2 포토 다이오드 및 제2 트랜지스터를 포함하는 제2 수광 유닛(132-2)을 포함할 수 있다.
제1 수광 유닛(132-1)과 제2 수광 유닛(132-2)은 서로 180도의 위상차를 가지고 입력광 신호를 수광할 수 있다. 즉, 제1 포토 다이오드가 턴온(turn-on)되어 입력광 신호를 흡수한 후 턴오프(turn-off)되면, 제2 포토 다이오드가 턴온되어 입력광을 흡수한 후 턴오프 될 수 있다. 제1 수광 유닛(132-1)은 In Phase 수신 유닛이라 할 수 있고, 제2 수광 유닛(132-2)은 Out Phase 수신 유닛이라 할 수 있다. 이와 같이, 제1 수광 유닛(132-1) 및 제2 수광 유닛(132-2)이 시간 차를 두고 활성화되면, 객체와의 거리에 따라 수신되는 광량에 차이가 발생하게 된다. 예를 들어, 객체가 카메라 모듈(100) 바로 앞에 있는 경우(즉, 거리=0인 경우)에는 조명으로부터 광이 출력된 후 객체에서 반사되어 오는데 걸리는 시간이 0이므로, 광원의 점멸 주기는 그대로 광의 수신 주기가 된다. 이에 따라, 제1 수광 유닛(132-1)만이 빛을 수신하게 되고, 제2 수광 유닛(132-2)은 빛을 수신하지 못하게 된다. 다른 예로, 객체가 카메라 모듈(100)과 소정 거리 떨어져 위치하는 경우, 조명으로부터 광이 출력된 후 객체에서 반사되어 오는데 시간이 걸리므로, 광원의 점멸 주기는 광의 수신 주기와 차이가 나게 된다. 이에 따라, 제1 수광 유닛(132-1)과 제2 수광 유닛(132-2)이 수신하는 빛의 양에 차이가 발생하게 된다. 즉, 제1 수광 유닛(132-1)과 제2 수광 유닛(132-2)에 입력된 광량의 차를 이용하여 객체의 거리가 연산될 수 있다.
도 6은 본 발명의 실시예에 따른 전기 신호 생성 과정을 설명하기 위한 도면이다.
도 6에 나타난 바와 같이, 본 발명의 실시예에 따른 참조 신호는 4개(C1 내지 C4)일 수 있다. 각 참조 신호(C1 내지 C4)는 출력광(발광부(110)가 출력하는 광), 즉 객체의 입장에서 입사광과 동일한 주파수를 가지되, 서로 90도 위상차를 가질 수 있다. 4개의 참조 신호 중 하나(C1)는 출력광와 동일한 위상을 가질 수 있다. 입력광(수광부(120)가 입력받는 광), 즉 객체의 입장에서 반사광은 출력광이 객체에 입사된 후 반사되어 돌아오는 거리만큼 위상이 지연된다. 센서부(130)는 입력광과 각 참조 신호를 각각 믹싱(mixing)한다. 그러면, 센서부(130)는 도 4의 음영 부분에 대응하는 전기 신호를 각 참조 신호별로 생성할 수 있다.
다른 실시예로, 노출 시간 동안 복수의 주파수로 출력광이 생성된 경우, 센서는 복수의 주파수에 따른 입력광을 흡수한다. 예를 들어, 주파수 f1과 f2로 출력광이 생성되고, 복수의 참조 신호는 90도의 위상차를 가진다고 가정한다. 그러면, 입사광 역시 주파수 f1과 f2를 가지므로, 주파수가 f1인 입력광과 이에 대응하는 4개의 참조 신호를 통해 4개의 전기 신호가 생성될 수 있다. 그리고 주파수가 f2인 입력광과 이에 대응하는 4개의 참조 신호를 통해 4개의 전기 신호가 생성될 수 있다. 따라서, 전기 신호는 총 8개가 생성될 수 있다.
도 7은 본 발명의 실시예에 따른 서브 프레임 영상을 설명하기 위한 도면이다.
앞서 살펴본 바와 같이, 전기 신호는 4개의 위상에 대하여 각각 생성될 수 있다. 따라서, 도 7에 도시된 것처럼, 영상 처리부(150)는 4개의 위상에 대응하는 서브 프레임 영상을 얻을 수 있다. 여기서, 4개의 위상은 0°, 90°, 180°, 270°일 수 있으며, 서브 프레임 영상은 위상 영상, 위상 IR 영상 등과 혼용될 수 있다.
그리고, 영상 처리부(150)는 복수의 서브 프레임 영상에 기초하여 깊이 영상을 생성할 수 있다.
도 8은 본 발명의 실시예에 따른 깊이 영상을 설명하기 위한 도면이다.
도 8의 깊이 영상은 도 5의 서브 프레임 영상에 기초하여 생성된 영상을 나타낸다. 영상 처리부(150)는 복수의 서브 프레임 영상을 이용하여 깊이 영상을 생성할 수 있으며, 이는 아래의 수학식 1 및 수학식 2를 통해 구현될 수 있다.
Figure pat00001
여기서, Raq(x0)은 0도 위상에 대응하는 서브 프레임 영상을 의미한다. Raq(x90)은 90도 위상에 대응하는 서브 프레임 영상을 의미한다. Raq(x180)은 180도 위상에 대응하는 서브 프레임 영상을 의미한다. Raq(x270)은 270도 위상에 대응하는 서브 프레임 영상을 의미한다.
즉, 영상 처리부(150)는 수학식 1을 통해 각 픽셀별로 수광부(120)가 입력받는 발광부(110)가 출력하는 광 사이의 위상차를 산출할 수 있다.
Figure pat00002
여기서, f는 출력광 신호의 주파수를 의미한다. c는 빛의 속도를 의미한다.
즉, 영상 처리부(150)는 수학식 2를 통해 각 픽셀별로 카메라 모듈(100)과 객체 사이의 거리를 산출할 수 있다.
한편, 영상 처리부(150)는 복수의 서브 프레임 영상에 기초하여 ToF IR 영상을 생성할 수도 있다.
도 9는 본 발명의 실시예에 따른 ToF IR 영상을 설명하기 위한 도면이다.
도 9는 도 5의 4개 서브 프레임 영상을 통해 생성된 ToF IR 영상의 일종인 앰플리튜드 영상(amplitude image)을 나타낸다.
도 9에서와 같은 앰플리튜드 영상을 생성하기 위하여, 영상 처리부(150)는 아래의 수학식 3을 이용할 수 있다.
Figure pat00003
다른 예로, 영상 처리부(150)는 아래의 수학식 4를 이용하여 ToF IR 영상의 일종인 인텐시티 영상(intensity image)을 생성할 수 있다. 인텐시티 영상은 컨피던스(confidence) 영상과 혼용될 수 있다.
Figure pat00004
앰플리튜드 영상이나 인텐시티 영상과 같은 ToF IR 영상은 그레이 영상일 수 있다.
도 10 및 도 11은 영상 처리부의 영상 처리 과정을 설명하기 위한 도면이다.
본 발명의 실시예에 따른 영상 처리부(150)는 전기 신호를 통해 생성하는 제1 영상(상기에서 설명한 깊이 영상, ToF IR 영상 등)을 다수 이용하여 제1 영상보다 높은 해상도를 가지는 제2 영상을 생성할 수 있다.
우선, 하나의 실시예로서, 영상의 해상도를 높이기 위하여, 영상 처리부(150)는 슈퍼 레졸루션(Super Resolution, SR) 기법을 이용할 수 있다. SR 기법은 복수의 저해상 영상으로부터 고해상 영상을 얻는 기법으로, SR 기법의 수학적 모델은 수학식 5와 같이 나타낼 수 있다.
Figure pat00005
여기서, 1≤k≤p이고, p는 저해상 영상의 개수이며, yk는 저해상 영상(=[yk,1, yk,2, …, yk,M]T, 여기서, M=N1*N2), Dk는 다운 샘플링(down sampling) 매트릭스, Bk는 광학 흐림(blur) 매트릭스, Mk는 영상 왜곡(warping) 매트릭스, x는 고해상 영상(=[x1, x2, …, xN]T, 여기서, N=L1N1*L2N2), nk는 노이즈를 나타낸다. 즉, SR 기법에 따르면, yk에 추정된 해상도 열화 요소들의 역함수를 적용하여 x를 추정하는 기술을 의미한다. SR 기법은 크게 통계적 방식과 멀티프레임 방식으로 나뉠 수 있으며, 멀티프레임 방식은 크게 공간 분할 방식과 시간 분할 방식으로 나뉠 수 있다. 깊이 정보 획득을 위하여 SR 기법을 이용하는 경우, 수학식 5의 Mk의 역함수가 존재하지 않기 때문에, 통계적 방식이 시도될 수 있다. 다만, 통계적 방식의 경우, 반복 연산 과정이 필요하므로, 효율이 낮은 문제가 있다.
하지만, 본 발명의 실시예에 따르면, 발광부(110)가 규칙성을 가지는 복수의 구동 시퀀스를 통해 복수의 제1 영상을 획득할 수 있다. 즉, 통계적 방식을 이용하지 않더라도, 수학식 1의 Mk의 역함수를 정확히 추정할 수 있다. 따라서, 각 전기 신호에 대응한 복수의 서브 프레임 영상으로부터 생성된 복수의 제1 영상으로부터 제2 영상을 생성하는데 있어 SR 기법의 효율을 크게 높일 수 있는 장점이 있다.
예를 들어, 도 10에서, 영상 처리부(150)는 복수의 전기 신호를 이용하여 1-1 내지 4-8의 서브 프레임 영상을 생성할 수 있다. 서브 프레임 영상 1-1 내지 1-8은 제1 노출 주기, 즉 발광부(110)의 제1 시퀀스에서 생성된 서브 프레임 영상이다. 서브 프레임 영상 2-1 내지 2-8은 제2 노출 주기, 즉 발광부(110)의 제2 시퀀스에서 생성된 서브 프레임 영상이다. 서브 프레임 영상 3-1 내지 3-8은 제3 노출 주기, 즉 발광부(110)의 제3 시퀀스에서 생성된 서브 프레임 영상이다. 서브 프레임 영상 4-1 내지 4-8은 제4 노출 주기, 즉 발광부(110)의 제4 시퀀스에서 생성된 서브 프레임 영상이다.
그러면, 영상 처리부(150)는 각 노출 주기에서 생성된 복수의 서브 프레임 영상으로부터 복수의 제1 영상(LRD-1 내지 LRD-4)를 생성할 수 있다. 제1 영상 LRD-1은 서브 프레임 영상 1-1 내지 1-8을 이용하여 추출된 제1 영상이다. 제1 영상 LRD-2는 서브 프레임 영상 2-1 내지 2-8을 이용하여 추출된 제1 영상이다. 제1 영상 LRD-3은 서브 프레임 영상 3-1 내지 3-8을 이용하여 추출된 제1 영상이다. 제1 영상 LRD-4은 서브 프레임 영상 4-1 내지 4-8을 이용하여 추출된 제1 영상이다.
그리고, 영상 처리부(150)는 SR 기법을 통해 복수의 제1 영상(LRD-1 내지 LRD-4)으로부터 1개의 제2 영상(HRD)을 생성할 수 있다.
다른 실시예로, 영상의 해상도를 높이기 위하여, 영상 처리부(150)는 픽셀값을 재배치하는 SR 기법을 이용할 수 있다.
본 발명의 실시예에 따르면, 영상 처리부(150)는 복수의 제1 영상의 각 픽셀값을 고해상 픽셀 그리드(grid)에 재배치하여 제2 영상을 생성할 수 있다. 이때, 영상 처리부(150)는 각 제1 영상에 대응하는 발광부(110)의 광경로의 이동 방향에 따라 픽셀값을 배치할 수 있다.
도 11은 4개의 4x4 크기의 저해상 영상을 이용하여 1개의 8x8 크기의 고해상 영상을 생성하는 것을 가정한다. 이때, 고해상 픽셀 그리드는 8x8의 픽셀을 가지며, 이는 고해상 영상의 픽셀과 동일하다. 여기서 저해상 영상은 제1 영상을 포함하는 의미일 수 있고, 고해상 영상은 제2 영상을 포함하는 의미일 수 있다.
도 11에서 제1 내지 4 저해상 영상은 0.5 픽셀 크기의 서브픽셀만큼 광경로가 이동되어 촬영된 저해상 영상이다. 영상 처리부(150)는 광경로가 이동하지 않은 제1 저해상 영상을 기준으로 광경로가 이동한 방향에 따라 제2 내지 4 저해상 영상의 픽셀값을 고해상 영상에 대응하는 고해상 픽셀 그리드에 배치할 수 있다.
구체적으로, 제2 저해상 영상은 제1 저해상 영상으로부터 서브픽셀만큼 우측으로 이동한 영상이다. 그러므로, 제1 저해상 영상의 각 픽셀(A) 우측에는 제2 제1 영상의 픽셀(B)이 배치될 수 있다.
제3 저해상 영상은 제2 저해상 영상으로부터 서브픽셀만큼 아래측으로 이동한 영상이다. 그러므로, 제2 저해상 영상의 각 픽셀(B) 아래에 위치한 픽셀에는 제3 저해상 영상의 픽셀(C)이 배치될 수 있다.
제4 저해상 영상은 제3 저해상 영상으로부터 서브픽셀만큼 좌측으로 이동한 영상이다. 그러므로, 제3 저해상 영상의 픽셀(C) 좌측에 위치한 픽셀에는 제4 저해상 영상의 픽셀(D)이 배치될 수 있다.
고해상 픽셀 그리드에 제1 내지 제4 저해상 영상의 픽셀값이 모두 재배치되면, 저해상 영상보다 해상도가 4배 증가한 고해상 영상이 생성될 수 있다.
한편, 영상 처리부(150)는 배치되는 픽셀값에 가중치를 적용할 수 있다. 이때, 가중치는 서브픽셀의 크기나 광경로의 이동 방향에 따라 다르게 설정될 수 있으며, 각 저해상 영상 별로 다르게 설정될 수 있다.
도 12는 본 발명의 제1 실시예에 따른 카메라 모듈의 구동을 설명하기 위한 도면이다.
도 12에 도시된 것처럼, 발광부(110)는 4x16의 어레이 형태로 배열된 복수의 발광 소자를 포함하며, 4개의 시퀀스에 따라 발광부(110)가 광을 출력한다고 가정한다. 제1 시퀀스에서는 발광 소자 중 제1열, 제5열, 제9열 및 제13열에 배치된 소자가 동작하고, 제2 시퀀스에서는 발광 소자 중 제2열, 제6열, 제10열 및 제14열에 배치된 소자가 동작하고, 제3 시퀀스에서는 발광 소자 중 제3열, 제7열, 제11열 및 제15열에 배치된 소자가 동작하고, 제4 시퀀스에서는 발광 소자 중 제4열, 제8열, 제12열 및 제16열에 배치된 소자가 동작할 수 있다.
발광부(110)가 4개의 시퀀스 중 어느 하나에 따라 광을 생성하면, 생성된 광은 광학 소자를 통과하며 복제될 수 있다. 예를 들어, 광학 소자는 발광 소자 1개 열에서 출력한 광을 40개의 라인으로 복제할 수 있다. 그러면, 1개의 시퀀스에서 발광부(110)가 출력한 광의 패턴은 160개의 라인으로 구성될 수 있다. 따라서, 4개의 시퀀스에서 발광부(110)가 출력한 광의 패턴은 총 640개 라인으로 구성될 수 있다.
도 12에서 나타난 것처럼, 동일한 시퀀스에 출력된 복수의 라인은 서로 일정간 이격 간격에 따라 배치될 수 있다. 일정간 이격 간격에는 다른 시퀀스의 복제 라인이 배치되는 위치일 수 있다. 제1 시퀀스에서 제4 시퀀스는 좌측에서 우측으로 발광 소자의 동작이 이동하고 있으므로, 발광부(110)가 출력하는 광의 경로 역시 좌측에서 우측으로 이동한다. 따라서, 제1 시퀀스의 라인 우측에는 제2 시퀀스의 라인이 배치되고, 제2 시퀀스의 라인 우측에는 제3 시퀀스의 라인이 배치되고, 제3 시퀀스의 라인 우측에는 제4 시퀀스의 라인이 배치될 수 있다.
발광부(110)가 각 시퀀스에 따라 출력한 광은 객체에 반사된 후 수광부(120)에 의해 집광된 후 센서부(130)에 입력될 수 있다. 센서부(130)가 가로 160 픽셀, 세로 480 픽셀로 구성될 경우, 각 시퀀스에서 1개 라인이 센서부(130)의 1개 픽셀 열에 대응할 수 있다.
도 13은 본 발명의 제1 실시예에 따른 발광부가 출력한 광과 센서부의 픽셀 사이의 관계를 설명하기 위한 도면이다.
앞서 살펴본 것처럼, 4개의 시퀀스에 따라 발광부(110)가 동작할 경우, 각 시퀀스에 대응하여 생성된 광 패턴의 라인은 발광 소자의 구동 열에 따라 순차적으로 배치될 수 있다. 이 경우, 도 13에 도시된 것처럼, 발광부(110)가 출력한 광의 패턴 중 하나의 라인은 1도의 화각을 가질 수 있다. 즉, 연속되는 4개의 라인은 4도의 화각을 가질 수 있다.
그리고, 센서부(130)의 1개 픽셀은 4도의 화각에 대응하여 광 정보를 입력받을 수 있다. 즉, 센서부(130)의 각 픽셀은 제1 내지 제4 시퀀스에 따라 출력되어 객체에 반사된 광 정보를 각 노출 주기별로 입력받게 된다.
그러면, 영상 처리부(150)는 도 13에 도시된 것처럼, 제1 내지 제4 시퀀스에 따라 생성된 4장의 제1 영상을 이용하여 1장의 제2 영상을 생성할 수 있다.
도 14는 본 발명의 제1 실시예에 따른 카메라 모듈의 구동 프로세스를 설명하기 위한 도면이다.
발광부(110)는 하나의 노출 주기, 즉 1개의 영상 프레임에 대응하여 1개의 시퀀스에 따라 구동할 수 있다. 본 발명의 실시예에 따르면, 발광부(110)는 4개의 시퀀스에 광을 출력할 수 있으며, 4개의 시퀀스는 순차적으로 반복될 수 있다.
발광부(110)가 제1 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 첫번째 제1 영상을 생성할 수 있다. 발광부(110)가 제2 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 두번째 제1 영상을 생성할 수 있다. 발광부(110)가 제3 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 세번째 제1 영상을 생성할 수 있다. 발광부(110)가 제4 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 네번째 제1 영상을 생성할 수 있다. 그리고 다시 발광부(110)가 제1 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 다섯번째 제1 영상을 생성할 수 있으며, 이후 시퀀스가 계속 반복될 수 있다.
센서부(130)가 가로 160 픽셀, 세로 480 픽셀로 구성될 경우, 각각의 제1 영상은 160x480개의 픽셀값을 가질 수 있다. 즉, 제1 영상의 해상도는 160x480이 된다.
하지만, 영상 처리부(150)가 제1 내지 제4 시퀀스에 대응하여 생성된 4장의 제1 영상을 이용하여 하나의 제2 영상을 생성할 경우, 제2 영상은 640x480개의 픽셀값을 가질 수 있다. 즉, 제2 영상의 해상도는 640x480으로 제1 영상에 해상도에 비해 가로로 4배 향상될 수 있다.
도 15는 본 발명의 제2 실시예에 따른 카메라 모듈의 구동을 설명하기 위한 도면이다.
도 15에 도시된 것처럼, 발광부(110)는 4x16의 어레이 형태로 배열된 복수의 발광 소자를 포함하며, 4개의 시퀀스에 따라 발광부(110)가 광을 출력한다고 가정한다. 제1 시퀀스에서는 발광 소자 중 제1열, 제5열, 제9열 및 제13열에 배치된 소자가 동작하고, 제2 시퀀스에서는 발광 소자 중 제2열, 제6열, 제10열 및 제14열에 배치된 소자가 동작하고, 제3 시퀀스에서는 발광 소자 중 제3열, 제7열, 제11열 및 제15열에 배치된 소자가 동작하고, 제4 시퀀스에서는 발광 소자 중 제4열, 제8열, 제12열 및 제16열에 배치된 소자가 동작할 수 있다.
발광부(110)가 4개의 시퀀스 중 어느 하나에 따라 광을 생성하면, 생성된 광은 광학 소자를 통과하며 복제될 수 있다. 예를 들어, 광학 소자는 발광 소자 1개 열에서 출력한 광을 40개의 라인으로 복제할 수 있다. 그러면, 1개의 시퀀스에서 발광부(110)가 출력한 광의 패턴은 160개의 라인으로 구성될 수 있다. 따라서, 4개의 시퀀스에서 발광부(110)가 출력한 광의 패턴은 총 640개 라인으로 구성될 수 있다.
도 15에서 나타난 것처럼, 동일한 시퀀스에 출력된 복수의 라인은 서로 일정간 이격 간격에 따라 배치될 수 있다. 일정간 이격 간격에는 다른 시퀀스의 복제 라인이 배치되는 위치일 수 있다. 제1 시퀀스에서 제4 시퀀스는 좌측에서 우측으로 발광 소자의 동작이 이동하고 있으므로, 발광부(110)가 출력하는 광의 경로 역시 좌측에서 우측으로 이동한다. 따라서, 제1 시퀀스의 라인 우측에는 제2 시퀀스의 라인이 배치되고, 제2 시퀀스의 라인 우측에는 제3 시퀀스의 라인이 배치되고, 제3 시퀀스의 라인 우측에는 제4 시퀀스의 라인이 배치될 수 있다.
발광부(110)가 각 시퀀스에 따라 출력한 광은 객체에 반사된 후 수광부(120)에 의해 집광되어 센서부(130)에 입력될 수 있다. 센서부(130)가 가로 160 픽셀, 세로 240 픽셀로 구성될 경우, 각 시퀀스에서 1개 라인이 센서부(130)의 1개 픽셀 열에 대응할 수 있다.
발광부(110)는 도 15의 (a)에서와 같이 기준 위치에서 제1 내지 제4 시퀀스를 발광 소자를 구동한 후, 도 15의 (b)에서와 같이 틸트부(160)에 의해 필터를 통과한 광의 경로가 변경되면, 다시 제1 내지 제4 시퀀스에 따라 발광 소자를 구동시킬 수 있다.
따라서, 기준 위치에서 제1 내지 제4 시퀀스에 대응하는 4장의 제1 영상을 이용하면 도 15의 (a)에서와 같은 640x240 해상도의 제2 영상이 생성되고, 틸트한 위치에서 제1 내지 제4 시퀀스에 대응하는 4장의 제1 영상을 이용하면 도 15의 (b)에서와 같은 640x240 해상도의 제2 영상이 생성될 수 있다.
기준 위치에 대응하는 제2 영상과 틸트한 위치에 대응하는 제2 영상은 상하 방향에서 광경로 이동에 따른 왜곡으로 인하여 영상의 차이가 발생할 수 있다. 따라서, 2개의 제2 영상을 다시 이용하면 640x480 해상도의 영상이 생성될 수 있다. 즉, 영상 처리부(150)는 기준 위치에서의 4장의 제1 영상과 틸트한 위치에서의 4장의 제2 영상, 즉 8장의 제1 영상을 이용하여 해상도가 8배 증가한 제2 영상을 생성할 수 있다.
예시에서는 기준 위치에서 1회 틸트한 경우를 설명하였으나, 2회 이상을 틸트할 수도 있으며, 이에 따라 해상도는 더 증가할 수 있다.
도 16은 본 발명의 제2 실시예에 따른 발광부가 출력한 광과 센서부의 픽셀 사이의 관계를 설명하기 위한 도면이다.
앞서 살펴본 것처럼, 4개의 시퀀스에 따라 발광부(110)가 동작할 경우, 각 시퀀스에 대응하여 생성된 광 패턴의 라인은 발광 소자의 구동 열에 따라 순차적으로 배치될 수 있다. 이 경우, 도 16에 도시된 것처럼, 발광부(110)가 출력한 광의 패턴 중 하나의 라인은 1도의 화각을 가질 수 있다. 즉, 연속되는 4개의 라인은 4도의 화각을 가질 수 있다.
그리고, 센서부(130)의 1개 픽셀은 4도의 화각에 대응하여 광 정보를 입력받을 수 있다. 즉, 센서부(130)의 각 픽셀은 제1 내지 제4 시퀀스에 따라 출력되어 객체에 반사된 광 정보를 각 노출 주기별로 입력받게 된다. 도 16의 (a)와 같이 기준 위치에서 제1 내지 제4 시퀀스가 수행되고 도 16의 (b)와 같이 1회 틸트한 위치에서 제1 내지 제4 시퀀스가 수행되면, 총 8개의 노출 주기에서 각각 광 정보를 입력받을 수 있다. 즉, 센서부(130)의 1개 픽셀에서 8개 노출 주기의 광 정보가 확장되어 2x4 픽셀값을 제공할 수 있다.
도 17은 본 발명의 제2 실시예에 따른 카메라 모듈의 구동 프로세스를 설명하기 위한 도면이다.
발광부(110)는 하나의 노출 주기, 즉 1개의 영상 프레임에 대응하여 1개의 시퀀스에 따라 구동할 수 있다. 본 발명의 실시예에 따르면, 발광부(110)는 4개의 시퀀스에 광을 출력할 수 있으며, 4개의 시퀀스는 순차적으로 반복될 수 있다.
먼저, 발광부(110)는 기준 위치에서 제1 내지 제4 시퀀스에 따라 광을 출력할 수 있다. 발광부(110)가 제1 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 첫번째 제1 영상을 생성할 수 있다. 발광부(110)가 제2 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 두번째 제1 영상을 생성할 수 있다. 발광부(110)가 제3 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 세번째 제1 영상을 생성할 수 있다. 발광부(110)가 제4 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 네번째 제1 영상을 생성할 수 있다.
기준 위치에서 4개의 시퀀스가 종료되면, 발광부(110)는 틸트된 위치에서 제1 내지 제4 시퀀스에 따라 광을 출력할 수 있다. 발광부(110)가 제1 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 다섯번째 제1 영상을 생성할 수 있다. 발광부(110)가 제2 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 여섯번째 제1 영상을 생성할 수 있다. 발광부(110)가 제3 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 일곱번째 제1 영상을 생성할 수 있다. 발광부(110)가 제4 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 여덟번째 제1 영상을 생성할 수 있다.
틸트된 위치에서 제1 내지 제4 시퀀스가 종료되면, 발광부(110)는 다시 기준 위치에서 제1 내지 제4 시퀀스에 따라 광을 출력할 수 있다. 즉, 발광부(110)가 제1 시퀀스에 따라 광을 출력하면, 이에 대응하여 영상 처리부(150)는 아홉번째 제1 영상을 생성할 수 있다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 카메라 모듈
110 : 발광부
120 : 수광부
130 : 센서부
140 : 제어부
150 : 영상 처리부
160 : 틸트부

Claims (11)

  1. 복수의 발광 소자를 포함하고 객체에 광을 출력하는 발광부;
    상기 발광부로부터 출력되어 상기 객체에 반사된 광을 통과시키는 필터와 렌즈를 포함하는 수광부;
    상기 수광부를 통과한 광을 수신하는 복수의 픽셀을 포함하는 센서부;및
    상기 발광부를 복수의 구동 시퀀스에 따라 제어하는 제어부를 포함하며,
    상기 구동 시퀀스는 기 설정된 간격만큼 이격된 상기 발광 소자들을 동일 시점에 구동하고,
    상기 복수의 구동 시퀀스 각각은 서로 다른 발광 소자를 구동하는 카메라 모듈.
  2. 제1항에 있어서,
    상기 발광부는,
    상기 복수의 발광 소자가 생성하는 광을 복제하여 출력하는 광학 소자를 포함하는 카메라 모듈.
  3. 제1항에 있어서,
    상기 제어부는,
    상기 복수의 구동 시퀀스를 순차 적용하여 상기 복수의 발광 소자를 구동시키되, 상기 복수의 구동 시퀀스를 반복 적용하여 상기 복수의 발광 소자를 구동시키는 카메라 모듈.
  4. 제1항에 있어서,
    상기 복수의 구동 시퀀스에 대응하여 생성된 복수의 전기 신호에 기초하여 복수의 제1 영상을 획득하는 영상 처리부를 더 포함하는 카메라 모듈.
  5. 제4항에 있어서,
    상기 영상 처리부는,
    상기 복수의 제1 영상을 이용하여 상기 제1 영상보다 높은 해상도를 가지는 제2 영상을 생성하는 카메라 모듈.
  6. 제5항에 있어서,
    상기 영상 처리부는,
    상기 복수의 구동 시퀀스에 따라 상기 객체에 출력된 광의 경로에 대응하여 상기 복수의 제1 영상의 픽셀값을 배치함으로써 상기 제2 영상을 생성하는 카메라 모듈.
  7. 제4항에 있어서,
    상기 필터 및 렌즈 중 적어도 하나를 통과한 상기 광의 경로가 소정의 규칙에 따라 반복하여 이동하도록 상기 필터 및 렌즈 중 적어도 하나를 틸트시키는 틸트부를 더 포함하는 카메라 모듈.
  8. 제7항에 있어서,
    상기 틸트부는,
    상기 복수의 구동 시퀀스가 1회 순차 구동되면 상기 필터 및 렌즈 중 적어도 하나를 틸트시키는 카메라 모듈.
  9. 제7항에 있어서,
    상기 틸트부는,
    틸트 후 상기 필터 및 렌즈 중 적어도 하나를 통과한 광의 경로가 틸트 전 상기 필터 및 렌즈 중 적어도 하나를 통과한 광의 경로를 기준으로 상기 센서의 0픽셀보다 크고 1픽셀보다 작은 단위만큼 이동되도록 상기 필터 및 렌즈 중 적어도 하나를 틸트시키는 카메라 모듈.
  10. 제7항에 있어서,
    상기 영상 처리부는,
    상기 필터 및 렌즈 중 적어도 하나를 틸트한 상태에서 상기 복수의 구동 시퀀스에 대응하여 생성된 복수의 전기 신호에 기초하여 복수의 제1 영상을 획득하는 카메라 모듈.
  11. 제10항에 있어서,
    상기 영상 처리부는,
    상기 복수의 제1 영상을 이용하여 상기 제1 영상보다 높은 해상도를 가지는 하나의 제2 영상을 생성하는 카메라 모듈.
KR1020190033623A 2019-03-25 2019-03-25 카메라 모듈 KR20200113437A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190033623A KR20200113437A (ko) 2019-03-25 2019-03-25 카메라 모듈

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190033623A KR20200113437A (ko) 2019-03-25 2019-03-25 카메라 모듈

Publications (1)

Publication Number Publication Date
KR20200113437A true KR20200113437A (ko) 2020-10-07

Family

ID=72883539

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190033623A KR20200113437A (ko) 2019-03-25 2019-03-25 카메라 모듈

Country Status (1)

Country Link
KR (1) KR20200113437A (ko)

Similar Documents

Publication Publication Date Title
KR102473650B1 (ko) 카메라 모듈 및 그의 깊이 정보 추출 방법
KR102661298B1 (ko) 광학계 및 이를 포함하는 카메라 모듈
KR102571864B1 (ko) 카메라 장치
US20220321789A1 (en) Camera module
KR20210034301A (ko) 카메라 모듈
TWI829828B (zh) 攝影裝置
KR102561533B1 (ko) 카메라 장치
KR20200113437A (ko) 카메라 모듈
KR102523762B1 (ko) 이미지 센서 및 이를 이용하는 카메라 모듈
KR20210034300A (ko) 카메라 모듈
US11994378B2 (en) Camera module
KR20200113438A (ko) 카메라 모듈
KR20190139573A (ko) 카메라 모듈 및 그의 깊이 정보 추출 방법
KR20200108736A (ko) 카메라 모듈
US20220329774A1 (en) Tof camera
KR20200129388A (ko) 카메라 모듈
KR102553555B1 (ko) 카메라 모듈
KR20200125215A (ko) 카메라 모듈
KR20200126129A (ko) 카메라 모듈
CN116746144A (zh) 相机模块
US20220244390A1 (en) Camera module
KR20200139532A (ko) 카메라 모듈
KR20200108735A (ko) 카메라 장치
KR20200131029A (ko) 카메라 모듈
KR20200036612A (ko) 카메라 모듈 및 그의 깊이 정보 추출 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal