KR20210138305A - Camera device - Google Patents

Camera device Download PDF

Info

Publication number
KR20210138305A
KR20210138305A KR1020200056479A KR20200056479A KR20210138305A KR 20210138305 A KR20210138305 A KR 20210138305A KR 1020200056479 A KR1020200056479 A KR 1020200056479A KR 20200056479 A KR20200056479 A KR 20200056479A KR 20210138305 A KR20210138305 A KR 20210138305A
Authority
KR
South Korea
Prior art keywords
light
unit
pixel group
light source
processing unit
Prior art date
Application number
KR1020200056479A
Other languages
Korean (ko)
Other versions
KR102674227B1 (en
Inventor
이재훈
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020200056479A priority Critical patent/KR102674227B1/en
Publication of KR20210138305A publication Critical patent/KR20210138305A/en
Application granted granted Critical
Publication of KR102674227B1 publication Critical patent/KR102674227B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • H04N5/2256
    • H04N5/2353
    • H04N5/243

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)

Abstract

A camera device according to one embodiment of the present invention includes: a light source emitting a first light including a plurality of light spots; a light receiving unit receiving the first light and generating a first image signal based on the received first light; and a processing unit receiving the first image signal. The processing unit generates first image information including a plurality of pixels based on the first image signal, classifies the plurality of pixels into one of a first pixel group including pixels corresponding to the light spot and a second pixel group including pixels not corresponding to the light spot, compares a pixel value of the second pixel group with a preset reference value, and controls an operation of the light source based on the comparison result.

Description

카메라 장치{CAMERA DEVICE}Camera Device {CAMERA DEVICE}

실시 예는 카메라 장치에 관한 것이다.The embodiment relates to a camera device.

3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 3D contents are being applied in many fields such as education, manufacturing, and autonomous driving as well as games and culture, and depth map is required to acquire 3D contents. Depth information is information representing a distance in space, and represents perspective information of one point in a 2D image at another point.

깊이 정보를 획득하는 방법으로, IR(Infrared) 구조광을 객체에 투사하는 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다. TOF 방식에 따르면, 비행 시간, 즉 빛을 쏘아서 반사되어 오는 시간을 측정함으로써 물체와의 거리를 계산한다. ToF 방식의 가장 큰 장점은 3차원 공간에 대한 거리정보를 실시간으로 빠르게 제공한다는 점에 있다. 또한 사용자가 별도의 알고리즘 적용이나 하드웨어적 보정을 하지 않고도 정확한 거리 정보를 얻을 수 있다. 또한 매우 가까운 피사체를 측정하거나 움직이는 피사체를 측정하여도 정확한 깊이 정보를 획득할 수 있다.As a method of acquiring depth information, a method of projecting infrared (IR) structured light onto an object, a method using a stereo camera, a time of flight (TOF) method, and the like are used. According to the TOF method, the distance to the object is calculated by measuring the time of flight, that is, the time the light is emitted and reflected. The biggest advantage of the ToF method is that it provides distance information in a 3D space quickly in real time. In addition, the user can obtain accurate distance information without applying a separate algorithm or performing hardware correction. Also, accurate depth information can be obtained by measuring a very close subject or measuring a moving subject.

하지만, 광을 방출함으로써 깊이 정보를 획득하는 방식의 경우에는 안전상 문제가 제기된다. 광원에서 빛의 파워를 분산시키는 부재 등의 파손으로 인해 강한 빛이 사람의 눈과 같이 빛에 취약한 부위에 직접 조사될 경우 상해가 발생할 수 있기 때문이다. 따라서, 이러한 문제점을 해결할 수 있는 방법이 요구된다. However, in the case of a method of acquiring depth information by emitting light, a safety problem is raised. This is because injuries may occur when strong light is directly irradiated to areas vulnerable to light, such as the human eye, due to damage to a member that disperses the power of light from the light source. Therefore, a method capable of solving these problems is required.

실시 예는 발광부의 고장을 검출할 수 있는 카메라 장치를 제공한다. The embodiment provides a camera device capable of detecting a failure of a light emitting unit.

실시 예는 발광부의 고장 시 광원의 구동을 제어할 수 있는 카메라 장치를 제공한다. The embodiment provides a camera device capable of controlling driving of a light source when a light emitting unit fails.

실시 예는 주변광에 의한 노이즈에 강한 카메라 장치를 제공한다. An embodiment provides a camera device that is resistant to noise caused by ambient light.

실시 예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.The problem to be solved in the embodiment is not limited thereto, and it will be said that the purpose or effect that can be grasped from the solving means or embodiment of the problem described below is also included.

본 발명의 실시예에 따른 카메라 장치는 복수의 광스팟을 포함하는 제1 광을 방출하는 광원; 상기 제1 광을 수광하며, 수광된 상기 제1 광에 기초하여 제1 영상 신호를 생성하는 수광부; 상기 제1 영상 신호를 수신하는 처리부;를 포함하고, 상기 처리부는, 상기 제1 영상 신호에 기초하여 복수의 픽셀을 포함하는 제1 영상 정보를 생성하고, 상기 광스팟에 대응하는 픽셀을 포함하는 제1 픽셀 그룹 및 상기 광스팟에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹 중 어느 하나로 상기 복수의 픽셀을 분류하고, 상기 제2 픽셀 그룹의 픽셀값과 기 설정된 기준값을 비교하고, 상기 비교 결과에 기초하여 상기 광원의 동작을 제어한다. A camera device according to an embodiment of the present invention includes: a light source emitting a first light including a plurality of light spots; a light receiving unit receiving the first light and generating a first image signal based on the received first light; a processing unit receiving the first image signal, wherein the processing unit generates first image information including a plurality of pixels based on the first image signal and includes a pixel corresponding to the light spot classifying the plurality of pixels into any one of a first pixel group and a second pixel group including pixels not corresponding to the light spot, comparing a pixel value of the second pixel group with a preset reference value, and the comparison result Controls the operation of the light source based on

상기 처리부는, 기 설정된 분류 기준에 기초하여 상기 복수의 픽셀을 상기 제1 픽셀 그룹과 상기 제2 픽셀 그룹으로 분류할 수 있다. The processor may classify the plurality of pixels into the first pixel group and the second pixel group based on a preset classification criterion.

상기 처리부는 상기 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 작으면, 상기 광원을 턴온시키는 제어 신호를 생성할 수 있다. When the pixel value of the second pixel group is smaller than a preset reference value, the processor may generate a control signal for turning on the light source.

상기 처리부는 상기 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 크거나 같으면, 상기 광원을 턴오프시키는 제어 신호를 생성할 수 있다. The processor may generate a control signal for turning off the light source when a pixel value of the second pixel group is greater than or equal to a preset reference value.

상기 수광부는, 상기 광원의 구동 시간에 동기화되어 상기 제1 광을 수광할 수 있다. The light receiving unit may receive the first light in synchronization with the driving time of the light source.

상기 수광부는, 상기 광원이 동작하지 않는 비구동 시간에 동기화되어 제2 광을 수광하며, 상기 제2 광에 기초하여 제2 영상 신호를 생성할 수 있다. The light receiving unit may receive a second light in synchronization with a non-driving time when the light source is not in operation, and may generate a second image signal based on the second light.

상기 처리부는, 상기 제2 영상 신호에 기초하여 제2 영상 정보를 생성하고, 상기 제2 영상 정보에 포함된 복수의 픽셀을 발광원에 대응하는 픽셀을 포함하는 제1 픽셀 그룹과 상기 발광원에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹으로 분류하며, 상기 제2 영상 정보의 제2 픽셀 그룹의 픽셀값에 기초하여 외부광에 의한 노이즈 레벨을 산출하고, 상기 노이즈 레벨에 기초하여 상기 광원 및 수광부 중 적어도 하나를 제어할 수 있다. The processing unit generates second image information based on the second image signal, and applies a plurality of pixels included in the second image information to a first pixel group including pixels corresponding to a light emitting source and the light emitting source. classify into a second pixel group including non-corresponding pixels, calculate a noise level due to external light based on a pixel value of a second pixel group of the second image information, and calculate a noise level from the light source and At least one of the light receiving units may be controlled.

상기 처리부는, 상기 노이즈 레벨에 따라 상기 수광부의 노출시간(exposure time)을 변경하거나, 상기 수광부에 포함된 센서의 픽셀 소자의 이득값(gain)을 변경할 수 있다. The processing unit may change an exposure time of the light receiving unit or a gain of a pixel element of a sensor included in the light receiving unit according to the noise level.

상기 처리부는, 상기 노이즈 레벨에 따라 상기 광원이 생성하는 빛의 파워를 변경할 수 있다. The processing unit may change the power of the light generated by the light source according to the noise level.

상기 처리부는, 상기 노이즈 레벨에 따라 상기 기 설정된 기준값을 변경할 수 있다. The processor may change the preset reference value according to the noise level.

상기 광원은, 각각의 깊이 영상 프레임(frame) 생성 전 상기 제1 광을 출력할 수 있다. The light source may output the first light before each depth image frame is generated.

실시 예에 따르면, 추가적인 장치 없이 발광부의 이상 여부를 검출할 수 있으므로, 카메라 모듈의 크기를 감소시킬 수 있고 제조 비용을 절감할 수 있는 장점이 있다. According to an embodiment, since abnormality of the light emitting unit can be detected without an additional device, the size of the camera module can be reduced and manufacturing cost can be reduced.

실시 예에 따르면, 정확한 주변광의 감지가 가능하고, 주변광에 적응적으로 카메라 장치의 제어파라미터 등을 제어함으로써 촬영의 정밀도를 향상시킬 수 있다. According to an embodiment, it is possible to accurately detect ambient light, and by controlling control parameters of the camera device adaptively to the ambient light, it is possible to improve the accuracy of photographing.

실시 예에 따르면, 주변광에 따라 출력되는 광의 파워를 제어할 수 있으므로, 전력 소비량을 절감할 수 있는 장점이 있다. According to an embodiment, since the power of output light can be controlled according to ambient light, there is an advantage in that power consumption can be reduced.

본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.Various and advantageous advantages and effects of the present invention are not limited to the above, and will be more easily understood in the course of describing specific embodiments of the present invention.

도 1은 실시예에 따른 카메라 모듈의 사시도이다.
도 2는 도 1에서 AA’로 절단된 단면도이다.
도 3은 실시예에 따른 카메라 모듈의 분해 사시도이다.
도 4는 실시예에 따른 발광부의 하우징을 도시한 도면이다.
도 5는 실시예에 따른 발광부의 제1 광학부 및 제1 렌즈 배럴을 도시한 도면이다.
도 6은 실시예에 따른 발광부의 구동 마그넷부 및 구동 코일부을 도시한 도면이다.
도 7은 실시예에 따른 발광부의 탄성부의 결합을 나타낸 도면이다.
도 8은 실시예에 따른 발광부의 제1 탄성부재를 도시한 도면이다.
도 9는 실시예에 따른 발광부의 제2 탄성부재를 도시한 도면이다.
도 10은 실시예에 따른 발광부의 측면 기판의 일측을 도시한 도면이다.
도 11은 실시예에 따른 발광부의 측면 기판의 타측을 도시한 도면이다.
도 12는 실시예에 따른 카메라 모듈의 베이스를 도시한 도면이다.
도 13은 실시예에 따른 수광부의 제2 광학부 및 제2 렌즈 배럴을 도시한 도면이다.
도 14는 실시예에 따른 카메라 모듈의 커버를 도시한 도면이다.
도 15는 본 발명의 실시예에 따른 카메라 장치의 구성을 나타낸 도면이다.
도 16은 본 발명의 실시예에 따른 제1 광을 설명하기 위한 도면이다.
도 17은 본 발명의 실시예에 따른 제1 영상 정보의 제1 픽셀 그룹과 제2 픽셀 그룹을 설명하기 위한 도면이다.
도 18a 및 도 18b는 일 실시예에 따른 제2 픽셀 그룹과 기준값의 비교 과정을 설명하기 위한 도면이다.
도 19a 및 도 19b는 다른 실시예에 따른 제2 픽셀 그룹과 기준값의 비교 과정을 설명하기 위한 도면이다.
도 20은 본 발명의 실시예에 따른 제1 광을 출력 시점을 설명하기 위한 도면이다.
도 21은 본 발명의 실시예에 따른 제2 광의 수광 과정을 설명하기 위한 도면이다.
도 22는 노이즈 레벨에 따른 제어 과정을 설명하기 위한 도면이다.
1 is a perspective view of a camera module according to an embodiment.
FIG. 2 is a cross-sectional view taken along line AA′ in FIG. 1 .
3 is an exploded perspective view of a camera module according to an embodiment.
4 is a view illustrating a housing of a light emitting unit according to an embodiment.
5 is a view illustrating a first optical unit and a first lens barrel of a light emitting unit according to an embodiment.
6 is a view illustrating a driving magnet unit and a driving coil unit of the light emitting unit according to the embodiment.
7 is a view showing coupling of the elastic part of the light emitting part according to the embodiment.
8 is a view illustrating a first elastic member of a light emitting unit according to an embodiment.
9 is a view showing a second elastic member of the light emitting part according to the embodiment.
10 is a view illustrating one side of a side substrate of a light emitting unit according to an embodiment.
11 is a view showing the other side of the side substrate of the light emitting unit according to the embodiment.
12 is a view illustrating a base of a camera module according to an embodiment.
13 is a view illustrating a second optical unit and a second lens barrel of a light receiving unit according to an embodiment.
14 is a view illustrating a cover of a camera module according to an embodiment.
15 is a diagram illustrating a configuration of a camera device according to an embodiment of the present invention.
16 is a view for explaining a first light according to an embodiment of the present invention.
17 is a diagram for describing a first pixel group and a second pixel group of first image information according to an embodiment of the present invention.
18A and 18B are diagrams for explaining a process of comparing a second pixel group and a reference value according to an exemplary embodiment.
19A and 19B are diagrams for explaining a process of comparing a second pixel group and a reference value according to another exemplary embodiment.
20 is a view for explaining an output timing of the first light according to an embodiment of the present invention.
21 is a view for explaining a light receiving process of a second light according to an embodiment of the present invention.
22 is a diagram for explaining a control process according to a noise level.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical spirit of the present invention is not limited to some embodiments described, but may be implemented in various different forms, and within the scope of the technical spirit of the present invention, one or more of the components may be selected among the embodiments. It can be combined and substituted for use.

또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention may be generally understood by those of ordinary skill in the art to which the present invention pertains, unless specifically defined and described explicitly. It may be interpreted as a meaning, and generally used terms such as terms defined in advance may be interpreted in consideration of the contextual meaning of the related art.

또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.In addition, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In the present specification, the singular form may also include the plural form unless otherwise specified in the phrase, and when it is described as "at least one (or one or more) of A and (and) B, C", it is combined with A, B, C It may include one or more of all possible combinations.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.In addition, in describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used.

이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and are not limited to the essence, order, or order of the component by the term.

그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.And, when it is described that a component is 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to the other component, but also with the component It may also include a case of 'connected', 'coupled' or 'connected' due to another element between the other elements.

또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다. In addition, when it is described as being formed or disposed on "above (above) or under (below)" of each component, the top (above) or bottom (below) is one as well as when two components are in direct contact with each other. Also includes a case in which another component as described above is formed or disposed between two components. In addition, when expressed as "upper (upper) or lower (lower)", the meaning of not only an upper direction but also a lower direction based on one component may be included.

이하에서는 본 실시예에 따른 광학기기를 설명한다.Hereinafter, an optical device according to the present embodiment will be described.

광학기기는 핸드폰, 휴대폰, 스마트폰(smart phone), 휴대용 스마트 기기, 디지털 카메라, 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 및 네비게이션 중 어느 하나를 포함할 수 있다. 다만, 광학기기의 종류가 이에 제한되는 것은 아니며 영상 또는 사진을 촬영하기 위한 어떠한 장치도 광학기기에 포함될 수 있다.The optical device is any one of a mobile phone, a mobile phone, a smart phone, a portable smart device, a digital camera, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), and a navigation device may include. However, the type of optical device is not limited thereto, and any device for taking an image or photo may be included in the optical device.

광학기기는 본체를 포함할 수 있다. 본체는 바(bar) 형태일 수 있다. 또는, 본체는 2개 이상의 서브 몸체(sub-body)들이 상대 이동 가능하게 결합하는 슬라이드 타입, 폴더 타입, 스윙(swing) 타입, 스위블(swirl) 타입 등 다양한 구조일 수 있다. 본체는 외관을 이루는 케이스(케이싱, 하우징, 커버)를 포함할 수 있다. 예컨대, 본체는 프론트 케이스와 리어 케이스를 포함할 수 있다. 프론트 케이스와 리어 케이스의 사이에 형성된 공간에는 광학기기의 각종 전자 부품이 내장될 수 있다. The optical device may include a body. The body may be in the form of a bar. Alternatively, the main body may have various structures such as a slide type, a folder type, a swing type, a swivel type, in which two or more sub-bodies are coupled to be relatively movable. The body may include a case (casing, housing, cover) forming an exterior. For example, the body may include a front case and a rear case. Various electronic components of an optical device may be embedded in a space formed between the front case and the rear case.

광학기기는 디스플레이를 포함할 수 있다. 디스플레이는 광학기기의 본체의 일면에 배치될 수 있다. 디스플레이는 영상을 출력할 수 있다. 디스플레이는 카메라에서 촬영된 영상을 출력할 수 있다.The optics may include a display. The display may be disposed on one surface of the main body of the optical device. The display may output an image. The display may output an image captured by the camera.

광학기기는 카메라를 포함할 수 있다. 카메라는 ToF(Time of Flight) 카메라 장치를 포함할 수 있다. ToF 카메라 장치는 광학기기의 본체의 전면에 배치될 수 있다. 이 경우, ToF 카메라 장치는 광학기기의 보안인증을 위한 사용자의 얼굴인식, 홍채인식 등 다양한 방식의 생체인식에 사용될 수 있다. The optics may include a camera. The camera may include a Time of Flight (ToF) camera device. The ToF camera device may be disposed on the front side of the main body of the optics. In this case, the ToF camera device may be used for various types of biometric recognition such as user's face recognition and iris recognition for security authentication of optical devices.

이하에서는 본 실시예에 따른 ToF 카메라 장치의 구성을 도면을 참조하여 설명한다.Hereinafter, the configuration of the ToF camera device according to the present embodiment will be described with reference to the drawings.

도 1은 실시예에 따른 카메라 모듈의 사시도이고, 도 2는 도 1에서 AA’로 절단된 단면도이고, 도 3은 실시예에 따른 카메라 모듈의 분해 사시도이다.1 is a perspective view of a camera module according to an embodiment, FIG. 2 is a cross-sectional view taken along line AA′ in FIG. 1 , and FIG. 3 is an exploded perspective view of the camera module according to the embodiment.

도 1 내지 도 3을 참조하면, 실시예에 따른 카메라 모듈(10)은 발광부(1), 수광부(2), 커넥트부(3), 메인 기판(4), 연장 기판(5), 연결 기판(6) 및 커넥터(7)를 포함할 수 있다. 그리고 실시예에 따른 카메라 모듈(10)은 제어부(CT)를 포함할 수 있다. 제어부(CT)는 발광부(1), 수광부(2), 커넥트부(3), 메인 기판(4) 중 어느 하나에 위치할 수 있다.1 to 3 , the camera module 10 according to the embodiment includes a light emitting unit 1 , a light receiving unit 2 , a connect unit 3 , a main board 4 , an extension board 5 , and a connection board. (6) and a connector (7). And the camera module 10 according to the embodiment may include a control unit CT. The control unit CT may be located on any one of the light emitting unit 1 , the light receiving unit 2 , the connect unit 3 , and the main board 4 .

먼저, 발광부(1)는 발광모듈, 발광유닛, 발광어셈블리 또는 발광장치일 수 있다. 발광부(1)는 광신호를 생성한 후 객체에 조사할 수 있다. 이때, 발광부(1)는 펄스파(pulse wave)의 형태나 지속파(continuous wave)의 형태로 광신호를 생성하여 출력할 수 있다. 지속파는 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다. First, the light emitting unit 1 may be a light emitting module, a light emitting unit, a light emitting assembly, or a light emitting device. The light emitting unit 1 may generate an optical signal and then irradiate the object. In this case, the light emitting unit 1 may generate and output an optical signal in the form of a pulse wave or a continuous wave. The continuous wave may be in the form of a sinusoid wave or a square wave.

그리고 광신호를 펄스파나 지속파 형태로 생성함으로써, 예컨대, ToF 카메라 장치는 발광부(1)로부터 출력된 광신호와 광신호가 객체(O)로부터 반사된 후 ToF 카메라 장치의 수광부(2)로 입력된 입력광 사이의 위상 차를 검출할 수 있다. 본 명세서에서, 출력광은 발광부(1)로부터 출력되어 객체(O)에 입사되는 광신호를 의미하고, 입력광 또는 반사광은 발광부(1)로부터 출력되어 객체(O)에 도달하여 객체(O)로부터 반사된 후 ToF 카메라 장치로 입력되는 광신호를 의미할 수 있다. 또한, 객체(O)의 입장에서 출력광은 입사광이 될 수 있고, 입력광은 반사광이 될 수 있다.And by generating the optical signal in the form of a pulse wave or a continuous wave, for example, the ToF camera device is inputted to the light receiving unit 2 of the ToF camera device after the optical signal output from the light emitting unit 1 and the optical signal are reflected from the object O. It is possible to detect the phase difference between the input lights. In this specification, the output light refers to an optical signal output from the light emitting unit 1 and incident on the object O, and the input light or reflected light is output from the light emitting unit 1 and reaches the object O to reach the object (O). O) may mean an optical signal input to the ToF camera device after being reflected. Also, from the viewpoint of the object O, the output light may be incident light, and the input light may be reflected light.

발광부(1)는 생성된 광신호를 소정의 노출주기(integration time) 동안 객체(O)에 조사한다. 여기서, 노출주기란 1개의 프레임 주기를 의미한다. 복수의 프레임을 생성하는 경우, 설정된 노출주기가 반복된다. 예를 들어, ToF 카메라 장치가 20 FPS로 객체를 촬영하는 경우, 노출주기는 1/20[sec]가 된다. 그리고 100개의 프레임을 생성하는 경우, 노출주기는 100번 반복될 수 있다. The light emitting unit 1 irradiates the generated optical signal to the object O for a predetermined exposure period (integration time). Here, the exposure period means one frame period. In the case of generating a plurality of frames, the set exposure cycle is repeated. For example, when the ToF camera device captures an object at 20 FPS, the exposure period is 1/20 [sec]. And when 100 frames are generated, the exposure cycle may be repeated 100 times.

또한, 발광부(1)는 서로 다른 주파수를 가지는 복수의 광신호를 생성할 수 있다. 발광부(1)는 서로 다른 주파수를 가지는 복수의 광신호를 순차적으로 반복하여 생성할 수 있다. 또는, 발광부(1)는 서로 다른 주파수를 가지는 복수의 광신호를 동시에 생성할 수도 있다.Also, the light emitting unit 1 may generate a plurality of optical signals having different frequencies. The light emitting unit 1 may sequentially and repeatedly generate a plurality of optical signals having different frequencies. Alternatively, the light emitting unit 1 may simultaneously generate a plurality of optical signals having different frequencies.

발광부(1)는 광원(LS)을 포함할 수 있다. 광원(LS)은 빛을 생성할 수 있다. 광원(LS)은 빛을 출력할 수 있다. 광원(LS)은 빛을 조사할 수 있다. 광원(LS)이 생성하는 빛은 파장이 770㎚ 내지 3000㎚인 적외선 일 수 있다. 또는 광원(LS)이 생성하는 빛은 파장이 380㎚ 내지 770㎚인 가시광선 일 수 있다. 광원(LS)은 광을 생성하여 출력하는 다양한 소자를 모두 포함할 수 있다. 예컨대, 광원(LS)은 발광 다이오드(Light Emitting Diode, LED) 수직 공진 표면 발광 레이저 (VCSEL, Vertical Cavity Surface Emitting Laser) 을 포함할 수 있다. The light emitting unit 1 may include a light source LS. The light source LS may generate light. The light source LS may output light. The light source LS may irradiate light. The light generated by the light source LS may be infrared rays having a wavelength of 770 nm to 3000 nm. Alternatively, the light generated by the light source LS may be visible light having a wavelength of 380 nm to 770 nm. The light source LS may include all of various elements that generate and output light. For example, the light source LS may include a Light Emitting Diode (LED) and a Vertical Cavity Surface Emitting Laser (VCSEL).

또한, 광원(LS)은 일정한 패턴에 따라 배열된 형태의 복수의 발광 다이오드를 포함할 수 있다. 뿐만 아니라, 광원(LS)은 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수 있다. Also, the light source LS may include a plurality of light emitting diodes arranged according to a predetermined pattern. In addition, the light source LS may include an organic light emitting diode (OLED) or a laser diode (LD).

발광부(1)는 빛을 변조하는 광변조부를 포함할 수 있다. 광원(LS)은 일정 시간 간격으로 점멸(on/off)을 반복하여 펄스파 형태나 지속파 형태의 광신호를 생성할 수 있다. 일정 시간 간격은 광신호의 주파수일 수 있다. 광원(LS)의 점멸은 광변조부에 의해 제어될 수 있다. 광변조부는 광원(LS)의 점멸을 제어하여 광원(LS)이 지속파나 펄스파 형태의 광신호를 생성하도록 제어할 수 있다. 광변조부는 주파수 변조(frequency modulation)나 펄스 변조(pulse modulation) 등을 통해 광원(LS)이 지속파나 펄스파 형태의 광신호를 생성하도록 제어할 수 있다. 광변조부는 제어부 내에 위치할 수 있다. 이에, 후술하는 바와 같이 제어부는 광변조부를 제어하여 광원에 의한 광신호의 출력을 차단(off) 또는 제공(on)할 수 있음을 이해해야 한다.The light emitting unit 1 may include a light modulator for modulating light. The light source LS may generate an optical signal in the form of a pulse wave or a continuous wave by repeatedly flickering (on/off) at regular time intervals. The predetermined time interval may be a frequency of an optical signal. The blinking of the light source LS may be controlled by the light modulator. The light modulator may control the blinking of the light source LS so that the light source LS generates an optical signal in the form of a continuous wave or a pulse wave. The light modulator may control the light source LS to generate an optical signal in the form of a continuous wave or a pulse wave through frequency modulation, pulse modulation, or the like. The light modulator may be located in the control unit. Accordingly, it should be understood that the control unit may block (off) or provide (on) the output of the optical signal by the light source by controlling the light modulator, as will be described later.

발광부(1)는 디퓨져(미도시됨)를 포함할 수 있다. 디퓨져(미도시됨)는 디퓨져 렌즈일 수 있다. 디퓨져(미도시됨)는 광원(LS)의 전방에 배치될 수 있다. 광원(LS)으로부터 출사된 광은 디퓨져(미도시됨)를 통과하여 객체(O)에 입사될 수 있다. 디퓨져(미도시됨)는 광원(LS)으로부터 출사되는 광의 경로를 변경할 수 있다. 디퓨져(미도시됨)는 광원(LS)으로부터 출사되는 광을 확산할 수 있다. 디퓨져(미도시됨)는 후술하는 제1 광학부 내에 위치할 수도 있다.The light emitting unit 1 may include a diffuser (not shown). The diffuser (not shown) may be a diffuser lens. A diffuser (not shown) may be disposed in front of the light source LS. Light emitted from the light source LS may pass through a diffuser (not shown) to be incident on the object O. The diffuser (not shown) may change the path of the light emitted from the light source LS. A diffuser (not shown) may diffuse the light emitted from the light source LS. A diffuser (not shown) may be located in a first optical unit to be described later.

구체적으로, 발광부(1)는 상술한 광원(LS), 하우징(110), 제1 광학부(120), 제1 렌즈 배럴(130), 구동 마그넷부(140)와 구동 코일부(150)를 포함하는 구동부, 탄성부(160), 측면 기판(170), 위치 센서(180)를 포함할 수 있다. Specifically, the light emitting unit 1 includes the above-described light source LS, the housing 110 , the first optical unit 120 , the first lens barrel 130 , the driving magnet unit 140 and the driving coil unit 150 . It may include a driving unit that includes, an elastic unit 160 , a side substrate 170 , and a position sensor 180 .

먼저, 하우징(110)은 후술하는 커버(400) 내측에 위치할 수 있다. 하우징(110)은 후술하는 제1 렌즈 배럴(130), 측면 기판(170), 구동 코일부(150), 탄성부(160)와 결합할 수 있다. First, the housing 110 may be located inside the cover 400 to be described later. The housing 110 may be coupled to a first lens barrel 130 , a side substrate 170 , a driving coil unit 150 , and an elastic unit 160 , which will be described later.

하우징(110)은 내부에 개구된 배럴 수용부를 포함할 수 있다. 배럴 수용부에는 상술한 제1 렌즈 배럴(130) 및 구동 코일부(150)가 위칙할 수 있다.The housing 110 may include a barrel accommodating part opened therein. The above-described first lens barrel 130 and the driving coil unit 150 may be irregular in the barrel receiving unit.

제1 광학부(120)는 하우징(110) 내에 위치할 수 있다. 제1 광학부(120)는 후술하는 제1 렌즈 배럴(130)에 의해 홀딩(holding)되고, 제1 렌즈 배럴(130)을 통해 하우징(110)과 결합할 수 있다.The first optical unit 120 may be located in the housing 110 . The first optical unit 120 may be held by a first lens barrel 130 to be described later, and may be coupled to the housing 110 through the first lens barrel 130 .

제1 광학부(120)는 복수 개의 광학 요소 또는 렌즈로 이루어질 수 있다. 예컨대, 제1 광학부(120)는 복수 개의 렌즈로 이루어질 수 있다.The first optical unit 120 may include a plurality of optical elements or lenses. For example, the first optical unit 120 may include a plurality of lenses.

또한, 제1 광학부(120)는 콜리메이터 렌즈(collimator lens)를 포함할 수 있다. 그리고 제1 광학부(120)는 광원(LS)으로부터 출력된 광신호를 기 설정된 복제 패턴에 따라 복제할 수 있다. 이에, 제1 광학부(120)는 회절광학소자(diffractive optical element, DOE)나 디퓨져 렌즈(diffuser lens)를 포함할 수 있다. 예컨대, 제1 광학부(120)는 마이크로 스케일(micro scale)이나 나노 스케일(nano scale)의 구조를 갖는 광학부재를 포함할 수 있다. Also, the first optical unit 120 may include a collimator lens. In addition, the first optical unit 120 may duplicate the optical signal output from the light source LS according to a preset replication pattern. Accordingly, the first optical unit 120 may include a diffractive optical element (DOE) or a diffuser lens. For example, the first optical unit 120 may include an optical member having a micro-scale or nano-scale structure.

광원(LS)으로부터 객체를 향해 출사하는 광신호(출력광)가 제1 렌즈 배럴(130)을 통과할 수 있다. 제1 렌즈 배럴(130)의 광축과 광원(LS)의 광축은 얼라인(align)될 수 있다. 또한, 제1 렌즈 배럴(130)은 하우징(110)과 결합될 수 있다. 그리고 제1 렌즈 배럴(130)은 하우징(110)에 고정될 수 있다. 제1 렌즈 배럴(130)은 복수의 광학 요소로 이루어진 제1 광학부(120)를 홀딩(holding)할 수 있다.An optical signal (output light) emitted from the light source LS toward the object may pass through the first lens barrel 130 . The optical axis of the first lens barrel 130 and the optical axis of the light source LS may be aligned. Also, the first lens barrel 130 may be coupled to the housing 110 . In addition, the first lens barrel 130 may be fixed to the housing 110 . The first lens barrel 130 may hold the first optical unit 120 formed of a plurality of optical elements.

제1 렌즈 배럴(130)은 제1 광학부(120)가 안착하는 렌즈 수용부(131)를 포함할 수 있다. 제1 렌즈 배럴(130)은 후술하는 바와 같이 보이스 코일 모터 등에 의하여 상하 등으로 이동될 수 있다. 이에, 제1 렌즈 배럴(130)은 구동 마그넷부가 안착하는 마그넷 안착홈(132)을 포함할 수 있다. The first lens barrel 130 may include a lens accommodating part 131 on which the first optical part 120 is seated. The first lens barrel 130 may be moved up and down by a voice coil motor or the like, as will be described later. Accordingly, the first lens barrel 130 may include a magnet seating groove 132 in which the driving magnet unit is seated.

또한, 렌즈 수용부(131)의 측면에는 제1 광학부(120)와의 결합을 위해 나사산 구조가 형성될 수 있다. 이에, 제1 광학부(120)는 후술하는 구동부에 의해 제1 렌즈 배럴(130)과 함께 하우징(110) 내에서 상하 이동할 수 있다. In addition, a screw thread structure may be formed on a side surface of the lens accommodating part 131 for coupling with the first optical part 120 . Accordingly, the first optical unit 120 may move up and down in the housing 110 together with the first lens barrel 130 by a driving unit to be described later.

또한, 측면 기판(170)은 하우징(110)과 결합할 수 있다. 측면 기판(170)은 하우징(110)의 측면에 위치하는 기판홈(112)에 위치할 수 있다. 또한, 측면 기판(170)은 메인 기판(4)과 전기적으로 연결될 수 있다.In addition, the side substrate 170 may be coupled to the housing 110 . The side substrate 170 may be located in the substrate groove 112 located on the side of the housing 110 . Also, the side substrate 170 may be electrically connected to the main substrate 4 .

또한, 구동부는 구동 마그넷부(140)와 구동 코일부(150)를 포함할 수 있다. Also, the driving unit may include a driving magnet unit 140 and a driving coil unit 150 .

구동 마그넷부(140)는 복수 개의 마그넷을 포함할 수 있다. 복수 개의 마그넷은 제1 렌즈 배럴(130)의 측면에 위치한 마그넷 안착홈(132)에 위치할 수 있다The driving magnet unit 140 may include a plurality of magnets. The plurality of magnets may be located in the magnet seating groove 132 located on the side of the first lens barrel 130 .

구동 마그넷부(140)는 후술하는 구동 코일부(150)와 전자기적 상호작용에 의해 제1 렌즈 배럴(130) 및 제1 광학부(120)를 하우징(110)에 대해 상하 이동할 수 있다. 이에 따라, 하부의 광원(LS)으로부터 제1 광학부(120) 및 제1 렌즈 배럴(130)까지의 이격 거리가 증가 또는 감소될 수 있다. 그리고 상술한 이격 거리에 따라 출력광이 객체에 대해 면광원 또는 점광원의 형태를 가질 수 있다. 여기서, 점광원은 객체에 방출되는 출력광이 복수의 광스팟이 소정의 패턴으로 배치된 형태를 의미할 수 있다. The driving magnet unit 140 may vertically move the first lens barrel 130 and the first optical unit 120 with respect to the housing 110 by electromagnetic interaction with the driving coil unit 150 to be described later. Accordingly, the separation distance from the lower light source LS to the first optical unit 120 and the first lens barrel 130 may be increased or decreased. And, according to the above-described separation distance, the output light may have the form of a surface light source or a point light source with respect to the object. Here, the point light source may refer to a form in which output light emitted to an object is arranged in a predetermined pattern with a plurality of light spots.

구동 코일부(150)는 복수 개의 코일을 포함하며, 하우징(110)의 측면에 위치할 수 있다. 구동 코일부(150)는 구동 마그넷부(140)와 대향하여 위치할 수 있다. 이에, 구동 코일부(150)로 전류가 주입되면 구동 코일부(150)와 구동 마그넷부(140) 간의 전자기적 상호 작용(예컨대, 로렌츠의 힘)으로 제1 렌즈 배럴(130)이 이동할 수 있다. The driving coil unit 150 includes a plurality of coils and may be located on a side surface of the housing 110 . The driving coil unit 150 may be positioned to face the driving magnet unit 140 . Accordingly, when current is injected into the driving coil unit 150 , the first lens barrel 130 may move due to electromagnetic interaction (eg, Lorentz force) between the driving coil unit 150 and the driving magnet unit 140 . .

구동 코일부(150)는 하우징(110)의 측면에 형성된 각 코일 안착부(114)에 위치할 수 있다. 구동 코일부(150)는 측면 기판(170)과 전기적으로 연결될 수 있다. 예컨대, 구동 코일부(150)는 측면 기판(170)과 와이어 등을 통해 전기적으로 연결될 수 있다. 그리고 측면 기판(170)은 상술한 바와 같이 하우징(110)과 결합하므로, 구동 코일부(150)도 하우징(110)의 측면에 형성된 코일 안착부(114) 내에 안착하여 하우징과 결합할 수 있다. 이에 대한 자세한 설명은 후술한다. The driving coil unit 150 may be located in each coil receiving unit 114 formed on the side surface of the housing 110 . The driving coil unit 150 may be electrically connected to the side substrate 170 . For example, the driving coil unit 150 may be electrically connected to the side substrate 170 through a wire or the like. And since the side substrate 170 is coupled to the housing 110 as described above, the driving coil unit 150 may also be seated in the coil receiving unit 114 formed on the side of the housing 110 to be coupled to the housing. A detailed description thereof will be provided later.

탄성부(160)는 하우징(110) 상에 배치될 수 있다. 탄성부(160)는 제1 렌즈 배럴(130) 및 하우징(110)과 결합할 수 있다. 하우징(110)은 메인 기판(4) 또는 후술하는 베이스(200)와 결합되어 고정될 수 있다. 이와 달리, 제1 렌즈 배럴(130)은 상술한 로렌츠의 힘에 의해 하우징(110)에 대해 상하로 이동할 수 있다. 탄성부(160)는 이러한 제1 렌즈 배럴(130) 또는 제1 광학부(120)의 상하 이동에 대해 예압을 제공할 수 있다. 이에 따라, 구동부에 의한 로렌츠의 힘이 발생하지 않는 경우 제1 렌즈 배럴(130)은 하우징(110)에 대해 소정의 위치를 유지할 수 있다. 또한, 구동부에 의한 로렌츠의 힘이 발생하는 경우에도 제1 렌즈 배럴(130)과 하우징(110) 간의 위치 관계를 일정 범위로 유지하므로 카메라 모듈의 신뢰성이 개선될 수 있다. The elastic part 160 may be disposed on the housing 110 . The elastic part 160 may be coupled to the first lens barrel 130 and the housing 110 . The housing 110 may be fixedly coupled to the main board 4 or the base 200 to be described later. Alternatively, the first lens barrel 130 may move up and down with respect to the housing 110 by the Lorentz force described above. The elastic unit 160 may provide a preload for vertical movement of the first lens barrel 130 or the first optical unit 120 . Accordingly, when the Lorentz force by the driving unit does not occur, the first lens barrel 130 may maintain a predetermined position with respect to the housing 110 . In addition, even when Lorentz force is generated by the driving unit, since the positional relationship between the first lens barrel 130 and the housing 110 is maintained within a predetermined range, the reliability of the camera module may be improved.

위치 센서(180)는 측면 기판(170)과 전기적으로 연결될 수 있다. 또한, 위치 센서(180)는 측면 기판(170) 상에 위치할 수 있다. 그리고 위치 센서(180)는 상술한 구동 마그넷부(140)와 소정 거리 이격 배치될 수 있다.The position sensor 180 may be electrically connected to the side substrate 170 . Also, the position sensor 180 may be located on the side substrate 170 . In addition, the position sensor 180 may be disposed to be spaced apart from the driving magnet unit 140 by a predetermined distance.

위치 센서(180)는 홀 센서 또는 홀 IC를 포함할 수 있다. 위치 센서(180)는 구동 마그넷부(140)의 자기력을 감지할 수 있다. The position sensor 180 may include a Hall sensor or a Hall IC. The position sensor 180 may detect a magnetic force of the driving magnet unit 140 .

실시예에 따른 위치 센서(180)는 구동 마그넷부로부터의 자기장 세기를 감지하여 제1 렌즈 배럴(130) 또는 제1 광학부(120)의 광원(LS)에 대한 위치 정보를 출력할 수 있다. 이에 따라, 제어부는 위치 센서(180)의 위치 정보를 바탕으로 제1 광학부(120) 또는 제1 렌즈 배럴(130)의 결함을 판단하고 판단한 결과에 대응하여 광원(LS)의 출력을 제어(on/off)할 수 있다.The position sensor 180 according to the embodiment may sense the magnetic field strength from the driving magnet unit to output position information about the light source LS of the first lens barrel 130 or the first optical unit 120 . Accordingly, the control unit determines the defect of the first optical unit 120 or the first lens barrel 130 based on the position information of the position sensor 180 and controls the output of the light source LS in response to the determination result ( can be turned on/off).

실시예로, 위치 센서(180)는 복수의 위치 센서를 포함할 수 있다. 위치 센서(180)는 2개의 센서를 포함할 수 있다. 위치 센서(180)는 광축 방향으로의 제1 렌즈 배럴(130) 및 제1 광학부(120)의 이동을 감지할 수 있다. 본 명세서에서, Z축 방향은 제3 방향으로 광축 방향 또는 수직 방향이다. 그리고 X축 방향은 Z축 방향에 수직한 방향이며 실시예에서 발광부에서 수광부를 향한 방향으로 제1 방향이다. 그리고 Y축 방향은 X축 방향과 Z축 방향에 수직한 방향이며 제2 방향이다. 이를 기준으로 이하 설명한다.In an embodiment, the position sensor 180 may include a plurality of position sensors. The position sensor 180 may include two sensors. The position sensor 180 may detect movement of the first lens barrel 130 and the first optical unit 120 in the optical axis direction. In this specification, the Z-axis direction is an optical axis direction or a vertical direction as the third direction. And the X-axis direction is a direction perpendicular to the Z-axis direction, and in the embodiment, the direction from the light emitting unit toward the light receiving unit is the first direction. And the Y-axis direction is a direction perpendicular to the X-axis direction and the Z-axis direction, and is a second direction. It will be described below based on this.

수광부(2)는 수광모듈, 수광유닛, 수광어셈블리 또는 수광장치일 수 있으며, 카메라 모듈의 일 구성요소일 수 있다. 이러한 수광부(2)는 발광부(1)로부터 출사되어 객체로부터 반사된 광(반사광)을 수신하고, 수신된 광을 전기 신호로 변환할 수 있다. The light receiving unit 2 may be a light receiving module, a light receiving unit, a light receiving assembly, or a light receiving device, and may be a component of a camera module. The light receiving unit 2 may receive light (reflected light) emitted from the light emitting unit 1 and reflected from the object, and may convert the received light into an electrical signal.

수광부(2)는 발광부(1)에서 출력된 광신호에 대응하는 입력광을 생성할 수 있다. 수광부(2)는 발광부(1)와 나란히 배치될 수 있다. 수광부(2)는 발광부(1) 옆에 배치될 수 있다. 수광부(2)는 발광부(1)와 같은 방향으로 배치될 수 있다. 이러한 구성에 의하여, 수광부(2)에서는 입력광의 수신 효율이 개선될 수 있다.The light receiving unit 2 may generate input light corresponding to the light signal output from the light emitting unit 1 . The light receiving unit 2 may be disposed side by side with the light emitting unit 1 . The light receiving unit 2 may be disposed next to the light emitting unit 1 . The light receiving unit 2 may be disposed in the same direction as the light emitting unit 1 . With this configuration, the reception efficiency of the input light can be improved in the light receiving unit 2 .

수광부(2)는 제2 렌즈 배럴(320), 제2 광학부(310) 및 이미지 센서(IS)를 포함할 수 있다.The light receiving unit 2 may include a second lens barrel 320 , a second optical unit 310 , and an image sensor IS.

제2 렌즈 배럴(320)은 후술하는 베이스(200)와 결합할 수 있다. 제2 렌즈 배럴(320)은 후술하는 베이스와 나사 결합 등으로 결합할 수 있다. 이에, 제2 렌즈 배럴(320)은 측면에 위치한 나사산을 포함할 수 있다. 제2 렌즈 배럴(320)은 제2 광학부(310)와 일체로 이루어질 수도 있다. 다만, 이에 한정되는 것은 아니다.The second lens barrel 320 may be coupled to a base 200 to be described later. The second lens barrel 320 may be coupled to a base to be described later by screw coupling or the like. Accordingly, the second lens barrel 320 may include a screw thread located on the side. The second lens barrel 320 may be formed integrally with the second optical unit 310 . However, the present invention is not limited thereto.

제2 광학부(310)는 제2 렌즈 배럴(320)과 결합할 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)을 통해 베이스(200)와 결합될 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)과 다양한 결합 방식을 통해 결합될 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)과 상술한 바와 같이 나사 결합을 통해 이루어질 수 있다.The second optical unit 310 may be coupled to the second lens barrel 320 . The second optical unit 310 may be coupled to the base 200 through the second lens barrel 320 . The second optical unit 310 may be coupled to the second lens barrel 320 through various coupling methods. The second optical unit 310 may be formed through screw coupling with the second lens barrel 320 as described above.

제2 광학부(310)는 복수 개의 렌즈를 포함할 수 있다. 그리고 제2 광학부(310)는 하부의 이미지 센서(IS)와 정렬(align)될 수 있다. 이에, 제2 광학부(310)를 통과한 반사광이 이미지 센서(IS)로 수광될 수 있다.The second optical unit 310 may include a plurality of lenses. In addition, the second optical unit 310 may be aligned with the lower image sensor IS. Accordingly, the reflected light passing through the second optical unit 310 may be received by the image sensor IS.

이미지 센서(IS)는 반사광을 감지할 수 있다. 그리고 이미지 센서(IS)는 반사광을 감지하여 전기적 신호로 출력할 수 있다. 실시예로, 이미지 센서(IS)는 광원(LS)에서 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 예컨대, 이미지 센서(IS)는 적외선을 감지할 수 있다. 또는, 이미지 센서(IS)는 가시광선을 감지할 수 있다. 이러한 이미지 센서(IS)는 광을 센싱하는 다양한 이미지 센서를 포함할 수 있다.The image sensor IS may detect reflected light. In addition, the image sensor IS may detect the reflected light and output it as an electrical signal. In an embodiment, the image sensor IS may detect light having a wavelength corresponding to the wavelength of light output from the light source LS. For example, the image sensor IS may detect infrared rays. Alternatively, the image sensor IS may detect visible light. The image sensor IS may include various image sensors that sense light.

실시예로, 이미지 센서(IS)는 제2 렌즈 배럴(320) 및 제2 광학부(310)를 통과한 광을 수신하여 광에 대응하는 전기 신호로 변환하는 픽셀 어레이, 픽셀 어레이에 포함된 복수의 픽셀을 구동하는 구동 회로 및 각 픽셀의 아날로그 픽셀 신호를 리드(read)하는 리드아웃회로를 포함할 수 있다. 리드아웃회로는 아날로그 픽셀 신호를 기준 신호와 비교하여 아날로그-디지털 변환을 통해 디지털 픽셀 신호(또는 영상 신호)를 생성할 수 있다. 여기서, 픽셀 어레이에 포함된 각 픽셀의 디지털 픽셀 신호는 영상 신호를 구성하며, 영상 신호는 프레임 단위로 전송됨에 따라 이미지 프레임으로 정의될 수 있다. 즉, 이미지 센서는 복수의 이미지 프레임을 출력할 수 있다.In an embodiment, the image sensor IS is a pixel array that receives light passing through the second lens barrel 320 and the second optical unit 310 and converts it into an electrical signal corresponding to the light, a plurality of pixels included in the pixel array It may include a driving circuit for driving a pixel of the , and a readout circuit for reading an analog pixel signal of each pixel. The readout circuit may generate a digital pixel signal (or an image signal) through analog-to-digital conversion by comparing the analog pixel signal with a reference signal. Here, the digital pixel signal of each pixel included in the pixel array constitutes an image signal, and as the image signal is transmitted in units of frames, it may be defined as an image frame. That is, the image sensor may output a plurality of image frames.

나아가, 수광부(2)는 이미지 합성부를 더 포함할 수 있다. 이미지 합성부는 이미지 센서(IS)로부터 영상 신호를 수신하고, 영상 신호를 처리(예컨대, 보간, 프레임 합성 등)하는 이미지 프로세서를 포함할 수 있다. 특히, 이미지 합성부는 복수의 프레임의 영상 신호(저해상도)를 이용하여 하나의 프레임의 영상 신호(고해상도)로 합성할 수 있다. 즉, 이미지 합성부는 이미지 센서(IS)로부터 받은 영상 신호에 포함된 복수의 이미지 프레임을 합성하고, 합성된 결과를 합성 이미지로서 생성할 수 있다. 이미지 합성부에서 생성된 합성 이미지는 이미지 센서(IS)로부터 출력되는 복수의 이미지 프레임보다 높은 해상도를 가질 수 있다. 즉, 이미지 합성부는 슈퍼레졸루션(Super Resolution, SR) 기법을 통해 고해상도의 이미지를 생성할 수 있다. 복수의 이미지 프레임은 필터(F, F’)의 이동에 의해 서로 다른 광 경로로 변경되어 생성된 이미지 프레임을 포함할 수 있다. 이러한 이미지 합성부는 수광부(2) 내에 또는 외부에 위치할 수 있다.Furthermore, the light receiving unit 2 may further include an image combining unit. The image synthesizing unit may include an image processor that receives an image signal from the image sensor IS and processes the image signal (eg, interpolation, frame synthesis, etc.). In particular, the image synthesizing unit may combine the image signals (low resolution) of a plurality of frames into an image signal (high resolution) of one frame. That is, the image synthesizing unit may synthesize a plurality of image frames included in the image signal received from the image sensor IS, and generate the synthesized result as a composite image. The composite image generated by the image synthesizing unit may have a higher resolution than a plurality of image frames output from the image sensor IS. That is, the image synthesizing unit may generate a high-resolution image through a super resolution (SR) technique. The plurality of image frames may include image frames generated by changing different optical paths by movement of the filters F and F'. Such an image synthesizing unit may be located inside or outside the light receiving unit 2 .

필터(F, F’)는 베이스(200)에 결합될 수 있다. 필터(F, F’)는 제1 렌즈 배럴(130)과 광원(LS) 사이에 또는 제2 렌즈 배럴(320)과 이미지 센서(IS) 사이에 배치될 수 있다. 이에, 필터(F, F’)는 객체와 이미지 센서(IS) 사이의 광경로 또는 객체와 광원(LS) 사이의 광경로 상에 배치될 수 있다. 필터(F, F’)는 소정 파장 범위를 갖는 광을 필터링할 수 있다. The filters F and F' may be coupled to the base 200 . The filters F and F' may be disposed between the first lens barrel 130 and the light source LS or between the second lens barrel 320 and the image sensor IS. Accordingly, the filters F and F′ may be disposed on a light path between the object and the image sensor IS or on a light path between the object and the light source LS. The filters F and F' may filter light having a predetermined wavelength range.

필터(F, F’)는 특정 파장의 광을 통과시킬 수 있다. 즉, 필터(F, F’)는 특정 파장 외의 광을 반사 또는 흡수하여 차단할 수 있다. 예컨대, 필터(F, F’)는 적외선을 통과시키고 적외선 이외의 파장의 광을 차단시킬 수 있다. 또는, 필터(F, F’)는 가시광선을 통과시키고 가시광선 이외의 파장의 광을 차단시킬 수 있다. 필터(F, F’)는 적외선 통과 필터(infrared rays band pass filter)일 수 있다. 이로써, 필터(F, F’)는 적외선의 광만을 통과할 수 있다. 또는 광학 부재는 렌즈 모듈과 분리된 별도의 초점고정렌즈 또는 초점가변렌즈(ex: 액체렌즈) 일 수 있다.The filters F and F' can pass light of a specific wavelength. That is, the filters F and F' may block by reflecting or absorbing light other than a specific wavelength. For example, the filters F and F' may pass infrared rays and block light of wavelengths other than infrared rays. Alternatively, the filters F and F' may pass visible light and block light of a wavelength other than visible light. The filters F and F' may be infrared rays band pass filters. Accordingly, the filters F and F' can pass only infrared light. Alternatively, the optical member may be a separate focus fixed lens or a variable focus lens (ex: liquid lens) separated from the lens module.

또한, 필터(F, F’)는 이동할 수 있다. 실시예로, 필터(F, F’)는 틸팅(tilting)될 수 있다. 필터(F, F’)가 틸팅되면, 광경로가 조절될 수 있다. 필터(F, F’)가 틸팅되면 이미지 센서(IS)로 입사되는 광의 경로가 변경될 수 있다. 예컨대, 수광부(2)에서 필터(F’)는 입사되는 광의 FOV(Field of View) 각도 또는 FOV의 방향 등을 변경시킬 수 있다. 또한, 실시예에서 필터(F, F’)는 경사지게 틸팅 됨에 따라 빛이 들어오는 경로를 변경하여 고해상도 ToF(Time of Flight)가 가능하게 할 수 있다. Also, the filters F and F' are movable. In an embodiment, the filters F and F' may be tilted. When the filters F and F' are tilted, the optical path can be adjusted. When the filters F and F' are tilted, the path of the light incident to the image sensor IS may be changed. For example, in the light receiving unit 2 , the filter F′ may change the FOV (Field of View) angle or the FOV direction of the incident light. In addition, in the embodiment, the filters F and F' may change the path through which light enters as they are tilted to enable high-resolution Time of Flight (ToF).

커버(400)는 브라켓일 수 있다. 커버(400)는 '커버 캔'을 포함할 수 있다. 커버(400)는 발광부(1) 및 수광부(2)를 감싸도록 배치될 수 있다. 커버(400)는 하우징(110) 및 베이스(200)에 결합될 수 있다. 커버(400)는 발광부(1) 및 수광부(2)를 수용할 수 있다. 이에, 커버(400)는 카메라 모듈의 최외측에 위치할 수 있다. The cover 400 may be a bracket. The cover 400 may include a 'cover can'. The cover 400 may be disposed to surround the light emitting unit 1 and the light receiving unit 2 . The cover 400 may be coupled to the housing 110 and the base 200 . The cover 400 may accommodate the light emitting unit 1 and the light receiving unit 2 . Accordingly, the cover 400 may be located on the outermost side of the camera module.

또한, 커버(400)는 비자성체일 수 있다. 또한, 커버(400)는 금속으로 형성될 수 있다. 또한, 커버(400)는 금속의 판재로 형성될 수 있다. In addition, the cover 400 may be a non-magnetic material. In addition, the cover 400 may be formed of a metal. Also, the cover 400 may be formed of a metal plate.

커버(400)는 메인 기판(4)의 그라운드부와 연결될 수 있다. 이를 통해, 커버(400)는 그라운드될 수 있다. 그리고 커버(400)는 전자 방해 잡음(EMI, electromagnetic interference)을 차단할 수 있다. 이때, 커버(400)는 'EMI 쉴드캔'으로 호칭될 수 있다. 커버(400)는 최종적으로 조립되는 부품으로 제품을 외부의 충격에서부터 보호할 수 있다. 커버(400)는 두께가 얇으면서 강도가 높은 재질로 형성될 수 있다. The cover 400 may be connected to the ground portion of the main board 4 . Through this, the cover 400 may be grounded. And the cover 400 may block electromagnetic interference (EMI). In this case, the cover 400 may be referred to as an 'EMI shield can'. The cover 400 is a finally assembled component and may protect the product from external impact. The cover 400 may be formed of a material having a thin thickness and high strength.

또한, 실시예에 따른 카메라 모듈(10)에서 메인 기판(4)(PCB, Printed Circuit Board) 상에는 발광부(1)와 수광부(2)가 배치될 수 있다. 메인 기판(4)은 발광부(1) 및 수광부(2)와 전기적으로 연결될 수 있다.In addition, in the camera module 10 according to the embodiment, the light emitting unit 1 and the light receiving unit 2 may be disposed on the main board 4 (PCB, Printed Circuit Board). The main substrate 4 may be electrically connected to the light emitting unit 1 and the light receiving unit 2 .

또한, 카메라 모듈(10)에서 커넥트부(3)는 메인 기판(4)과 전기적으로 연결될 수 있다. 커넥트부(3)는 광학기기의 구성과 연결될 수 있다. 커넥트부(3)는 광학기기의 구성과 연결되는 커넥터(7)를 포함할 수 있다. 커넥트부(3)에는 커넥터(7)가 배치되고 연결 기판(6)과 연결되는 연장 기판(5)을 포함할 수 있다. 연장 기판(5)은 PCB일 수 있으나, 이에 한정되는 것은 아니다.Also, in the camera module 10 , the connector 3 may be electrically connected to the main board 4 . The connecting unit 3 may be connected to the configuration of the optical device. The connecting unit 3 may include a connector 7 that is connected to the configuration of the optical device. The connector 3 may include an extension board 5 on which the connector 7 is disposed and connected to the connection board 6 . The extension substrate 5 may be a PCB, but is not limited thereto.

또한, 카메라 모듈에서 연결 기판(6)은 메인 기판(4)과 커넥트부(3)의 연장 기판(5)을 연결할 수 있다. 연결 기판(6)은 연성을 가질 수 있다. 연결 기판(6)은 연성의 인쇄회로기판(FPCB, Flexible PCB)일 수 있다.In addition, in the camera module, the connection board 6 may connect the main board 4 and the extension board 5 of the connector 3 . The connecting substrate 6 may have flexibility. The connection board 6 may be a flexible printed circuit board (FPCB, Flexible PCB).

또한, 메인 기판(4), 연결 기판(6) 및 연장 기판(5)은 일체로 또는 분리되어 형성될 수 있다. In addition, the main substrate 4, the connecting substrate 6, and the extension substrate 5 may be formed integrally or separately.

카메라 모듈은 보강판(8)을 포함할 수 있다. 보강판(8)은 스티프너(stiffener)를 포함할 수 있다. 보강판(8)은 메인 기판(4)의 하면에 배치될 수 있다. 보강판(8)은 서스(SUS)로 형성될 수 있다. The camera module may include a reinforcing plate 8 . The reinforcing plate 8 may include a stiffener. The reinforcing plate 8 may be disposed on the lower surface of the main substrate 4 . The reinforcing plate 8 may be formed of a SUS.

나아가, 수광부(2)는 렌즈 구동 장치를 포함할 수 있다. 즉, 수광부(2)는 보이스 코일 모터(VCM, Voice Coil Motor)를 포함할 수 있다. 또한, 수광부(2)는 렌즈 구동 모터를 포함할 수 있다. 또한, 수광부(2)는 렌즈 구동 액츄에이터를 포함할 수 있다. 이러한 구성에 의하여, 상술한 바와 같이 실시예에 따른 수광부(2)는 필터(F’)를 틸트(tilt)시킬 수 있다. 그리고 필터(F’)가 틸트됨에 따라, 필터(F, F’)를 통과한 입력광의 광경로가 소정의 규칙에 따라 반복하여 이동할 수 있다. 이로써, 수광부(2)는 필터(F’)의 틸트에 따라 이미지 센서에서 변환한 복수 개의 이미지 정보를 이용하여 고해상도의 이미지 정보를 출력하고, 출력된 이미지 정보는 외부의 광학기기로 제공될 수 있다.Furthermore, the light receiving unit 2 may include a lens driving device. That is, the light receiving unit 2 may include a voice coil motor (VCM). In addition, the light receiving unit 2 may include a lens driving motor. In addition, the light receiving unit 2 may include a lens driving actuator. With this configuration, as described above, the light receiving unit 2 according to the embodiment can tilt the filter F′. And as the filter F' is tilted, the optical path of the input light passing through the filters F and F' may move repeatedly according to a predetermined rule. Accordingly, the light receiving unit 2 outputs high-resolution image information using a plurality of image information converted by the image sensor according to the tilt of the filter F', and the output image information may be provided to an external optical device. .

도 4는 실시예에 따른 발광부의 하우징을 도시한 도면이고, 도 5는 실시예에 따른 발광부의 제1 광학부 및 제1 렌즈 배럴을 도시한 도면이고, 도 6은 실시예에 따른 발광부의 구동 마그넷부 및 구동 코일부을 도시한 도면이고, 도 7은 실시예에 따른 발광부의 탄성부의 결합을 나타낸 도면이고, 도 8은 실시예에 따른 발광부의 제1 탄성부재를 도시한 도면이고, 도 9는 실시예에 따른 발광부의 제2 탄성부재를 도시한 도면이고, 도 10은 실시예에 따른 발광부의 측면 기판의 일측을 도시한 도면이고, 도 11은 실시예에 따른 발광부의 측면 기판의 타측을 도시한 도면이고, 도 12는 실시예에 따른 카메라 모듈의 베이스를 도시한 도면이고, 도 13은 실시예에 따른 수광부의 제2 광학부 및 제2 렌즈 배럴을 도시한 도면이고, 도 14는 실시예에 따른 카메라 모듈의 커버를 도시한 도면이다.4 is a view showing a housing of a light emitting unit according to an embodiment, FIG. 5 is a view showing a first optical unit and a first lens barrel of a light emitting unit according to an embodiment, and FIG. 6 is driving of the light emitting unit according to the embodiment It is a view showing a magnet part and a driving coil part, FIG. 7 is a view showing coupling of the elastic part of the light emitting part according to the embodiment, FIG. 8 is a view showing the first elastic member of the light emitting part according to the embodiment, and FIG. 9 is It is a view showing a second elastic member of the light emitting part according to the embodiment, Figure 10 is a view showing one side of the side substrate of the light emitting part according to the embodiment, Figure 11 shows the other side of the side substrate of the light emitting part according to the embodiment One view, Fig. 12 is a view showing the base of the camera module according to the embodiment, Fig. 13 is a view showing the second optical unit and the second lens barrel of the light receiving unit according to the embodiment, and Fig. 14 is the embodiment It is a view showing the cover of the camera module according to the.

도 4를 참조하면, 실시예에 따른 발광부의 하우징(110)은 하우징 홀(111), 기판홈(112), 센서홀(113) 및 코일 안착부(114)를 포함할 수 있다.Referring to FIG. 4 , the housing 110 of the light emitting part according to the embodiment may include a housing hole 111 , a substrate groove 112 , a sensor hole 113 , and a coil mounting part 114 .

하우징 홀(111)은 하우징(110)의 중앙에 위치할 수 있다. 하우징 홀(111)에는 제1 광학부와 제1 렌즈 배럴 그리고 구동부가 안착할 수 있다.The housing hole 111 may be located in the center of the housing 110 . The first optical unit, the first lens barrel, and the driving unit may be seated in the housing hole 111 .

기판홈(112)은 하우징(110)의 외측면에 위치할 수 있다. 하우징(110)은 평면상 사각형 형상일 수 있다. 다만, 이에 한정되는 것은 아니며 다양한 형상으로 이루어질 수 있다.The substrate groove 112 may be located on the outer surface of the housing 110 . The housing 110 may have a rectangular shape in plan view. However, the present invention is not limited thereto and may be formed in various shapes.

또한, 기판홈(112)에는 측면 기판과 결합하기 위한 결합 돌기가 위치할 수 있다. 결합 돌기는 하우징(110)의 측면에서 외측을 향해 연장될 수 있다. 또한, 측면 기판에는 결합 홀이 구비되며, 결합 돌기가 결합 홀로 삽입되어 측면 기판과 하우징(110)이 서로 결합할 수 있다.In addition, a coupling protrusion for coupling with the side substrate may be positioned in the substrate groove 112 . The coupling protrusion may extend outward from the side surface of the housing 110 . In addition, the side substrate is provided with a coupling hole, the coupling protrusion is inserted into the coupling hole, so that the side substrate and the housing 110 can be coupled to each other.

센서홀(113)은 기판홈(112)과 제1 방향(X축 방향) 및 제2 방향(Y축 방향)으로 중첩할 수 있다. 센서홀(113)에는 위치 센서가 안착할 수 있다. 이에, 위치 센서는 측면 기판과 전기적으로 용이하게 연결될 수 있다. 또한, 위치 센서는 하우징(110)과의 결합 위치가 고정되어 구동 마그넷부의 위치를 정확하게 측정할 수 있다.The sensor hole 113 may overlap the substrate groove 112 in a first direction (X-axis direction) and a second direction (Y-axis direction). A position sensor may be seated in the sensor hole 113 . Accordingly, the position sensor may be easily electrically connected to the side substrate. In addition, the position sensor has a fixed coupling position with the housing 110 to accurately measure the position of the driving magnet unit.

코일 안착부(114)는 하우징(110)의 내측면에 위치할 수 있다. 예를 들어, 코일 안착부(114)는 하우징(110)의 내측면에서 내측으로 연장된 턱으로 이루어질 수 있다. 본 명세서에서, 내측은 하우징에서 제1 광학부를 향한 방향이고, 외측은 내측의 반대 방향으로 제1 광학부에서 하우징을 향한 방향일 수 있다.The coil mounting part 114 may be located on the inner surface of the housing 110 . For example, the coil receiving part 114 may be formed of a chin extending inward from the inner surface of the housing 110 . In this specification, the inner side may be a direction from the housing toward the first optical unit, and the outer side may be a direction from the first optical unit toward the housing in a direction opposite to the inner side.

코일 안착부(114)에는 구동 코일부가 안착할 수 있다. 구동 코일부는 후술하는 바와 같이 폐루프 형태일 수 있다. 이에, 코일 안착부(114)도 구동 코일부의 형상에 대응하여 폐루프 형상일 수 있다.The driving coil unit may be seated on the coil mounting unit 114 . The driving coil unit may have a closed loop shape as will be described later. Accordingly, the coil seating part 114 may also have a closed loop shape corresponding to the shape of the driving coil part.

도 5를 참조하면, 발광부의 제1 광학부(120)는 제1 렌즈 배럴(130)의 렌즈 수용부(131) 내로 삽입될 수 있다. 상술한 바와 같이 제1 광학부(120)는 복수 매의 렌즈로 이루어질 수 있다. 그리고 제1 광학부(120)는 외측면에 위치한 나사산을 포함할 수 있다. 제1 렌즈 배럴(130)도 내측면에 제1 광학부(120)의 상기 나사산에 대응하는 홈을 가질 수 있다. 이에, 제1 광학부(120)와 제1 렌즈 배럴(130)은 서로 나사 결합할 수 있다.Referring to FIG. 5 , the first optical unit 120 of the light emitting unit may be inserted into the lens receiving unit 131 of the first lens barrel 130 . As described above, the first optical unit 120 may include a plurality of lenses. And the first optical unit 120 may include a screw thread located on the outer surface. The first lens barrel 130 may also have a groove corresponding to the screw thread of the first optical unit 120 on the inner surface. Accordingly, the first optical unit 120 and the first lens barrel 130 may be screw-coupled to each other.

또한, 제1 렌즈 배럴(130)은 상술한 렌즈 수용부(131)뿐만 아니라, 마그넷 안착홈(132)을 포함할 수 있다. 마그넷 안착홈(132)은 복수 개일 수 있다. 실시예로, 마그넷 안착홈(132)은 4개이며, 제1 렌즈 배럴(130)의 서로 마주보는 제1 외측면(132a)과 제2 외측면(132b) 그리고 서로 마주보며 제1 외측면(132a)과 제2 외측면(132b) 사이에 위치하는 제3 외측면(132c)과 제4 외측면(132d)에 위치할 수 있다.In addition, the first lens barrel 130 may include not only the above-described lens accommodating part 131 , but also a magnet seating groove 132 . The magnet seating groove 132 may be plural. In an embodiment, the magnet seating groove 132 is four, and the first outer surface 132a and the second outer surface 132b facing each other of the first lens barrel 130, and the first outer surface facing each other ( It may be positioned on the third outer surface 132c and the fourth outer surface 132d positioned between the 132a and the second outer surface 132b.

즉, 마그넷 안착홈(132)은 제1 외측면(132a) 내지 제4 외측면(132d) 각각에 위치하여 후술하는 제1 마그넷 내지 제4 마그넷이 제1 외측면(132a) 내지 제4 외측면(132d)의 마그넷 안착홈(132)에 안착할 수 있다. 마그넷 안착홈(132)에는 접합부재가 도포될 수 잇다. 이에, 제1 마그넷 내지 제4 마그넷과 제1 렌즈 배럴(130) 간의 결합력이 개선될 수 있다.That is, the magnet seating groove 132 is located on each of the first outer surface 132a to the fourth outer surface 132d, and first to fourth magnets to be described later are formed on the first outer surface 132a to the fourth outer surface. It can be seated in the magnet seating groove 132 of (132d). A bonding member may be applied to the magnet seating groove 132 . Accordingly, coupling force between the first to fourth magnets and the first lens barrel 130 may be improved.

도 6을 참조하면, 구동부는 구동 마그넷부(140)와 구동 코일부(150)를 포함할 수 있다. 구동 마그넷부(140)는 복수 개의 마그넷을 포함할 수 있다.Referring to FIG. 6 , the driving unit may include a driving magnet unit 140 and a driving coil unit 150 . The driving magnet unit 140 may include a plurality of magnets.

실시예로, 구동 마그넷부(140)는 제1 마그넷(141) 내지 제4 마그넷(144)을 포함할 수 있다. 제1 마그넷(141) 및 제2 마그넷(142)은 서로 마주보게 위치할 수 있다. 예컨대, 제1 마그넷(141)과 제2 마그넷(142)은 제2 방향을 기준으로 대칭으로 배치될 수 있다.In an embodiment, the driving magnet unit 140 may include a first magnet 141 to a fourth magnet 144 . The first magnet 141 and the second magnet 142 may be positioned to face each other. For example, the first magnet 141 and the second magnet 142 may be symmetrically disposed with respect to the second direction.

제3 마그넷(143)과 제4 마그넷(144)은 서로 마주보게 위치하며, 제1 마그넷(141)과 제2 마그넷(142) 사이에 위치할 수 있다. 예컨대, 제3 마그넷(143)과 제4 마그넷(144)은 제1 방향을 기준으로 대칭으로 배치될 수 있다.The third magnet 143 and the fourth magnet 144 are positioned to face each other, and may be positioned between the first magnet 141 and the second magnet 142 . For example, the third magnet 143 and the fourth magnet 144 may be symmetrically disposed with respect to the first direction.

제1 마그넷(141) 내지 제4 마그넷(144)은 상술한 마그넷 안착홈에 위치할 수 있다. The first magnet 141 to the fourth magnet 144 may be located in the above-described magnet seating groove.

구동 코일부(150)는 상술한 바와 같이 평면 상(XY) 폐루프 형상일 수 있다. 구동 코일부(150)는 코일 안착부에 안착할 수 있다. 그리고 구동 코일부(150)는 구동 마그넷부(140)와 적어도 일부가 제1 방향 또는 제2 방향으로 중첩될 수 있다.The driving coil unit 150 may have a closed-loop shape on a plane (XY) as described above. The driving coil unit 150 may be seated on the coil receiving unit. In addition, the driving coil unit 150 may overlap the driving magnet unit 140 at least partially in the first direction or the second direction.

또한, 구동 코일부(150)는 구동 마그넷부(140)를 감싸도록 배치될 수 있다. 즉, 구동 마그넷부(140)는 구동 코일부(150)의 폐루프 상에 위치할 수 있다.Also, the driving coil unit 150 may be disposed to surround the driving magnet unit 140 . That is, the driving magnet unit 140 may be located on a closed loop of the driving coil unit 150 .

또한, 구동 코일부(150)는 구동 마그넷부(140)와 소정 거리 이격 배치될 수 있다.Also, the driving coil unit 150 may be disposed to be spaced apart from the driving magnet unit 140 by a predetermined distance.

또한, 구동 코일부(150)는 일단에 측면 기판과 전기적으로 연결하기 위한 제1 와이어(w1)와 제2 와이어(w2)를 포함할 수 있다. 제1 와이어(w1)와 제2 와이어(w2)는 측면 기판에 대응하는 위치에 배치되어 전기적 저항이 최소화될 수 있다. 이에, 저항에 의한 정확도 감소가 방지되고 전력 효율이 향상될 수 있다.In addition, the driving coil unit 150 may include a first wire w1 and a second wire w2 for electrically connecting to the side substrate at one end. The first wire w1 and the second wire w2 may be disposed at positions corresponding to the side substrate to minimize electrical resistance. Accordingly, a decrease in accuracy due to the resistance may be prevented and power efficiency may be improved.

제1 와이어(w1)와 제2 와이어(w2)는 코일로 이루어진 구동 코일부(150)의 일단과 타단 각가에 연결될 수 있다.The first wire w1 and the second wire w2 may be respectively connected to one end and the other end of the driving coil unit 150 made of a coil.

도 7 내지 도 9를 참조하면, 탄성부(160)는 제1 탄성부재(161) 및 제2 탄성부재(162)를 포함할 수 있다. 탄성부(160)는 제1 렌즈 배럴(130)의 상부 또는 하부에 위치하여 하우징(110) 및 제1 렌즈 배럴(130)과 결합할 수 있다. 이에, 구동부에 의해 제1 렌즈 배럴(130)이 상하 이동하더라도 하우징(110)과 결합된 탄성부(160)를 통해 제1 렌즈 배럴(130)의 상하 이동에 예압이 가해질 수 있다. 이에, 구동 코일부에 전류가 인가되지 않는다면, 제1 렌즈 배럴(130)은 하우징(110) 내에서 탄성부(160)의 복원력에 의해 동일한 위치에 존재할 수 있다.7 to 9 , the elastic part 160 may include a first elastic member 161 and a second elastic member 162 . The elastic part 160 may be positioned above or below the first lens barrel 130 to be coupled to the housing 110 and the first lens barrel 130 . Accordingly, even if the first lens barrel 130 is vertically moved by the driving unit, a preload may be applied to the vertical movement of the first lens barrel 130 through the elastic part 160 coupled to the housing 110 . Accordingly, if no current is applied to the driving coil unit, the first lens barrel 130 may exist at the same position in the housing 110 by the restoring force of the elastic unit 160 .

제1 탄성부재(161)는 제1 렌즈 배럴(130)의 상부에 위치할 수 있다. 제2 탄성부재(162)는 제1 렌즈 배럴(130)의 하부에 위치할 수 있다.The first elastic member 161 may be positioned above the first lens barrel 130 . The second elastic member 162 may be positioned under the first lens barrel 130 .

제1 탄성부재(161)는 제1 탄성결합부(P1)와 제2 탄성결합부(P2)를 포함할 수 있다. 제1 탄성결합부(P1)는 제2 탄성결합부(P2)보다 외측에 위치할 수 있다. 그리고 제1 탄성결합부(P1)는 하우징(110)의 돌기와 결합할 수 있다. 또한, 제2 탄성결합부(P2)는 제1 렌즈 배럴(130)과 결합할 수 있다. 이 때, 제1 탄성결합부(P1)와 제2 탄성결합부(P2)에는 상술한 결합을 위해 접합 부재가 도포될 수 있다. 예컨대, 접합 부재는 댐퍼액을 포함할 수 있다. The first elastic member 161 may include a first elastic coupling part P1 and a second elastic coupling part P2. The first elastic coupling part P1 may be located outside the second elastic coupling part P2. And the first elastic coupling portion (P1) may be coupled to the protrusion of the housing (110). In addition, the second elastic coupling portion P2 may be coupled to the first lens barrel 130 . At this time, a bonding member may be applied to the first elastic coupling part P1 and the second elastic coupling part P2 for the above-described coupling. For example, the bonding member may include a damper liquid.

마찬가지로, 제2 탄성부재(162)는 제3 탄성결합부(P3)와 제4 탄성결합부(P4)를 포함할 수 있다. 제3 탄성결합부(P3)는 제4 탄성결합부(P4)보다 외측에 위치할 수 있다.Similarly, the second elastic member 162 may include a third elastic coupling portion (P3) and a fourth elastic coupling portion (P4). The third elastic coupling portion P3 may be located outside the fourth elastic coupling portion P4.

그리고 제3 탄성결합부(P3)는 하우징(110)의 돌기와 결합할 수 있다. 또한, 제4 탄성결합부(P4)는 제1 렌즈 배럴(130)과 결합할 수 있다. 이 때, 제3 탄성결합부(P3)와 제4 탄성결합부(P4)에도 접합 부재가 도포되어 상술한 결합이 이루어질 수 있다.And the third elastic coupling portion (P3) may be coupled to the protrusion of the housing (110). Also, the fourth elastic coupling part P4 may be coupled to the first lens barrel 130 . At this time, the bonding member may be applied to the third elastic coupling part P3 and the fourth elastic coupling part P4 to achieve the above-described coupling.

또한, 제1 탄성결합부(P1)와 제2 탄성결합부(P2) 사이에는 다양한 굴곡을 갖는 제1 패턴부(PT)가 위치할 수 있다. 즉, 제1 패턴부(PT)를 사이에 두고 제1 탄성결합부(P1)와 제2 탄성결합부(P2)는 서로 결합할 수 있다. 이러한 제1 패턴부(PT)는 제1 방향(X축 방향) 및 제2 방향(Y축 방향)으로 대칭으로 위치할 수 있다.In addition, a first pattern portion PT having various curvatures may be positioned between the first elastic coupling portion P1 and the second elastic coupling portion P2 . That is, the first elastic coupling part P1 and the second elastic coupling part P2 may be coupled to each other with the first pattern part PT interposed therebetween. The first pattern portion PT may be symmetrically positioned in the first direction (X-axis direction) and the second direction (Y-axis direction).

마찬가지로, 제3 탄성결합부(P3)와 제4 탄성결합부(P4) 사이에는 다양한 굴곡을 갖는 제2 패턴부(PT')가 위치할 수 있다. 즉, 제2 패턴부(PT')를 사이에 두고 제3 탄성결합부(P3)와 제4 탄성결합부(P4)는 서로 결합할 수 있다. 이러한 제2 패턴부(PT')는 제1 방향(X축 방향) 및 제2 방향(Y축 방향)으로 대칭으로 위치할 수 있다.Similarly, a second pattern part PT′ having various curvatures may be positioned between the third elastic coupling part P3 and the fourth elastic coupling part P4. That is, the third elastic coupling part P3 and the fourth elastic coupling part P4 may be coupled to each other with the second pattern part PT′ interposed therebetween. The second pattern part PT' may be symmetrically positioned in the first direction (X-axis direction) and the second direction (Y-axis direction).

도 10 내지 도 11을 참조하면, 측면 기판(170)은 일측면과 일측면에 대향하고 하우징과 접하는 타측면을 가질 수 있다. 10 to 11 , the side substrate 170 may have one side and the other side facing the one side and contacting the housing.

측면 기판(170)은 일측면 상에 구동 코일부의 제1,2 와이어와 연결되는 제1,2 도전부(EC1, EC2)를 포함할 수 있다. 그리고 측면 기판(170)은 타측면에 결합 홀(170a)을 포함할 수 있다. 결합홀(170a)은 상술한 바와 같이 하우징의 결합 돌기와 결합할 수 있다. 이에, 측면 기판(170)은 하우징의 측면에 결합할 수 있다. The side substrate 170 may include first and second conductive parts EC1 and EC2 connected to the first and second wires of the driving coil part on one side surface. And the side substrate 170 may include a coupling hole 170a on the other side. The coupling hole 170a may be coupled to the coupling protrusion of the housing as described above. Accordingly, the side substrate 170 may be coupled to the side surface of the housing.

그리고 측면 기판(170)의 타측면 상에는 위치 센서(180)가 위치할 수 있다. 위치 센서(180)는 측면 기판(170)의 타측면 상에 안착하여 센서홀로 삽입될 수 있다.In addition, the position sensor 180 may be positioned on the other side of the side substrate 170 . The position sensor 180 may be seated on the other side of the side substrate 170 and inserted into the sensor hole.

도 12를 참조하면, 베이스(200)는 메인 기판(4) 상에 위치하며, 메인 기판(4)과 접할 수 있다. 또한, 베이스(200)에는 상술한 제1 렌즈 배럴, 제1 광학부, 제2 렌즈 배럴, 제2 광학부 및 하우징이 안착할 수 있다.Referring to FIG. 12 , the base 200 is positioned on the main substrate 4 and may be in contact with the main substrate 4 . In addition, the first lens barrel, the first optical unit, the second lens barrel, the second optical unit, and the housing described above may be seated on the base 200 .

베이스(200)는 이격 배치되는 제1 베이스부(210)와 제2 베이스부(220)를 포함할 수 있다. 제1 베이스부(210)에는 제1 광학부, 제1 렌즈 배럴 및 하우징 등 발광부의 구성요소가 안착할 수 있다. 그리고 제2 베이스부(220)는 제2 광학부 및 제2 렌즈 배럴이 안착할 수 있다.The base 200 may include a first base portion 210 and a second base portion 220 that are spaced apart from each other. Components of the light emitting unit, such as the first optical unit, the first lens barrel, and the housing, may be seated on the first base unit 210 . In addition, the second base unit 220 may seat the second optical unit and the second lens barrel.

제1 베이스부(210)와 제2 베이스부(220)는 각각 베이스홀(210a, 220a)을 포함할 수 있다. 이러한 베이스홀(210a, 220a)을 통해 광원으로부터의 광신호가 객체를 향해 출력되고, 객체에서 반사된 광신호(반사광)가 이미지 센서로 제공될 수 있다.The first base part 210 and the second base part 220 may include base holes 210a and 220a, respectively. An optical signal from a light source may be output toward an object through the base holes 210a and 220a, and an optical signal (reflected light) reflected from the object may be provided to the image sensor.

또한, 제1 베이스부(210)와 제2 베이스부(220)에는 상술한 필터가 각각 안착할 수 있다. 나아가, 제1 베이스부(210)와 제2 베이스부(220)는 일체형으로 도시되어 있으나, 분리될 수 있다. 그리고 제2 베이스부(220)는 상술한 바와 같이 틸트될 수 있고, 제2 베이스부(220)에 부착된 필터도 틸트되어 실시예에 따른 카메라 모듈은 상술한 슈퍼 레졸루션 기법을 수행할 수 있다.In addition, the above-described filters may be seated on the first base part 210 and the second base part 220 , respectively. Furthermore, although the first base part 210 and the second base part 220 are shown as one body, they may be separated. In addition, the second base unit 220 may be tilted as described above, and the filter attached to the second base unit 220 may also be tilted, so that the camera module according to the embodiment may perform the above-described super resolution technique.

도 13을 참조하면, 제2 광학부(310)는 제2 렌즈 배럴(320)과 결합할 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)에서 중앙에 위치한 홀에 삽입될 수 있다. 또한, 제2 렌즈 배럴(320)은 외측면에 나사산을 가져 베이스(200)의 제2 베이스부(220)와 나사 결합될 수 있다.Referring to FIG. 13 , the second optical unit 310 may be coupled to the second lens barrel 320 . The second optical unit 310 may be inserted into a hole located in the center of the second lens barrel 320 . In addition, the second lens barrel 320 may have a thread on the outer surface to be screw-coupled to the second base part 220 of the base 200 .

제2 광학부(310)도 복수 매의 렌즈로 이루어질 수 있다.The second optical unit 310 may also include a plurality of lenses.

도 14를 참조하면, 커버(400)는 상술한 내용 이외에 제1 커버부(410)와 제2 커버부(420)를 포함할 수 있다. 제1 커버부(410)는 제1 베이스부 상에 위치하며, 제1 광학부와 중첩되는 제1 커버홀(410a)을 포함할 수 있다. 제1 커버홀(410a)을 통해 제1 광학부를 통과한 광신호(출력광)가 객체로 조사될 수 있다.Referring to FIG. 14 , the cover 400 may include a first cover part 410 and a second cover part 420 in addition to the above description. The first cover part 410 is positioned on the first base part and may include a first cover hole 410a overlapping the first optical part. An optical signal (output light) passing through the first optical unit through the first cover hole 410a may be irradiated to the object.

제2 커버부(420)는 제2 베이스부 상에 위치하며, 제2 광학부와 중첩되는 제2 커버홀(420a)을 포함할 수 있다. 제2 커버홀(420a)을 통해 제2 광학부를 통과한 광신호(반사광)가 이미지 센서로 조사될 수 있다. The second cover part 420 is positioned on the second base part and may include a second cover hole 420a overlapping the second optical part. An optical signal (reflected light) passing through the second optical unit through the second cover hole 420a may be irradiated to the image sensor.

도 15는 본 발명의 실시예에 따른 카메라 장치의 구성을 나타낸 도면이다. 15 is a diagram illustrating a configuration of a camera device according to an embodiment of the present invention.

도 15를 참조하면, 본 발명의 실시예에 따른 카메라 장치는 카메라 모듈 및 처리부를 포함할 수 있다. 카메라 모듈은 발광부 및 수광부를 포함할 수 있다. Referring to FIG. 15 , a camera device according to an embodiment of the present invention may include a camera module and a processing unit. The camera module may include a light emitting unit and a light receiving unit.

앞서 살펴본 것처럼, 발광부(1)는 광원 및 제1 광학부를 포함할 수 있다. 발광부(1)는 광원에서 생성된 빛을 제1 광학부로 방출하고, 제1 광학부는 입력된 빛을 객체로 방출한다. As described above, the light emitting unit 1 may include a light source and a first optical unit. The light emitting unit 1 emits light generated from the light source to the first optical unit, and the first optical unit emits the inputted light to the object.

제1 광학부는 복수 매의 렌즈 및 디퓨저를 포함할 수 있다. 이때, 디퓨저는 통과하는 빛을 산란시켜 출력한다. 이를 통해 디퓨저는 출력되는 빛의 파워를 분산시킬 수도 있다. 만약, 디퓨저가 탈락되거나 디퓨저에 크랙이 발생한 경우, 파워가 분산되지 않은 빛이 객체로 방출될 수 있다. 객체가 사람의 눈과 같이 빛에 약한 물체인 경우에는 안전상의 위험이 발생할 수 있다. The first optical unit may include a plurality of lenses and a diffuser. At this time, the diffuser scatters the passing light and outputs it. This allows the diffuser to distribute the power of the light output. If the diffuser is removed or a crack occurs in the diffuser, light in which power is not dispersed may be emitted to the object. If the object is an object weak to light, such as a human eye, a safety risk may occur.

발광부(1)는 구동부를 포함할 수 있다. 구동부는 제1 광학부를 광축 방향으로 이동시킬 수 있다. 구동부는 방출되는 제1 광에 광스팟이 형성될 수 있도록 제1 광학부를 이동시킬 수 있다.The light emitting unit 1 may include a driving unit. The driving unit may move the first optical unit in an optical axis direction. The driving unit may move the first optical unit so that a light spot is formed in the emitted first light.

발광부(1)는 제어신호에 따라 광원에 전력을 공급하거나 차단함으로써 광을 생성할 수 있다. 발광부(1)는 처리부(20)로부터 수신된 제어신호에 따라 광원에 전력을 공급하거나 차단할 수 있다. The light emitting unit 1 may generate light by supplying or blocking power to the light source according to a control signal. The light emitting unit 1 may supply or cut off power to the light source according to a control signal received from the processing unit 20 .

수광부(2)는 객체로부터 반사된 빛을 수광하여 신호를 생성한다. 앞서 설명한 것처럼, 수광부(2)는 센서, 필터 및 렌즈를 포함할 수 있다. 수광부(2)는 객체로부터 반사된 빛을 렌즈를 통해 집광하여 센서로 전달함으로써 전기 신호를 생성할 수 있다. 이하에서 전기 신호는 영상 신호와 혼용되어 설명될 수 있다. 수광부(2)는 발광부로부터 방출된 빛 만을 수광하기 위하여 필터를 렌즈의 전면 또는 후면에 배치할 수 있다. 수광부(2)는 생성된 영상 신호를 처리부(20)로 전송할 수 있다. The light receiving unit 2 generates a signal by receiving the light reflected from the object. As described above, the light receiving unit 2 may include a sensor, a filter, and a lens. The light receiving unit 2 may generate an electrical signal by condensing the light reflected from the object through a lens and transmitting it to the sensor. Hereinafter, the electric signal may be described as being mixed with the image signal. The light receiving unit 2 may have a filter disposed on the front or rear side of the lens in order to receive only the light emitted from the light emitting unit. The light receiving unit 2 may transmit the generated image signal to the processing unit 20 .

수광부(2)는 광원의 구동 시간에 동기화되어 제1 광을 수광하며, 수광된 제1 광에 기초하여 제1 영상 신호를 생성할 수 있다. The light receiving unit 2 may receive the first light in synchronization with the driving time of the light source, and may generate a first image signal based on the received first light.

수광부(2)는 광원이 동작하지 않는 비구동 시간에 제2 광을 수광하며, 제2 광에 기초하여 제2 영상 신호를 생성할 수 있다. The light receiving unit 2 may receive the second light during a non-driving time in which the light source does not operate, and may generate a second image signal based on the second light.

처리부(20)는 카메라 장치에 배치될 수 있다. 처리부(20)는 연산 처리가 가능한 프로세서일 수 있다. 일예로, 처리부(20)는 카메라 장치에 배치된 어플리케이션 프로세서(application processor) 일 수 있다. 처리부(20)는 데이터를 처리하고 저장하기 위한 메모리를 포함할 수 있다. The processing unit 20 may be disposed in the camera device. The processing unit 20 may be a processor capable of arithmetic processing. For example, the processing unit 20 may be an application processor disposed in the camera device. The processing unit 20 may include a memory for processing and storing data.

처리부(20)는 수광부(2)로부터 수신된 신호에 기초하여 영상을 생성할 수 있다. 처리부(20)는 수광부(2)의 센서로부터 전기신호를 수신하고, 전기신호에 기초하여 영상을 생성할 수 있다. 처리부(20)는 수광부(2)로부터 수신된 신호에 기초하여 3차원의 깊이영상을 생성할 수 있다. 처리부(20)는 수광부(2)로부터 수신된 신호에 기초하여 2차원의 IR 영상을 생성할 수 있다. The processing unit 20 may generate an image based on the signal received from the light receiving unit 2 . The processing unit 20 may receive an electrical signal from the sensor of the light receiving unit 2 and generate an image based on the electrical signal. The processing unit 20 may generate a three-dimensional depth image based on the signal received from the light receiving unit 2 . The processing unit 20 may generate a two-dimensional IR image based on the signal received from the light receiving unit 2 .

처리부(20)는 제1 영상 신호에 기초하여 복수의 픽셀을 포함하는 제1 영상 정보를 생성할 수 있다. 처리부(20)는 광스팟에 대응하는 픽셀을 포함하는 제1 픽셀 그룹 및 광스팟에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹 중 어느 하나로 제1 영상 정보에 포함된 복수의 픽셀을 분류할 수 있다. 처리부(20)는 기 설정된 분류 기준에 기초하여 복수의 픽셀을 제1 픽셀 그룹과 제2 픽셀 그룹으로 분류할 수 있다.The processor 20 may generate first image information including a plurality of pixels based on the first image signal. The processing unit 20 may classify the plurality of pixels included in the first image information into one of a first pixel group including pixels corresponding to the light spot and a second pixel group including pixels not corresponding to the light spot. have. The processor 20 may classify the plurality of pixels into a first pixel group and a second pixel group based on a preset classification criterion.

처리부(20)는 제2 픽셀 그룹의 픽셀값과 기 설정된 기준값을 비교하고, 비교 결과에 기초하여 광원의 동작을 제어할 수 있다. 처리부(20)는 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 작으면 광원을 턴온시키는 제어 신호를 생성할 수 있다. 처리부(20)는 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 크거나 같으면 광원을 턴오프시키는 제어 신호를 생성할 수 있다. The processor 20 may compare the pixel value of the second pixel group with a preset reference value, and control the operation of the light source based on the comparison result. The processor 20 may generate a control signal for turning on the light source when the pixel value of the second pixel group is smaller than a preset reference value. The processor 20 may generate a control signal for turning off the light source when the pixel value of the second pixel group is greater than or equal to a preset reference value.

처리부(20)는 제2 영상 신호에 기초하여 제2 영상 정보를 생성할 수 있다. 처리부(20)는 제2 영상 정보에 포함된 복수의 픽셀을 발광원에 대응하는 픽셀을 포함하는 제1 픽셀 그룹과 발광원에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹으로 분류할 수 있다. 이는 제1 영상 정보에 포함된 복수의 픽셀을 제1 픽셀 그룹과 제2 픽셀 그룹으로 분류하는 과정과 동일할 수 있다. The processor 20 may generate second image information based on the second image signal. The processor 20 may classify the plurality of pixels included in the second image information into a first pixel group including pixels corresponding to the light emitting source and a second pixel group including pixels not corresponding to the light emitting source. This may be the same as a process of classifying a plurality of pixels included in the first image information into a first pixel group and a second pixel group.

처리부(20)는 제2 영상 정보의 제2 픽셀 그룹의 픽셀값에 기초하여 외부광에 의한 노이즈 레벨을 산출할 수 있다. 처리부(20)는 노이즈 레벨에 기초하여 발광부(1) 및 수광부(2) 중 적어도 하나를 제어할 수 있다. The processor 20 may calculate a noise level due to external light based on the pixel value of the second pixel group of the second image information. The processing unit 20 may control at least one of the light emitting unit 1 and the light receiving unit 2 based on the noise level.

처리부(20)는 노이즈 레벨에 따라 수광부(2)의 노출시간(exposure time)을 변경하거나, 수광부(2)에 포함된 센서의 픽셀 소자의 이득값(gain)을 변경할 수 있다. 처리부(20)는 노이즈 레벨에 따라 광원이 생성하는 빛의 파워를 변경할 수 있다. The processing unit 20 may change an exposure time of the light receiving unit 2 or a gain value of a pixel element of a sensor included in the light receiving unit 2 according to the noise level. The processing unit 20 may change the power of light generated by the light source according to the noise level.

처리부(20)는 노이즈 레벨에 따라 기 설정된 기준값을 변경할 수 있다. 처리부(20)는 제2 픽셀 그룹의 픽셀값의 비교 기준이 되는 기준값을 노이즈 레벨에 따라 변경할 수 있다. The processing unit 20 may change the preset reference value according to the noise level. The processing unit 20 may change a reference value, which is a comparison reference for pixel values of the second pixel group, according to the noise level.

도 16은 본 발명의 실시예에 따른 제1 광을 설명하기 위한 도면이다. 16 is a view for explaining a first light according to an embodiment of the present invention.

도 16은 발광부에 의해 방출된 제1 광을 나타낸다. 발광부는 광원 및 광학부에 의해 생성된 제1 광을 출력할 수 있다. 제1 광은 광스팟(spot)이 소정의 패턴에 따라 형성된 패턴광일 수 있다. 광스팟 외의 영역(non-spot)은 광스팟(spot)에 대응하는 빛 중 일부가 산란되어 출력될 수도 있으나, 광스팟(spot)에 비해 광량이 매우 적을 수 있다. 16 shows the first light emitted by the light emitting unit. The light emitting unit may output the first light generated by the light source and the optical unit. The first light may be patterned light in which a light spot is formed according to a predetermined pattern. In a non-spot area other than the light spot, some of the light corresponding to the light spot may be scattered and output, but the amount of light may be very small compared to the light spot.

발광부는 광스팟(spot)이 소정의 패턴에 따라 형성된 제1 광을 출력하기 위하여 광학부를 광축 방향으로 이동시킬 수 있다. 발광부는 구동부를 통해 광학부를 광축방향으로 이동시켜 제1 광을 출력할 수 있다. The light emitting unit may move the optical unit in the optical axis direction to output the first light having a light spot formed according to a predetermined pattern. The light emitting unit may output the first light by moving the optical unit in the optical axis direction through the driving unit.

광스팟(spot)은 광원에 의해 생성될 수 있다. 예를 들어, 광원이 VCSEL(Vertical Cavity Surface Emitting Lase) 어레이인 경우, VCSEL은 복수의 에미터(emitter)를 포함할 수 있다. 광원이 복수의 에미터를 통해 광을 방출하면, 복수의 에미터 각각에 대응하는 복수의 광스팟을 포함하는 제1 광이 출력될 수 있다. 광원의 상부에 배치된 디퓨저나 렌즈와 같은 광학부재는 에미터로부터 방출되는 광의 크기를 조절할 수 있다. 예를 들어 디퓨저나 렌즈와 같은 광학부재는 광원과의 이격 거리가 변경될 수 있으며, 광원과의 이격 거리에 따라 광스팟의 크기가 변경될 수 있다. 이에 따라, 광스팟이 커짐에 따라 점광원이 면광원으로 변경되어 출력될 수 있다. A light spot may be created by a light source. For example, when the light source is a VCSEL (Vertical Cavity Surface Emitting Lase) array, the VCSEL may include a plurality of emitters. When the light source emits light through the plurality of emitters, first light including a plurality of light spots corresponding to each of the plurality of emitters may be output. An optical member such as a diffuser or a lens disposed on the light source can control the size of light emitted from the emitter. For example, in an optical member such as a diffuser or a lens, the separation distance from the light source may be changed, and the size of the light spot may be changed according to the separation distance from the light source. Accordingly, as the light spot increases, the point light source may be changed to a surface light source and output.

도 17은 본 발명의 실시예에 따른 제1 영상 정보의 제1 픽셀 그룹과 제2 픽셀 그룹을 설명하기 위한 도면이다. 17 is a diagram for describing a first pixel group and a second pixel group of first image information according to an embodiment of the present invention.

도 17의 (a)에서 음영은 제1 영상 정보의 제1 픽셀 그룹(group1)을 나타내고, 도 17의 (b)에서 음영은 제1 영상 정보의 제2 픽셀 그룹(group2)을 나타낸다. 도 17과 도 16을 비교하면, 제1 픽셀 그룹(group1)은 제1 광의 광스팟에 대응하고, 제2 픽셀 그룹(group2)은 광스팟 외의 영역에 대응함을 알 수 있다. 처리부는 기 설정된 분류 기준에 따라 제1 영상 정보의 각 픽셀을 제1 픽셀 그룹(group1) 또는 제2 픽셀 그룹(group2) 중 하나로 분류할 수 있다. In (a) of FIG. 17 , a shade indicates a first pixel group (group1) of the first image information, and in FIG. 17(b) , a shade indicates a second pixel group (group2) of the first image information. 17 and 16 , it can be seen that the first pixel group group1 corresponds to a light spot of the first light, and the second pixel group group2 corresponds to an area other than the light spot. The processor may classify each pixel of the first image information into one of a first pixel group group1 or a second pixel group group2 according to a preset classification criterion.

도 18a 및 도 18b는 일 실시예에 따른 제2 픽셀 그룹과 기준값의 비교 과정을 설명하기 위한 도면이다. 18A and 18B are diagrams for explaining a process of comparing a second pixel group and a reference value according to an exemplary embodiment.

도 18a는 일 실시예에 따른 제1 영상 정보를 나타내고, 도 18b는 제1 영상 정보의 픽셀값을 나타낸 그래프이다. 18A is a graph illustrating first image information according to an exemplary embodiment, and FIG. 18B is a graph illustrating pixel values of the first image information.

도 18a와 같은 제1 영상 정보에서 a-a' 라인에 배치된 픽셀값을 그래프의 형태로 도시하면 도 18b와 같이 나타낼 수 있다. 도 18b에서 음영 부분은 제1 픽셀 그룹(group1)을 나타내고 음영이 없는 부분은 제2 픽셀 그룹(group2)을 나타낸다. In the first image information as shown in FIG. 18A, when pixel values arranged on line a-a' are shown in the form of a graph, it can be shown as shown in FIG. 18B. In FIG. 18B , a shaded portion indicates a first pixel group group1 and a non-shaded portion indicates a second pixel group group2 .

처리부는 음영 부분인 제1 픽셀 그룹(group)의 픽셀값(amplitude)과 기준값(threshold)을 비교한다. 즉, 음영이 없는 부분인 제2 픽셀 그룹(group2)의 픽셀값(amplitude)과 기준값(threshold)은 비교하지 않는다. The processing unit compares a pixel value (amplitude) of a first pixel group that is a shaded portion and a reference value (threshold). That is, the pixel value (amplitude) of the second pixel group (group2), which is a non-shaded portion, is not compared with the reference value (threshold).

도 18b를 참조하면, 제2 픽셀 그룹(group2)에 포함된 각 픽셀의 픽셀값을 보면 기준값(threshold)보다 작음을 확인할 수 있다. 제2 픽셀 그룹(group2)에 배치된 픽셀값과 기준값(threshold)보다 작으므로, 처리부는 a-a' 라인에 배치된 픽셀에 대응하는 광학부 영역에는 이상(탈락이나 크랙 등)이 없다고 판단할 수 있다. 처리부는 이와 같이 모든 제2 픽셀 그룹(group2)에 포함된 픽셀값과 기준값(threshold)을 비교하여 광학부의 정상 여부를 판단하게 된다. 일 실시예에 따르면, 제2 픽셀 그룹(group)에 포함된 픽셀 중 픽셀값이 기준값(threshold)보다 작은 픽셀의 개수가 임계치보다 클 경우, 처리부는 광학부가 정상이라고 판단할 수 있다. 이에 따라, 처리부는 광원을 구동하는 제어 신호를 생성하여 발광부로 전송할 수 있다. Referring to FIG. 18B , it can be seen that the pixel value of each pixel included in the second pixel group group2 is smaller than a threshold. Since the pixel value arranged in the second pixel group (group2) and the threshold value are smaller than the threshold, the processing unit may determine that there is no abnormality (eg, dropout or crack) in the optical unit region corresponding to the pixel arranged on line aa'. . As described above, the processor compares the pixel values included in all the second pixel groups group2 with the reference value (threshold) to determine whether the optical unit is normal. According to an exemplary embodiment, when the number of pixels having a pixel value smaller than a threshold among pixels included in the second pixel group is greater than a threshold, the processing unit may determine that the optical unit is normal. Accordingly, the processing unit may generate a control signal for driving the light source and transmit it to the light emitting unit.

도 19a 및 도 19b는 다른 실시예에 따른 제2 픽셀 그룹과 기준값의 비교 과정을 설명하기 위한 도면이다. 19A and 19B are diagrams for explaining a process of comparing a second pixel group and a reference value according to another exemplary embodiment.

도 19a는 일 실시예에 따른 제1 영상 정보를 나타내고, 도 19b는 제1 영상 정보의 픽셀값을 나타낸 그래프이다. 19A is a graph illustrating first image information according to an exemplary embodiment, and FIG. 19B is a graph illustrating pixel values of the first image information.

도 19a와 같은 제1 영상 정보에서 a-a' 라인에 배치된 픽셀값을 그래프의 형태로 도시하면 도 19b와 같이 나타낼 수 있다. 도 19b에서 음영 부분은 제1 픽셀 그룹(group1)을 나타내고 음영이 없는 부분은 제2 픽셀 그룹(group2)을 나타낸다. In the first image information as shown in FIG. 19A, when pixel values arranged on line a-a' are shown in the form of a graph, it can be shown as shown in FIG. 19B. In FIG. 19B , a shaded portion indicates a first pixel group group1 and a non-shaded portion indicates a second pixel group group2.

처리부는 음영 부분인 제1 픽셀 그룹(group)의 픽셀값(amplitude)과 기준값(threshold)을 비교한다. 즉, 음영이 없는 부분인 제2 픽셀 그룹(group2)의 픽셀값(amplitude)과 기준값(threshold)은 비교하지 않는다. The processing unit compares a pixel value (amplitude) of a first pixel group that is a shaded portion and a reference value (threshold). That is, the pixel value (amplitude) of the second pixel group (group2), which is a non-shaded portion, is not compared with the reference value (threshold).

도 19b를 참조하면, 제2 픽셀 그룹(group2)에 포함된 픽셀 중 스팟 넘버(spot number) 0에서 40 및 70에서 230 구간의 픽셀은 픽셀값(amplitude)이 기준값(threshold)보다 작음을 확인할 수 있다. 이를 통해, 처리부는 해당 구간에 대응하는 광학부에 이상이 없다고 판단할 수 있다. Referring to FIG. 19B , among pixels included in the second pixel group (group2), it can be confirmed that pixels with spot numbers 0 to 40 and 70 to 230 have pixel values smaller than the threshold. have. Through this, the processing unit may determine that there is no abnormality in the optical unit corresponding to the corresponding section.

다만, 제2 픽셀 그룹(group2)에 포함된 픽셀 중 스팟 넘버(spot number) 40에서 70 구간의 픽셀은 픽셀값(amplitude)이 기준값(threshold)보다 큰 것을 알 수 있다. 이에 따라, 처리부는 해당 구간에 대응하는 광학부 영역에 이상(탈락이나 크랙 등)이 발생하였다고 판단할 수 있다. 처리부는 이와 같이 모든 제2 픽셀 그룹(group2)에 포함된 픽셀값과 기준값(threshold)을 비교하여 광학부에 이상이 발생하였는지 여부를 판단하게 된다. However, it can be seen that, among pixels included in the second pixel group group2, a pixel having a spot number of 40 to 70 has a pixel amplitude greater than a threshold. Accordingly, the processing unit may determine that an abnormality (such as a dropout or a crack) has occurred in the optical unit region corresponding to the corresponding section. The processing unit compares the pixel values included in all the second pixel groups group2 with the threshold to determine whether an abnormality has occurred in the optical unit.

도 18a 내지 도 19b를 통해 살펴본 것처럼, 본 발명의 실시예에 따른 처리부는 제1 영상 정보 내 제2 픽셀 그룹에 포함된 픽셀값을 통해 광학부의 이상 여부를 판단한다. 만약, 제1 광의 광스팟에 대응하는 제1 픽셀 그룹의 픽셀값을 통해 광학부의 이상 여부를 판단할 경우, 이상 여부 판단에 오류가 발생할 수 있다. 이는 광스팟에 대응하는 제1 픽셀 그룹의 경우 광이 조사되는 객체나 주변 환경에 의해 픽셀값의 변화가 크게 나타날 수 있기 때문이다. 이에 반해, 제2 픽셀 그룹의 경우 광스팟에 대응하는 영역이 아니므로 객체나 주변 환경에 의한 픽셀값 변화가 적게 나타난다. 따라서, 본 발명은 제2 픽셀 그룹을 통해 광학부의 이상 여부를 판단함으로써 판단의 정확도를 향상시킨다. 18A to 19B , the processing unit according to an embodiment of the present invention determines whether the optical unit is abnormal based on the pixel value included in the second pixel group in the first image information. If it is determined whether the optical unit is abnormal based on the pixel value of the first pixel group corresponding to the light spot of the first light, an error may occur in determining whether the optical unit is abnormal. This is because, in the case of the first pixel group corresponding to the light spot, the pixel value may be greatly changed by the object to which light is irradiated or the surrounding environment. On the other hand, in the case of the second pixel group, since the area does not correspond to the light spot, the pixel value change due to the object or the surrounding environment is small. Accordingly, the present invention improves the accuracy of determination by determining whether the optical unit is abnormal through the second pixel group.

도 20은 본 발명의 실시예에 따른 제1 광을 출력 시점을 설명하기 위한 도면이다. 20 is a view for explaining an output timing of the first light according to an embodiment of the present invention.

도 20을 참조하면, 발광부는 제1 광 및 제3 광을 방출할 수 있다. 제1 광은 광학부의 이상 여부를 판단하기 위한 광을 의미할 수 있고, 제3 광은 깊이 영상을 생성하기 위한 광을 의미할 수 있다. 도 20에 도시된 하나의 제3 광은 하나의 깊이 영상 프레임에 대응할 수 있다. Referring to FIG. 20 , the light emitting unit may emit first light and third light. The first light may mean light for determining whether an optical unit is abnormal, and the third light may mean light for generating a depth image. One third light illustrated in FIG. 20 may correspond to one depth image frame.

도 20의 (a)를 참조하면, 제1 광과 제3 광은 서로 반복하여 방출될 수 있다. 즉, 발광부는 깊이 영상의 각 프레임 생성을 위한 제3 광을 방출하기 전 제1 광을 방출할 수 있다. 만약 제1 광에 기초하여 광학부에 이상이 발생하였다고 판단되면, 처리부는 다음 제3 광이 방출되지 않도록 제어 신호를 생성하게 된다. Referring to FIG. 20A , the first light and the third light may be repeatedly emitted with each other. That is, the light emitting unit may emit the first light before emitting the third light for generating each frame of the depth image. If it is determined that an abnormality has occurred in the optical unit based on the first light, the processing unit generates a control signal so that the next third light is not emitted.

도 20의 (b)를 참조하면, 제1 광이 방출된 후 복수의 제3 광이 연속하여 방출되고, 다시 제1 광이 방출될 수 있다. 예를 들어, 4장이 깊이영상 프레임을 통해 하나의 고해상 깊이 영상을 생성하는 수퍼 레졸루션을 수행하는 경우, 발광부는 제1 광 방출 후 4번 제3 광을 연속하여 방출할 수 있다. 만약 제3 광이 4번 방출된 후 방출된 제1 광에 기초하여 광학부에 이상이 발생하였다고 판단되면, 처리부는 다음 제3 광이 방출되지 않도록 제어 신호를 생성하게 된다.Referring to FIG. 20B , after the first light is emitted, a plurality of third lights may be continuously emitted, and the first light may be emitted again. For example, when 4 sheets perform super resolution for generating one high-resolution depth image through the depth image frame, the light emitting unit may continuously emit the fourth light after the first light is emitted. If it is determined that an abnormality has occurred in the optical unit based on the first light emitted after the third light is emitted four times, the processing unit generates a control signal so that the next third light is not emitted.

도 21은 본 발명의 실시예에 따른 제2 광의 수광 과정을 설명하기 위한 도면이다. 21 is a view for explaining a light receiving process of a second light according to an embodiment of the present invention.

처리부에 의해 광학부가 정상인 것으로 판단되어 광원이 구동되면, 발광부는 도 21의 Tx1과 같이 제3 광을 출력할 수 있다. 발광부는 Tx1과 같이 소정의 주기에 따라 제1 시간(t1) 동안 제3 광을 출력하게 된다. When the processing unit determines that the optical unit is normal and the light source is driven, the light emitting unit may output the third light as shown in Tx1 of FIG. 21 . The light emitting unit outputs the third light for the first time t1 according to a predetermined period like Tx1.

발광부가 제1 시간(t1)에 제3 광을 출력하면, 센서의 픽셀에 포함된 제1 수광소자(phase-in 유닛)는 Rx1-1과 같이 발광부가 제3 광을 출력하는 제1 시간(t1)동안 광을 수광한다. 그리고, 센서의 픽셀에 포함된 제2 수광소자(phase-out 유닛)는 Rx1-2와 같이 제2 시간(t2)동안 제3 광을 수광한다. 카메라 장치는 제1 수광소자를 통해 수광한 광량과 제2 수광소자를 통해 수광한 광량에 기초하여 깊이 영상을 생성할 수 있다. When the light emitting unit outputs the third light at the first time t1, the first light receiving element (phase-in unit) included in the pixel of the sensor operates at the first time (Rx1-1) at which the light emitting unit outputs the third light ( light is received during t1). In addition, the second light receiving element (phase-out unit) included in the pixel of the sensor receives the third light for the second time t2 like Rx1-2. The camera device may generate a depth image based on the amount of light received through the first light receiving element and the amount of light received through the second light receiving element.

그리고 수광부는 제2 수광소자가 수광을 종료한 시점부터 다음 제3 광이 발광부로부터 출력되는 시점 사이인 제3 시간(t3)에 제2 광을 수광할 수 있다. 제2 광은 발광부에 출력된 광이 아닌 주변광일 수 있다. 센서는 제1 수광소자 또는 제2 수광소자 중 적어도 하나를 통해 제2 광을 수광할 수 있다. The light receiving unit may receive the second light at a third time t3 between the time when the second light receiving element finishes receiving light and the time when the next third light is output from the light emitting unit. The second light may be ambient light other than the light output to the light emitting unit. The sensor may receive the second light through at least one of the first light receiving element and the second light receiving element.

도 21에서는 제3 시간(t3)에 제2 광을 수광하는 것으로 도시하였으나, 수광부는 제2 수광소자가 수광을 종료한 시점부터 다음 광이 발광부로부터 출력되는 시점 사이에서 소정의 시간동안 제2 광을 수광할 수 있다. 제2 광을 수광하는 시간은 당업자에 의해 설계변경이 가능하다. 다른 실시예로, 수광부는 제1 광과 제3 광이 방출되는 구간 사이의 시간 동안 제2 광을 수광할 수도 있다. 21 shows that the second light is received at the third time t3, but the light receiving unit receives the second light for a predetermined time between the time when the second light receiving element finishes receiving light and the time when the next light is output from the light emitting unit. It can receive light. The time for receiving the second light can be changed in design by those skilled in the art. In another embodiment, the light receiving unit may receive the second light during a period between the first light and the third light is emitted.

도 22는 노이즈 레벨에 따른 제어 과정을 설명하기 위한 도면이다. 22 is a diagram for explaining a control process according to a noise level.

처리부는 제2 영상 정보의 제2 픽셀 그룹에 기초하여 노이즈 레벨을 산출할 수 있다. 일 실시예에 따르면, 처리부는 제2 픽셀 그룹에 포함된 픽셀의 픽셀값 평균을 통해 노이즈 레벨을 산출할 수 있다. 노이즈 레벨은 선형적으로 또는 이산적으로 산출될 수 있다. 노이즈 레벨이 클수록 주변광의 강도가 높음을 의미하고, 노이즈 레벨이 낮을수록 주변광의 강도가 낮음을 의미할 수 있다. 제1 픽셀 그룹의 경우에는 발광부로부터 출력된 광에 의한 영향으로 주변광에 대한 강도 측정에 부정확함이 발생할 수 있는 반면, 제2 픽셀 그룹의 경우에는 발광부로부터 출력된 광에 의한 영향이 적어 주변광에 대한 강도 측정을 정확히 수행할 수 있는 장점이 있다. The processor may calculate the noise level based on the second pixel group of the second image information. According to an embodiment, the processor may calculate the noise level through an average of pixel values of pixels included in the second pixel group. The noise level can be calculated linearly or discretely. A higher noise level may mean that the intensity of ambient light is higher, and a lower noise level may mean lower intensity of ambient light. In the case of the first pixel group, inaccuracies may occur in measuring the intensity of ambient light due to the effect of the light output from the light emitting unit, whereas in the second pixel group, the influence by the light output from the light emitting unit is small. It has the advantage of being able to accurately measure the intensity of ambient light.

처리부는 노이즈 레벨에 따라 수광부의 노출시간(exposure time)을 변경하기 위한 제1 신호(Sn1)를 생성할 수 있다. 노이즈 레벨이 높을 경우, 처리부는 수광부의 노출시간을 증가시키기 위한 제1 신호(Sn1)를 생성할 수 있다. 반면, 노이즈 레벨이 낮을 경우, 처리부는 수광부의 노출시간을 감소시키기 위한 제1 신호(Sn1)를 생성할 수 있다. 제1 신호(Sn1)는 수광부로 전송될 수 있다. The processing unit may generate a first signal Sn1 for changing an exposure time of the light receiving unit according to the noise level. When the noise level is high, the processor may generate the first signal Sn1 for increasing the exposure time of the light receiving unit. On the other hand, when the noise level is low, the processor may generate the first signal Sn1 for reducing the exposure time of the light receiving unit. The first signal Sn1 may be transmitted to the light receiving unit.

처리부는 노이즈 레벨에 따라 수광부에 포함된 센서의 픽셀 소자의 이득값(gain)을 변경하기 위한 제2 신호(Sn2)를 생성할 수 있다. 노이즈 레벨이 높을 경우, 처리부는 이득값을 증가시키기 위한 제2 신호(Sn2)를 생성할 수 있다. 반면, 노이즈 레벨이 낮을 경우, 처리부는 이득값을 감소시키기 위한 제2 신호(Sn2)를 생성할 수 있다. 제2 신호(Sn2)는 수광부로 전송될 수 있다.The processor may generate a second signal Sn2 for changing a gain of a pixel element of a sensor included in the light receiver according to the noise level. When the noise level is high, the processor may generate the second signal Sn2 for increasing the gain value. On the other hand, when the noise level is low, the processor may generate the second signal Sn2 for reducing the gain value. The second signal Sn2 may be transmitted to the light receiving unit.

처리부는 노이즈 레벨에 따라 광원이 생성하는 빛의 파워를 변경할 수 있는 제3 신호(Sn3)를 생성할 수 있다. 노이즈 레벨이 높을 경우, 처리부는 광원이 생성하는 빛의 파워를 증가시키기 위한 제3 신호(Sn3)를 생성할 수 있다. 반면, 노이즈 레벨이 낮을 경우, 처리부는 광원이 생성하는 빛의 파워를 감소시키기 위한 제3 신호(Sn3)를 생성할 수 있다. 제3 신호(Sn3)는 발광부로 전송될 수 있다.The processor may generate the third signal Sn3 capable of changing the power of light generated by the light source according to the noise level. When the noise level is high, the processor may generate a third signal Sn3 for increasing the power of light generated by the light source. On the other hand, when the noise level is low, the processor may generate the third signal Sn3 for reducing the power of light generated by the light source. The third signal Sn3 may be transmitted to the light emitting unit.

처리부는 노이즈 레벨에 따라 기 설정된 기준값을 변경할 수 있다. 처리부는 노이즈 레벨에 대응하는 값이 저장된 룩업 테이블(look-up table)을 포함할 수 있다. 처리부는 산출된 노이즈 레벨에 대응하는 값을 룩업 테이블로부터 선택하여 기준값으로 설정할 수 있다. The processor may change the preset reference value according to the noise level. The processing unit may include a look-up table in which values corresponding to noise levels are stored. The processor may select a value corresponding to the calculated noise level from the lookup table and set it as a reference value.

본 발명의 실시예에 따르면, 발광부에 별도의 하드웨어 장치를 추가하지 않고도 발광부의 이상 여부를 검출할 수 있는 장점이 있다. 발광부의 디퓨저에 ITO 패턴을 배치하고 전극을 연결하여 디퓨저의 탈락이나 크랙 여부를 검출하는 경우, 광학부의 이동에 의해 ITO 패턴과 전극 사이의 접촉이 어려울 수 있으나, 본 발명의 경우에는 광학부의 이동과 무관하게 안정적으로 디퓨저의 탈락이나 크랙 여부를 검출할 수 있다. 또한 발광부 내부에 포토 다이오드를 설치하여 발광부의 렌즈나 디퓨저의 크랙/탈락을 검출할 경우 복수의 렌즈나 디퓨저에 의한 반사광량 오류로 인해 부정확한 진단 결과가 도출될 수 있으나, 본 발명의 경우에는 수광부의 수광 정보에 기초하므로 발광부의 렌즈나 디퓨저의 반사광량과 무관하게 광학부의 이상 여부를 검출할 수 있다. According to an embodiment of the present invention, there is an advantage in that it is possible to detect an abnormality in the light emitting unit without adding a separate hardware device to the light emitting unit. When an ITO pattern is placed on the diffuser of the light emitting unit and an electrode is connected to detect whether the diffuser is dropped or cracked, contact between the ITO pattern and the electrode may be difficult due to the movement of the optical unit, but in the present invention, the movement of the optical unit and Regardless of whether the diffuser is dropped or cracked, it can be reliably detected. In addition, when a photodiode is installed inside the light emitting unit to detect cracks/falls in the lens or diffuser of the light emitting unit, an inaccurate diagnosis result may be derived due to an error in the amount of reflected light by a plurality of lenses or diffusers, but in the case of the present invention Since it is based on the light-receiving information of the light-receiving unit, it is possible to detect whether the optical unit is abnormal regardless of the amount of reflected light from the lens or the diffuser of the light-emitting unit.

이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. In the above, the embodiment has been mainly described, but this is only an example and does not limit the present invention, and those of ordinary skill in the art to which the present invention pertains are not exemplified above in the range that does not depart from the essential characteristics of the present embodiment. It will be appreciated that various modifications and applications are possible. For example, each component specifically shown in the embodiment can be implemented by modification. And differences related to such modifications and applications should be construed as being included in the scope of the present invention defined in the appended claims.

1 : 발광부
2 : 수광부
10 : 카메라 모듈
20 : 처리부
1: light emitting part
2: light receiver
10: camera module
20: processing unit

Claims (11)

복수의 광스팟을 포함하는 제1 광을 방출하는 광원;
상기 제1 광을 수광하며, 수광된 상기 제1 광에 기초하여 제1 영상 신호를 생성하는 수광부;
상기 제1 영상 신호를 수신하는 처리부;를 포함하고,
상기 처리부는,
상기 제1 영상 신호에 기초하여 복수의 픽셀을 포함하는 제1 영상 정보를 생성하고,
상기 광스팟에 대응하는 픽셀을 포함하는 제1 픽셀 그룹 및 상기 광스팟에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹 중 어느 하나로 상기 복수의 픽셀을 분류하고,
상기 제2 픽셀 그룹의 픽셀값과 기 설정된 기준값을 비교하고,
상기 비교 결과에 기초하여 상기 광원의 동작을 제어하는 카메라 장치.
a light source emitting a first light including a plurality of light spots;
a light receiving unit receiving the first light and generating a first image signal based on the received first light;
Including; a processing unit for receiving the first image signal;
The processing unit,
generating first image information including a plurality of pixels based on the first image signal;
classifying the plurality of pixels into any one of a first pixel group including pixels corresponding to the light spot and a second pixel group including pixels not corresponding to the light spot;
comparing a pixel value of the second pixel group with a preset reference value;
A camera device for controlling an operation of the light source based on the comparison result.
제1항에 있어서,
상기 처리부는,
기 설정된 분류 기준에 기초하여 상기 복수의 픽셀을 상기 제1 픽셀 그룹과 상기 제2 픽셀 그룹으로 분류하는 카메라 장치.
According to claim 1,
The processing unit,
A camera device for classifying the plurality of pixels into the first pixel group and the second pixel group based on a preset classification criterion.
제1항에 있어서,
상기 처리부는
상기 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 작으면, 상기 광원을 턴온시키는 제어 신호를 생성하는 카메라 장치.
According to claim 1,
the processing unit
When the pixel value of the second pixel group is smaller than a preset reference value, the camera device generates a control signal for turning on the light source.
제1항에 있어서,
상기 처리부는
상기 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 크거나 같으면, 상기 광원을 턴오프시키는 제어 신호를 생성하는 카메라 장치.
According to claim 1,
the processing unit
When the pixel value of the second pixel group is greater than or equal to a preset reference value, the camera device generates a control signal for turning off the light source.
제1항에 있어서,
상기 수광부는,
상기 광원의 구동 시간에 동기화되어 상기 제1 광을 수광하는 카메라 장치.
According to claim 1,
The light receiving unit,
A camera device for receiving the first light in synchronization with the driving time of the light source.
제1항에 있어서,
상기 수광부는,
상기 광원이 동작하지 않는 비구동 시간에 동기화되어 제2 광을 수광하며, 상기 제2 광에 기초하여 제2 영상 신호를 생성하는 카메라 장치.
According to claim 1,
The light receiving unit,
The camera apparatus is synchronized with a non-driving time when the light source is not in operation, receives a second light, and generates a second image signal based on the second light.
제6항에 있어서,
상기 처리부는,
상기 제2 영상 신호에 기초하여 제2 영상 정보를 생성하고,
상기 제2 영상 정보에 포함된 복수의 픽셀을 발광원에 대응하는 픽셀을 포함하는 제1 픽셀 그룹과 상기 발광원에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹으로 분류하며,
상기 제2 영상 정보의 제2 픽셀 그룹의 픽셀값에 기초하여 외부광에 의한 노이즈 레벨을 산출하고, 상기 노이즈 레벨에 기초하여 상기 광원 및 수광부 중 적어도 하나를 제어하는 카메라 장치.
7. The method of claim 6,
The processing unit,
generating second image information based on the second image signal;
classifying the plurality of pixels included in the second image information into a first pixel group including pixels corresponding to the light-emitting source and a second pixel group including pixels not corresponding to the light-emitting source;
A camera apparatus for calculating a noise level caused by external light based on a pixel value of a second pixel group of the second image information, and controlling at least one of the light source and the light receiving unit based on the noise level.
제7항에 있어서,
상기 처리부는,
상기 노이즈 레벨에 따라 상기 수광부의 노출시간(exposure time)을 변경하거나, 상기 수광부에 포함된 센서의 픽셀 소자의 이득값(gain)을 변경하는 카메라 장치.
8. The method of claim 7,
The processing unit,
A camera device for changing an exposure time of the light receiving unit or a gain of a pixel element of a sensor included in the light receiving unit according to the noise level.
제7항에 있어서,
상기 처리부는,
상기 노이즈 레벨에 따라 상기 광원이 생성하는 빛의 파워를 변경하는 카메라 장치.
8. The method of claim 7,
The processing unit,
A camera device for changing the power of the light generated by the light source according to the noise level.
제7항에 있어서,
상기 처리부는,
상기 노이즈 레벨에 따라 상기 기 설정된 기준값을 변경하는 카메라 장치.
8. The method of claim 7,
The processing unit,
The camera device changes the preset reference value according to the noise level.
제1항에 있어서,
상기 광원은,
각각의 깊이 영상 프레임(frame) 생성 전 상기 제1 광을 출력하는 카메라 장치.
According to claim 1,
The light source is
A camera device for outputting the first light before each depth image frame is generated.
KR1020200056479A 2020-05-12 2020-05-12 Camera device KR102674227B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200056479A KR102674227B1 (en) 2020-05-12 2020-05-12 Camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200056479A KR102674227B1 (en) 2020-05-12 2020-05-12 Camera device

Publications (2)

Publication Number Publication Date
KR20210138305A true KR20210138305A (en) 2021-11-19
KR102674227B1 KR102674227B1 (en) 2024-06-12

Family

ID=78718031

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200056479A KR102674227B1 (en) 2020-05-12 2020-05-12 Camera device

Country Status (1)

Country Link
KR (1) KR102674227B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150074727A (en) * 2013-12-24 2015-07-02 엘지전자 주식회사 Electronic device and method for controlling of the same
KR20160092137A (en) * 2015-01-26 2016-08-04 주식회사 히타치엘지 데이터 스토리지 코리아 Controlling method in distance measuring device using TOF
KR101666137B1 (en) * 2009-07-21 2016-10-13 디엑스오 랩스 Method for estimating a defect in an image-capturing system, and associated systems
KR20170119515A (en) * 2016-04-19 2017-10-27 주식회사 만도 System and method for verification of lamp operation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101666137B1 (en) * 2009-07-21 2016-10-13 디엑스오 랩스 Method for estimating a defect in an image-capturing system, and associated systems
KR20150074727A (en) * 2013-12-24 2015-07-02 엘지전자 주식회사 Electronic device and method for controlling of the same
KR20160092137A (en) * 2015-01-26 2016-08-04 주식회사 히타치엘지 데이터 스토리지 코리아 Controlling method in distance measuring device using TOF
KR20170119515A (en) * 2016-04-19 2017-10-27 주식회사 만도 System and method for verification of lamp operation

Also Published As

Publication number Publication date
KR102674227B1 (en) 2024-06-12

Similar Documents

Publication Publication Date Title
KR102568462B1 (en) A detector for determining the position of at least one object
EP3786707B1 (en) Projection module and terminal
US7679671B2 (en) Image capturing for capturing an image of an object by illuminating the object and receiving light from the object
US20230064678A1 (en) Camera module
EP4117268A1 (en) Distance measuring camera apparatus
CN113196284B (en) Image pickup apparatus
US20220113608A1 (en) Camera module
KR102211153B1 (en) Camera module type sensor apparatus and camera module
KR20200085578A (en) Camera module
KR102674227B1 (en) Camera device
CN108490572A (en) Laser projection module, depth camera and electronic device
KR20200113438A (en) Camera module
US12085838B2 (en) Camera module
KR102505817B1 (en) 3d image acquisition device
KR20210141167A (en) Camera module
KR102710469B1 (en) Camera module
KR102656494B1 (en) Camera module
KR102656488B1 (en) Camera module
US20240007728A1 (en) Distance measuring camera device
KR20220003295A (en) Camera module
CN112312829A (en) Sensing method and device
KR20220103392A (en) Distance measurement camera device
KR20220000599A (en) Camera module
KR20220055917A (en) Distance measurement camera device
US20240255643A1 (en) Distance measurement camera module

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right