KR20210138305A - Camera device - Google Patents
Camera device Download PDFInfo
- Publication number
- KR20210138305A KR20210138305A KR1020200056479A KR20200056479A KR20210138305A KR 20210138305 A KR20210138305 A KR 20210138305A KR 1020200056479 A KR1020200056479 A KR 1020200056479A KR 20200056479 A KR20200056479 A KR 20200056479A KR 20210138305 A KR20210138305 A KR 20210138305A
- Authority
- KR
- South Korea
- Prior art keywords
- light
- unit
- pixel group
- light source
- processing unit
- Prior art date
Links
- 238000012545 processing Methods 0.000 claims abstract description 50
- 238000000034 method Methods 0.000 claims description 23
- 230000001360 synchronised effect Effects 0.000 claims 1
- 230000003287 optical effect Effects 0.000 description 129
- 238000010168 coupling process Methods 0.000 description 43
- 230000008878 coupling Effects 0.000 description 42
- 238000005859 coupling reaction Methods 0.000 description 42
- 239000000758 substrate Substances 0.000 description 41
- 230000008859 change Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000005856 abnormality Effects 0.000 description 8
- 230000002159 abnormal effect Effects 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000003014 reinforcing effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000036316 preload Effects 0.000 description 2
- 101001045744 Sus scrofa Hepatocyte nuclear factor 1-beta Proteins 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000696 magnetic material Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002086 nanomaterial Substances 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000003351 stiffener Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
-
- H04N5/2256—
-
- H04N5/2353—
-
- H04N5/243—
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Studio Devices (AREA)
Abstract
Description
실시 예는 카메라 장치에 관한 것이다.The embodiment relates to a camera device.
3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 3D contents are being applied in many fields such as education, manufacturing, and autonomous driving as well as games and culture, and depth map is required to acquire 3D contents. Depth information is information representing a distance in space, and represents perspective information of one point in a 2D image at another point.
깊이 정보를 획득하는 방법으로, IR(Infrared) 구조광을 객체에 투사하는 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다. TOF 방식에 따르면, 비행 시간, 즉 빛을 쏘아서 반사되어 오는 시간을 측정함으로써 물체와의 거리를 계산한다. ToF 방식의 가장 큰 장점은 3차원 공간에 대한 거리정보를 실시간으로 빠르게 제공한다는 점에 있다. 또한 사용자가 별도의 알고리즘 적용이나 하드웨어적 보정을 하지 않고도 정확한 거리 정보를 얻을 수 있다. 또한 매우 가까운 피사체를 측정하거나 움직이는 피사체를 측정하여도 정확한 깊이 정보를 획득할 수 있다.As a method of acquiring depth information, a method of projecting infrared (IR) structured light onto an object, a method using a stereo camera, a time of flight (TOF) method, and the like are used. According to the TOF method, the distance to the object is calculated by measuring the time of flight, that is, the time the light is emitted and reflected. The biggest advantage of the ToF method is that it provides distance information in a 3D space quickly in real time. In addition, the user can obtain accurate distance information without applying a separate algorithm or performing hardware correction. Also, accurate depth information can be obtained by measuring a very close subject or measuring a moving subject.
하지만, 광을 방출함으로써 깊이 정보를 획득하는 방식의 경우에는 안전상 문제가 제기된다. 광원에서 빛의 파워를 분산시키는 부재 등의 파손으로 인해 강한 빛이 사람의 눈과 같이 빛에 취약한 부위에 직접 조사될 경우 상해가 발생할 수 있기 때문이다. 따라서, 이러한 문제점을 해결할 수 있는 방법이 요구된다. However, in the case of a method of acquiring depth information by emitting light, a safety problem is raised. This is because injuries may occur when strong light is directly irradiated to areas vulnerable to light, such as the human eye, due to damage to a member that disperses the power of light from the light source. Therefore, a method capable of solving these problems is required.
실시 예는 발광부의 고장을 검출할 수 있는 카메라 장치를 제공한다. The embodiment provides a camera device capable of detecting a failure of a light emitting unit.
실시 예는 발광부의 고장 시 광원의 구동을 제어할 수 있는 카메라 장치를 제공한다. The embodiment provides a camera device capable of controlling driving of a light source when a light emitting unit fails.
실시 예는 주변광에 의한 노이즈에 강한 카메라 장치를 제공한다. An embodiment provides a camera device that is resistant to noise caused by ambient light.
실시 예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.The problem to be solved in the embodiment is not limited thereto, and it will be said that the purpose or effect that can be grasped from the solving means or embodiment of the problem described below is also included.
본 발명의 실시예에 따른 카메라 장치는 복수의 광스팟을 포함하는 제1 광을 방출하는 광원; 상기 제1 광을 수광하며, 수광된 상기 제1 광에 기초하여 제1 영상 신호를 생성하는 수광부; 상기 제1 영상 신호를 수신하는 처리부;를 포함하고, 상기 처리부는, 상기 제1 영상 신호에 기초하여 복수의 픽셀을 포함하는 제1 영상 정보를 생성하고, 상기 광스팟에 대응하는 픽셀을 포함하는 제1 픽셀 그룹 및 상기 광스팟에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹 중 어느 하나로 상기 복수의 픽셀을 분류하고, 상기 제2 픽셀 그룹의 픽셀값과 기 설정된 기준값을 비교하고, 상기 비교 결과에 기초하여 상기 광원의 동작을 제어한다. A camera device according to an embodiment of the present invention includes: a light source emitting a first light including a plurality of light spots; a light receiving unit receiving the first light and generating a first image signal based on the received first light; a processing unit receiving the first image signal, wherein the processing unit generates first image information including a plurality of pixels based on the first image signal and includes a pixel corresponding to the light spot classifying the plurality of pixels into any one of a first pixel group and a second pixel group including pixels not corresponding to the light spot, comparing a pixel value of the second pixel group with a preset reference value, and the comparison result Controls the operation of the light source based on
상기 처리부는, 기 설정된 분류 기준에 기초하여 상기 복수의 픽셀을 상기 제1 픽셀 그룹과 상기 제2 픽셀 그룹으로 분류할 수 있다. The processor may classify the plurality of pixels into the first pixel group and the second pixel group based on a preset classification criterion.
상기 처리부는 상기 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 작으면, 상기 광원을 턴온시키는 제어 신호를 생성할 수 있다. When the pixel value of the second pixel group is smaller than a preset reference value, the processor may generate a control signal for turning on the light source.
상기 처리부는 상기 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 크거나 같으면, 상기 광원을 턴오프시키는 제어 신호를 생성할 수 있다. The processor may generate a control signal for turning off the light source when a pixel value of the second pixel group is greater than or equal to a preset reference value.
상기 수광부는, 상기 광원의 구동 시간에 동기화되어 상기 제1 광을 수광할 수 있다. The light receiving unit may receive the first light in synchronization with the driving time of the light source.
상기 수광부는, 상기 광원이 동작하지 않는 비구동 시간에 동기화되어 제2 광을 수광하며, 상기 제2 광에 기초하여 제2 영상 신호를 생성할 수 있다. The light receiving unit may receive a second light in synchronization with a non-driving time when the light source is not in operation, and may generate a second image signal based on the second light.
상기 처리부는, 상기 제2 영상 신호에 기초하여 제2 영상 정보를 생성하고, 상기 제2 영상 정보에 포함된 복수의 픽셀을 발광원에 대응하는 픽셀을 포함하는 제1 픽셀 그룹과 상기 발광원에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹으로 분류하며, 상기 제2 영상 정보의 제2 픽셀 그룹의 픽셀값에 기초하여 외부광에 의한 노이즈 레벨을 산출하고, 상기 노이즈 레벨에 기초하여 상기 광원 및 수광부 중 적어도 하나를 제어할 수 있다. The processing unit generates second image information based on the second image signal, and applies a plurality of pixels included in the second image information to a first pixel group including pixels corresponding to a light emitting source and the light emitting source. classify into a second pixel group including non-corresponding pixels, calculate a noise level due to external light based on a pixel value of a second pixel group of the second image information, and calculate a noise level from the light source and At least one of the light receiving units may be controlled.
상기 처리부는, 상기 노이즈 레벨에 따라 상기 수광부의 노출시간(exposure time)을 변경하거나, 상기 수광부에 포함된 센서의 픽셀 소자의 이득값(gain)을 변경할 수 있다. The processing unit may change an exposure time of the light receiving unit or a gain of a pixel element of a sensor included in the light receiving unit according to the noise level.
상기 처리부는, 상기 노이즈 레벨에 따라 상기 광원이 생성하는 빛의 파워를 변경할 수 있다. The processing unit may change the power of the light generated by the light source according to the noise level.
상기 처리부는, 상기 노이즈 레벨에 따라 상기 기 설정된 기준값을 변경할 수 있다. The processor may change the preset reference value according to the noise level.
상기 광원은, 각각의 깊이 영상 프레임(frame) 생성 전 상기 제1 광을 출력할 수 있다. The light source may output the first light before each depth image frame is generated.
실시 예에 따르면, 추가적인 장치 없이 발광부의 이상 여부를 검출할 수 있으므로, 카메라 모듈의 크기를 감소시킬 수 있고 제조 비용을 절감할 수 있는 장점이 있다. According to an embodiment, since abnormality of the light emitting unit can be detected without an additional device, the size of the camera module can be reduced and manufacturing cost can be reduced.
실시 예에 따르면, 정확한 주변광의 감지가 가능하고, 주변광에 적응적으로 카메라 장치의 제어파라미터 등을 제어함으로써 촬영의 정밀도를 향상시킬 수 있다. According to an embodiment, it is possible to accurately detect ambient light, and by controlling control parameters of the camera device adaptively to the ambient light, it is possible to improve the accuracy of photographing.
실시 예에 따르면, 주변광에 따라 출력되는 광의 파워를 제어할 수 있으므로, 전력 소비량을 절감할 수 있는 장점이 있다. According to an embodiment, since the power of output light can be controlled according to ambient light, there is an advantage in that power consumption can be reduced.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.Various and advantageous advantages and effects of the present invention are not limited to the above, and will be more easily understood in the course of describing specific embodiments of the present invention.
도 1은 실시예에 따른 카메라 모듈의 사시도이다.
도 2는 도 1에서 AA’로 절단된 단면도이다.
도 3은 실시예에 따른 카메라 모듈의 분해 사시도이다.
도 4는 실시예에 따른 발광부의 하우징을 도시한 도면이다.
도 5는 실시예에 따른 발광부의 제1 광학부 및 제1 렌즈 배럴을 도시한 도면이다.
도 6은 실시예에 따른 발광부의 구동 마그넷부 및 구동 코일부을 도시한 도면이다.
도 7은 실시예에 따른 발광부의 탄성부의 결합을 나타낸 도면이다.
도 8은 실시예에 따른 발광부의 제1 탄성부재를 도시한 도면이다.
도 9는 실시예에 따른 발광부의 제2 탄성부재를 도시한 도면이다.
도 10은 실시예에 따른 발광부의 측면 기판의 일측을 도시한 도면이다.
도 11은 실시예에 따른 발광부의 측면 기판의 타측을 도시한 도면이다.
도 12는 실시예에 따른 카메라 모듈의 베이스를 도시한 도면이다.
도 13은 실시예에 따른 수광부의 제2 광학부 및 제2 렌즈 배럴을 도시한 도면이다.
도 14는 실시예에 따른 카메라 모듈의 커버를 도시한 도면이다.
도 15는 본 발명의 실시예에 따른 카메라 장치의 구성을 나타낸 도면이다.
도 16은 본 발명의 실시예에 따른 제1 광을 설명하기 위한 도면이다.
도 17은 본 발명의 실시예에 따른 제1 영상 정보의 제1 픽셀 그룹과 제2 픽셀 그룹을 설명하기 위한 도면이다.
도 18a 및 도 18b는 일 실시예에 따른 제2 픽셀 그룹과 기준값의 비교 과정을 설명하기 위한 도면이다.
도 19a 및 도 19b는 다른 실시예에 따른 제2 픽셀 그룹과 기준값의 비교 과정을 설명하기 위한 도면이다.
도 20은 본 발명의 실시예에 따른 제1 광을 출력 시점을 설명하기 위한 도면이다.
도 21은 본 발명의 실시예에 따른 제2 광의 수광 과정을 설명하기 위한 도면이다.
도 22는 노이즈 레벨에 따른 제어 과정을 설명하기 위한 도면이다. 1 is a perspective view of a camera module according to an embodiment.
FIG. 2 is a cross-sectional view taken along line AA′ in FIG. 1 .
3 is an exploded perspective view of a camera module according to an embodiment.
4 is a view illustrating a housing of a light emitting unit according to an embodiment.
5 is a view illustrating a first optical unit and a first lens barrel of a light emitting unit according to an embodiment.
6 is a view illustrating a driving magnet unit and a driving coil unit of the light emitting unit according to the embodiment.
7 is a view showing coupling of the elastic part of the light emitting part according to the embodiment.
8 is a view illustrating a first elastic member of a light emitting unit according to an embodiment.
9 is a view showing a second elastic member of the light emitting part according to the embodiment.
10 is a view illustrating one side of a side substrate of a light emitting unit according to an embodiment.
11 is a view showing the other side of the side substrate of the light emitting unit according to the embodiment.
12 is a view illustrating a base of a camera module according to an embodiment.
13 is a view illustrating a second optical unit and a second lens barrel of a light receiving unit according to an embodiment.
14 is a view illustrating a cover of a camera module according to an embodiment.
15 is a diagram illustrating a configuration of a camera device according to an embodiment of the present invention.
16 is a view for explaining a first light according to an embodiment of the present invention.
17 is a diagram for describing a first pixel group and a second pixel group of first image information according to an embodiment of the present invention.
18A and 18B are diagrams for explaining a process of comparing a second pixel group and a reference value according to an exemplary embodiment.
19A and 19B are diagrams for explaining a process of comparing a second pixel group and a reference value according to another exemplary embodiment.
20 is a view for explaining an output timing of the first light according to an embodiment of the present invention.
21 is a view for explaining a light receiving process of a second light according to an embodiment of the present invention.
22 is a diagram for explaining a control process according to a noise level.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical spirit of the present invention is not limited to some embodiments described, but may be implemented in various different forms, and within the scope of the technical spirit of the present invention, one or more of the components may be selected among the embodiments. It can be combined and substituted for use.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention may be generally understood by those of ordinary skill in the art to which the present invention pertains, unless specifically defined and described explicitly. It may be interpreted as a meaning, and generally used terms such as terms defined in advance may be interpreted in consideration of the contextual meaning of the related art.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.In addition, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In the present specification, the singular form may also include the plural form unless otherwise specified in the phrase, and when it is described as "at least one (or one or more) of A and (and) B, C", it is combined with A, B, C It may include one or more of all possible combinations.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.In addition, in describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and are not limited to the essence, order, or order of the component by the term.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.And, when it is described that a component is 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to the other component, but also with the component It may also include a case of 'connected', 'coupled' or 'connected' due to another element between the other elements.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다. In addition, when it is described as being formed or disposed on "above (above) or under (below)" of each component, the top (above) or bottom (below) is one as well as when two components are in direct contact with each other. Also includes a case in which another component as described above is formed or disposed between two components. In addition, when expressed as "upper (upper) or lower (lower)", the meaning of not only an upper direction but also a lower direction based on one component may be included.
이하에서는 본 실시예에 따른 광학기기를 설명한다.Hereinafter, an optical device according to the present embodiment will be described.
광학기기는 핸드폰, 휴대폰, 스마트폰(smart phone), 휴대용 스마트 기기, 디지털 카메라, 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 및 네비게이션 중 어느 하나를 포함할 수 있다. 다만, 광학기기의 종류가 이에 제한되는 것은 아니며 영상 또는 사진을 촬영하기 위한 어떠한 장치도 광학기기에 포함될 수 있다.The optical device is any one of a mobile phone, a mobile phone, a smart phone, a portable smart device, a digital camera, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), and a navigation device may include. However, the type of optical device is not limited thereto, and any device for taking an image or photo may be included in the optical device.
광학기기는 본체를 포함할 수 있다. 본체는 바(bar) 형태일 수 있다. 또는, 본체는 2개 이상의 서브 몸체(sub-body)들이 상대 이동 가능하게 결합하는 슬라이드 타입, 폴더 타입, 스윙(swing) 타입, 스위블(swirl) 타입 등 다양한 구조일 수 있다. 본체는 외관을 이루는 케이스(케이싱, 하우징, 커버)를 포함할 수 있다. 예컨대, 본체는 프론트 케이스와 리어 케이스를 포함할 수 있다. 프론트 케이스와 리어 케이스의 사이에 형성된 공간에는 광학기기의 각종 전자 부품이 내장될 수 있다. The optical device may include a body. The body may be in the form of a bar. Alternatively, the main body may have various structures such as a slide type, a folder type, a swing type, a swivel type, in which two or more sub-bodies are coupled to be relatively movable. The body may include a case (casing, housing, cover) forming an exterior. For example, the body may include a front case and a rear case. Various electronic components of an optical device may be embedded in a space formed between the front case and the rear case.
광학기기는 디스플레이를 포함할 수 있다. 디스플레이는 광학기기의 본체의 일면에 배치될 수 있다. 디스플레이는 영상을 출력할 수 있다. 디스플레이는 카메라에서 촬영된 영상을 출력할 수 있다.The optics may include a display. The display may be disposed on one surface of the main body of the optical device. The display may output an image. The display may output an image captured by the camera.
광학기기는 카메라를 포함할 수 있다. 카메라는 ToF(Time of Flight) 카메라 장치를 포함할 수 있다. ToF 카메라 장치는 광학기기의 본체의 전면에 배치될 수 있다. 이 경우, ToF 카메라 장치는 광학기기의 보안인증을 위한 사용자의 얼굴인식, 홍채인식 등 다양한 방식의 생체인식에 사용될 수 있다. The optics may include a camera. The camera may include a Time of Flight (ToF) camera device. The ToF camera device may be disposed on the front side of the main body of the optics. In this case, the ToF camera device may be used for various types of biometric recognition such as user's face recognition and iris recognition for security authentication of optical devices.
이하에서는 본 실시예에 따른 ToF 카메라 장치의 구성을 도면을 참조하여 설명한다.Hereinafter, the configuration of the ToF camera device according to the present embodiment will be described with reference to the drawings.
도 1은 실시예에 따른 카메라 모듈의 사시도이고, 도 2는 도 1에서 AA’로 절단된 단면도이고, 도 3은 실시예에 따른 카메라 모듈의 분해 사시도이다.1 is a perspective view of a camera module according to an embodiment, FIG. 2 is a cross-sectional view taken along line AA′ in FIG. 1 , and FIG. 3 is an exploded perspective view of the camera module according to the embodiment.
도 1 내지 도 3을 참조하면, 실시예에 따른 카메라 모듈(10)은 발광부(1), 수광부(2), 커넥트부(3), 메인 기판(4), 연장 기판(5), 연결 기판(6) 및 커넥터(7)를 포함할 수 있다. 그리고 실시예에 따른 카메라 모듈(10)은 제어부(CT)를 포함할 수 있다. 제어부(CT)는 발광부(1), 수광부(2), 커넥트부(3), 메인 기판(4) 중 어느 하나에 위치할 수 있다.1 to 3 , the
먼저, 발광부(1)는 발광모듈, 발광유닛, 발광어셈블리 또는 발광장치일 수 있다. 발광부(1)는 광신호를 생성한 후 객체에 조사할 수 있다. 이때, 발광부(1)는 펄스파(pulse wave)의 형태나 지속파(continuous wave)의 형태로 광신호를 생성하여 출력할 수 있다. 지속파는 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다. First, the
그리고 광신호를 펄스파나 지속파 형태로 생성함으로써, 예컨대, ToF 카메라 장치는 발광부(1)로부터 출력된 광신호와 광신호가 객체(O)로부터 반사된 후 ToF 카메라 장치의 수광부(2)로 입력된 입력광 사이의 위상 차를 검출할 수 있다. 본 명세서에서, 출력광은 발광부(1)로부터 출력되어 객체(O)에 입사되는 광신호를 의미하고, 입력광 또는 반사광은 발광부(1)로부터 출력되어 객체(O)에 도달하여 객체(O)로부터 반사된 후 ToF 카메라 장치로 입력되는 광신호를 의미할 수 있다. 또한, 객체(O)의 입장에서 출력광은 입사광이 될 수 있고, 입력광은 반사광이 될 수 있다.And by generating the optical signal in the form of a pulse wave or a continuous wave, for example, the ToF camera device is inputted to the
발광부(1)는 생성된 광신호를 소정의 노출주기(integration time) 동안 객체(O)에 조사한다. 여기서, 노출주기란 1개의 프레임 주기를 의미한다. 복수의 프레임을 생성하는 경우, 설정된 노출주기가 반복된다. 예를 들어, ToF 카메라 장치가 20 FPS로 객체를 촬영하는 경우, 노출주기는 1/20[sec]가 된다. 그리고 100개의 프레임을 생성하는 경우, 노출주기는 100번 반복될 수 있다. The
또한, 발광부(1)는 서로 다른 주파수를 가지는 복수의 광신호를 생성할 수 있다. 발광부(1)는 서로 다른 주파수를 가지는 복수의 광신호를 순차적으로 반복하여 생성할 수 있다. 또는, 발광부(1)는 서로 다른 주파수를 가지는 복수의 광신호를 동시에 생성할 수도 있다.Also, the
발광부(1)는 광원(LS)을 포함할 수 있다. 광원(LS)은 빛을 생성할 수 있다. 광원(LS)은 빛을 출력할 수 있다. 광원(LS)은 빛을 조사할 수 있다. 광원(LS)이 생성하는 빛은 파장이 770㎚ 내지 3000㎚인 적외선 일 수 있다. 또는 광원(LS)이 생성하는 빛은 파장이 380㎚ 내지 770㎚인 가시광선 일 수 있다. 광원(LS)은 광을 생성하여 출력하는 다양한 소자를 모두 포함할 수 있다. 예컨대, 광원(LS)은 발광 다이오드(Light Emitting Diode, LED) 수직 공진 표면 발광 레이저 (VCSEL, Vertical Cavity Surface Emitting Laser) 을 포함할 수 있다. The
또한, 광원(LS)은 일정한 패턴에 따라 배열된 형태의 복수의 발광 다이오드를 포함할 수 있다. 뿐만 아니라, 광원(LS)은 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수 있다. Also, the light source LS may include a plurality of light emitting diodes arranged according to a predetermined pattern. In addition, the light source LS may include an organic light emitting diode (OLED) or a laser diode (LD).
발광부(1)는 빛을 변조하는 광변조부를 포함할 수 있다. 광원(LS)은 일정 시간 간격으로 점멸(on/off)을 반복하여 펄스파 형태나 지속파 형태의 광신호를 생성할 수 있다. 일정 시간 간격은 광신호의 주파수일 수 있다. 광원(LS)의 점멸은 광변조부에 의해 제어될 수 있다. 광변조부는 광원(LS)의 점멸을 제어하여 광원(LS)이 지속파나 펄스파 형태의 광신호를 생성하도록 제어할 수 있다. 광변조부는 주파수 변조(frequency modulation)나 펄스 변조(pulse modulation) 등을 통해 광원(LS)이 지속파나 펄스파 형태의 광신호를 생성하도록 제어할 수 있다. 광변조부는 제어부 내에 위치할 수 있다. 이에, 후술하는 바와 같이 제어부는 광변조부를 제어하여 광원에 의한 광신호의 출력을 차단(off) 또는 제공(on)할 수 있음을 이해해야 한다.The
발광부(1)는 디퓨져(미도시됨)를 포함할 수 있다. 디퓨져(미도시됨)는 디퓨져 렌즈일 수 있다. 디퓨져(미도시됨)는 광원(LS)의 전방에 배치될 수 있다. 광원(LS)으로부터 출사된 광은 디퓨져(미도시됨)를 통과하여 객체(O)에 입사될 수 있다. 디퓨져(미도시됨)는 광원(LS)으로부터 출사되는 광의 경로를 변경할 수 있다. 디퓨져(미도시됨)는 광원(LS)으로부터 출사되는 광을 확산할 수 있다. 디퓨져(미도시됨)는 후술하는 제1 광학부 내에 위치할 수도 있다.The
구체적으로, 발광부(1)는 상술한 광원(LS), 하우징(110), 제1 광학부(120), 제1 렌즈 배럴(130), 구동 마그넷부(140)와 구동 코일부(150)를 포함하는 구동부, 탄성부(160), 측면 기판(170), 위치 센서(180)를 포함할 수 있다. Specifically, the
먼저, 하우징(110)은 후술하는 커버(400) 내측에 위치할 수 있다. 하우징(110)은 후술하는 제1 렌즈 배럴(130), 측면 기판(170), 구동 코일부(150), 탄성부(160)와 결합할 수 있다. First, the
하우징(110)은 내부에 개구된 배럴 수용부를 포함할 수 있다. 배럴 수용부에는 상술한 제1 렌즈 배럴(130) 및 구동 코일부(150)가 위칙할 수 있다.The
제1 광학부(120)는 하우징(110) 내에 위치할 수 있다. 제1 광학부(120)는 후술하는 제1 렌즈 배럴(130)에 의해 홀딩(holding)되고, 제1 렌즈 배럴(130)을 통해 하우징(110)과 결합할 수 있다.The first
제1 광학부(120)는 복수 개의 광학 요소 또는 렌즈로 이루어질 수 있다. 예컨대, 제1 광학부(120)는 복수 개의 렌즈로 이루어질 수 있다.The first
또한, 제1 광학부(120)는 콜리메이터 렌즈(collimator lens)를 포함할 수 있다. 그리고 제1 광학부(120)는 광원(LS)으로부터 출력된 광신호를 기 설정된 복제 패턴에 따라 복제할 수 있다. 이에, 제1 광학부(120)는 회절광학소자(diffractive optical element, DOE)나 디퓨져 렌즈(diffuser lens)를 포함할 수 있다. 예컨대, 제1 광학부(120)는 마이크로 스케일(micro scale)이나 나노 스케일(nano scale)의 구조를 갖는 광학부재를 포함할 수 있다. Also, the first
광원(LS)으로부터 객체를 향해 출사하는 광신호(출력광)가 제1 렌즈 배럴(130)을 통과할 수 있다. 제1 렌즈 배럴(130)의 광축과 광원(LS)의 광축은 얼라인(align)될 수 있다. 또한, 제1 렌즈 배럴(130)은 하우징(110)과 결합될 수 있다. 그리고 제1 렌즈 배럴(130)은 하우징(110)에 고정될 수 있다. 제1 렌즈 배럴(130)은 복수의 광학 요소로 이루어진 제1 광학부(120)를 홀딩(holding)할 수 있다.An optical signal (output light) emitted from the light source LS toward the object may pass through the
제1 렌즈 배럴(130)은 제1 광학부(120)가 안착하는 렌즈 수용부(131)를 포함할 수 있다. 제1 렌즈 배럴(130)은 후술하는 바와 같이 보이스 코일 모터 등에 의하여 상하 등으로 이동될 수 있다. 이에, 제1 렌즈 배럴(130)은 구동 마그넷부가 안착하는 마그넷 안착홈(132)을 포함할 수 있다. The
또한, 렌즈 수용부(131)의 측면에는 제1 광학부(120)와의 결합을 위해 나사산 구조가 형성될 수 있다. 이에, 제1 광학부(120)는 후술하는 구동부에 의해 제1 렌즈 배럴(130)과 함께 하우징(110) 내에서 상하 이동할 수 있다. In addition, a screw thread structure may be formed on a side surface of the
또한, 측면 기판(170)은 하우징(110)과 결합할 수 있다. 측면 기판(170)은 하우징(110)의 측면에 위치하는 기판홈(112)에 위치할 수 있다. 또한, 측면 기판(170)은 메인 기판(4)과 전기적으로 연결될 수 있다.In addition, the
또한, 구동부는 구동 마그넷부(140)와 구동 코일부(150)를 포함할 수 있다. Also, the driving unit may include a
구동 마그넷부(140)는 복수 개의 마그넷을 포함할 수 있다. 복수 개의 마그넷은 제1 렌즈 배럴(130)의 측면에 위치한 마그넷 안착홈(132)에 위치할 수 있다The driving
구동 마그넷부(140)는 후술하는 구동 코일부(150)와 전자기적 상호작용에 의해 제1 렌즈 배럴(130) 및 제1 광학부(120)를 하우징(110)에 대해 상하 이동할 수 있다. 이에 따라, 하부의 광원(LS)으로부터 제1 광학부(120) 및 제1 렌즈 배럴(130)까지의 이격 거리가 증가 또는 감소될 수 있다. 그리고 상술한 이격 거리에 따라 출력광이 객체에 대해 면광원 또는 점광원의 형태를 가질 수 있다. 여기서, 점광원은 객체에 방출되는 출력광이 복수의 광스팟이 소정의 패턴으로 배치된 형태를 의미할 수 있다. The driving
구동 코일부(150)는 복수 개의 코일을 포함하며, 하우징(110)의 측면에 위치할 수 있다. 구동 코일부(150)는 구동 마그넷부(140)와 대향하여 위치할 수 있다. 이에, 구동 코일부(150)로 전류가 주입되면 구동 코일부(150)와 구동 마그넷부(140) 간의 전자기적 상호 작용(예컨대, 로렌츠의 힘)으로 제1 렌즈 배럴(130)이 이동할 수 있다. The driving
구동 코일부(150)는 하우징(110)의 측면에 형성된 각 코일 안착부(114)에 위치할 수 있다. 구동 코일부(150)는 측면 기판(170)과 전기적으로 연결될 수 있다. 예컨대, 구동 코일부(150)는 측면 기판(170)과 와이어 등을 통해 전기적으로 연결될 수 있다. 그리고 측면 기판(170)은 상술한 바와 같이 하우징(110)과 결합하므로, 구동 코일부(150)도 하우징(110)의 측면에 형성된 코일 안착부(114) 내에 안착하여 하우징과 결합할 수 있다. 이에 대한 자세한 설명은 후술한다. The driving
탄성부(160)는 하우징(110) 상에 배치될 수 있다. 탄성부(160)는 제1 렌즈 배럴(130) 및 하우징(110)과 결합할 수 있다. 하우징(110)은 메인 기판(4) 또는 후술하는 베이스(200)와 결합되어 고정될 수 있다. 이와 달리, 제1 렌즈 배럴(130)은 상술한 로렌츠의 힘에 의해 하우징(110)에 대해 상하로 이동할 수 있다. 탄성부(160)는 이러한 제1 렌즈 배럴(130) 또는 제1 광학부(120)의 상하 이동에 대해 예압을 제공할 수 있다. 이에 따라, 구동부에 의한 로렌츠의 힘이 발생하지 않는 경우 제1 렌즈 배럴(130)은 하우징(110)에 대해 소정의 위치를 유지할 수 있다. 또한, 구동부에 의한 로렌츠의 힘이 발생하는 경우에도 제1 렌즈 배럴(130)과 하우징(110) 간의 위치 관계를 일정 범위로 유지하므로 카메라 모듈의 신뢰성이 개선될 수 있다. The
위치 센서(180)는 측면 기판(170)과 전기적으로 연결될 수 있다. 또한, 위치 센서(180)는 측면 기판(170) 상에 위치할 수 있다. 그리고 위치 센서(180)는 상술한 구동 마그넷부(140)와 소정 거리 이격 배치될 수 있다.The
위치 센서(180)는 홀 센서 또는 홀 IC를 포함할 수 있다. 위치 센서(180)는 구동 마그넷부(140)의 자기력을 감지할 수 있다. The
실시예에 따른 위치 센서(180)는 구동 마그넷부로부터의 자기장 세기를 감지하여 제1 렌즈 배럴(130) 또는 제1 광학부(120)의 광원(LS)에 대한 위치 정보를 출력할 수 있다. 이에 따라, 제어부는 위치 센서(180)의 위치 정보를 바탕으로 제1 광학부(120) 또는 제1 렌즈 배럴(130)의 결함을 판단하고 판단한 결과에 대응하여 광원(LS)의 출력을 제어(on/off)할 수 있다.The
실시예로, 위치 센서(180)는 복수의 위치 센서를 포함할 수 있다. 위치 센서(180)는 2개의 센서를 포함할 수 있다. 위치 센서(180)는 광축 방향으로의 제1 렌즈 배럴(130) 및 제1 광학부(120)의 이동을 감지할 수 있다. 본 명세서에서, Z축 방향은 제3 방향으로 광축 방향 또는 수직 방향이다. 그리고 X축 방향은 Z축 방향에 수직한 방향이며 실시예에서 발광부에서 수광부를 향한 방향으로 제1 방향이다. 그리고 Y축 방향은 X축 방향과 Z축 방향에 수직한 방향이며 제2 방향이다. 이를 기준으로 이하 설명한다.In an embodiment, the
수광부(2)는 수광모듈, 수광유닛, 수광어셈블리 또는 수광장치일 수 있으며, 카메라 모듈의 일 구성요소일 수 있다. 이러한 수광부(2)는 발광부(1)로부터 출사되어 객체로부터 반사된 광(반사광)을 수신하고, 수신된 광을 전기 신호로 변환할 수 있다. The
수광부(2)는 발광부(1)에서 출력된 광신호에 대응하는 입력광을 생성할 수 있다. 수광부(2)는 발광부(1)와 나란히 배치될 수 있다. 수광부(2)는 발광부(1) 옆에 배치될 수 있다. 수광부(2)는 발광부(1)와 같은 방향으로 배치될 수 있다. 이러한 구성에 의하여, 수광부(2)에서는 입력광의 수신 효율이 개선될 수 있다.The
수광부(2)는 제2 렌즈 배럴(320), 제2 광학부(310) 및 이미지 센서(IS)를 포함할 수 있다.The
제2 렌즈 배럴(320)은 후술하는 베이스(200)와 결합할 수 있다. 제2 렌즈 배럴(320)은 후술하는 베이스와 나사 결합 등으로 결합할 수 있다. 이에, 제2 렌즈 배럴(320)은 측면에 위치한 나사산을 포함할 수 있다. 제2 렌즈 배럴(320)은 제2 광학부(310)와 일체로 이루어질 수도 있다. 다만, 이에 한정되는 것은 아니다.The
제2 광학부(310)는 제2 렌즈 배럴(320)과 결합할 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)을 통해 베이스(200)와 결합될 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)과 다양한 결합 방식을 통해 결합될 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)과 상술한 바와 같이 나사 결합을 통해 이루어질 수 있다.The second
제2 광학부(310)는 복수 개의 렌즈를 포함할 수 있다. 그리고 제2 광학부(310)는 하부의 이미지 센서(IS)와 정렬(align)될 수 있다. 이에, 제2 광학부(310)를 통과한 반사광이 이미지 센서(IS)로 수광될 수 있다.The second
이미지 센서(IS)는 반사광을 감지할 수 있다. 그리고 이미지 센서(IS)는 반사광을 감지하여 전기적 신호로 출력할 수 있다. 실시예로, 이미지 센서(IS)는 광원(LS)에서 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 예컨대, 이미지 센서(IS)는 적외선을 감지할 수 있다. 또는, 이미지 센서(IS)는 가시광선을 감지할 수 있다. 이러한 이미지 센서(IS)는 광을 센싱하는 다양한 이미지 센서를 포함할 수 있다.The image sensor IS may detect reflected light. In addition, the image sensor IS may detect the reflected light and output it as an electrical signal. In an embodiment, the image sensor IS may detect light having a wavelength corresponding to the wavelength of light output from the light source LS. For example, the image sensor IS may detect infrared rays. Alternatively, the image sensor IS may detect visible light. The image sensor IS may include various image sensors that sense light.
실시예로, 이미지 센서(IS)는 제2 렌즈 배럴(320) 및 제2 광학부(310)를 통과한 광을 수신하여 광에 대응하는 전기 신호로 변환하는 픽셀 어레이, 픽셀 어레이에 포함된 복수의 픽셀을 구동하는 구동 회로 및 각 픽셀의 아날로그 픽셀 신호를 리드(read)하는 리드아웃회로를 포함할 수 있다. 리드아웃회로는 아날로그 픽셀 신호를 기준 신호와 비교하여 아날로그-디지털 변환을 통해 디지털 픽셀 신호(또는 영상 신호)를 생성할 수 있다. 여기서, 픽셀 어레이에 포함된 각 픽셀의 디지털 픽셀 신호는 영상 신호를 구성하며, 영상 신호는 프레임 단위로 전송됨에 따라 이미지 프레임으로 정의될 수 있다. 즉, 이미지 센서는 복수의 이미지 프레임을 출력할 수 있다.In an embodiment, the image sensor IS is a pixel array that receives light passing through the
나아가, 수광부(2)는 이미지 합성부를 더 포함할 수 있다. 이미지 합성부는 이미지 센서(IS)로부터 영상 신호를 수신하고, 영상 신호를 처리(예컨대, 보간, 프레임 합성 등)하는 이미지 프로세서를 포함할 수 있다. 특히, 이미지 합성부는 복수의 프레임의 영상 신호(저해상도)를 이용하여 하나의 프레임의 영상 신호(고해상도)로 합성할 수 있다. 즉, 이미지 합성부는 이미지 센서(IS)로부터 받은 영상 신호에 포함된 복수의 이미지 프레임을 합성하고, 합성된 결과를 합성 이미지로서 생성할 수 있다. 이미지 합성부에서 생성된 합성 이미지는 이미지 센서(IS)로부터 출력되는 복수의 이미지 프레임보다 높은 해상도를 가질 수 있다. 즉, 이미지 합성부는 슈퍼레졸루션(Super Resolution, SR) 기법을 통해 고해상도의 이미지를 생성할 수 있다. 복수의 이미지 프레임은 필터(F, F’)의 이동에 의해 서로 다른 광 경로로 변경되어 생성된 이미지 프레임을 포함할 수 있다. 이러한 이미지 합성부는 수광부(2) 내에 또는 외부에 위치할 수 있다.Furthermore, the
필터(F, F’)는 베이스(200)에 결합될 수 있다. 필터(F, F’)는 제1 렌즈 배럴(130)과 광원(LS) 사이에 또는 제2 렌즈 배럴(320)과 이미지 센서(IS) 사이에 배치될 수 있다. 이에, 필터(F, F’)는 객체와 이미지 센서(IS) 사이의 광경로 또는 객체와 광원(LS) 사이의 광경로 상에 배치될 수 있다. 필터(F, F’)는 소정 파장 범위를 갖는 광을 필터링할 수 있다. The filters F and F' may be coupled to the
필터(F, F’)는 특정 파장의 광을 통과시킬 수 있다. 즉, 필터(F, F’)는 특정 파장 외의 광을 반사 또는 흡수하여 차단할 수 있다. 예컨대, 필터(F, F’)는 적외선을 통과시키고 적외선 이외의 파장의 광을 차단시킬 수 있다. 또는, 필터(F, F’)는 가시광선을 통과시키고 가시광선 이외의 파장의 광을 차단시킬 수 있다. 필터(F, F’)는 적외선 통과 필터(infrared rays band pass filter)일 수 있다. 이로써, 필터(F, F’)는 적외선의 광만을 통과할 수 있다. 또는 광학 부재는 렌즈 모듈과 분리된 별도의 초점고정렌즈 또는 초점가변렌즈(ex: 액체렌즈) 일 수 있다.The filters F and F' can pass light of a specific wavelength. That is, the filters F and F' may block by reflecting or absorbing light other than a specific wavelength. For example, the filters F and F' may pass infrared rays and block light of wavelengths other than infrared rays. Alternatively, the filters F and F' may pass visible light and block light of a wavelength other than visible light. The filters F and F' may be infrared rays band pass filters. Accordingly, the filters F and F' can pass only infrared light. Alternatively, the optical member may be a separate focus fixed lens or a variable focus lens (ex: liquid lens) separated from the lens module.
또한, 필터(F, F’)는 이동할 수 있다. 실시예로, 필터(F, F’)는 틸팅(tilting)될 수 있다. 필터(F, F’)가 틸팅되면, 광경로가 조절될 수 있다. 필터(F, F’)가 틸팅되면 이미지 센서(IS)로 입사되는 광의 경로가 변경될 수 있다. 예컨대, 수광부(2)에서 필터(F’)는 입사되는 광의 FOV(Field of View) 각도 또는 FOV의 방향 등을 변경시킬 수 있다. 또한, 실시예에서 필터(F, F’)는 경사지게 틸팅 됨에 따라 빛이 들어오는 경로를 변경하여 고해상도 ToF(Time of Flight)가 가능하게 할 수 있다. Also, the filters F and F' are movable. In an embodiment, the filters F and F' may be tilted. When the filters F and F' are tilted, the optical path can be adjusted. When the filters F and F' are tilted, the path of the light incident to the image sensor IS may be changed. For example, in the
커버(400)는 브라켓일 수 있다. 커버(400)는 '커버 캔'을 포함할 수 있다. 커버(400)는 발광부(1) 및 수광부(2)를 감싸도록 배치될 수 있다. 커버(400)는 하우징(110) 및 베이스(200)에 결합될 수 있다. 커버(400)는 발광부(1) 및 수광부(2)를 수용할 수 있다. 이에, 커버(400)는 카메라 모듈의 최외측에 위치할 수 있다. The
또한, 커버(400)는 비자성체일 수 있다. 또한, 커버(400)는 금속으로 형성될 수 있다. 또한, 커버(400)는 금속의 판재로 형성될 수 있다. In addition, the
커버(400)는 메인 기판(4)의 그라운드부와 연결될 수 있다. 이를 통해, 커버(400)는 그라운드될 수 있다. 그리고 커버(400)는 전자 방해 잡음(EMI, electromagnetic interference)을 차단할 수 있다. 이때, 커버(400)는 'EMI 쉴드캔'으로 호칭될 수 있다. 커버(400)는 최종적으로 조립되는 부품으로 제품을 외부의 충격에서부터 보호할 수 있다. 커버(400)는 두께가 얇으면서 강도가 높은 재질로 형성될 수 있다. The
또한, 실시예에 따른 카메라 모듈(10)에서 메인 기판(4)(PCB, Printed Circuit Board) 상에는 발광부(1)와 수광부(2)가 배치될 수 있다. 메인 기판(4)은 발광부(1) 및 수광부(2)와 전기적으로 연결될 수 있다.In addition, in the
또한, 카메라 모듈(10)에서 커넥트부(3)는 메인 기판(4)과 전기적으로 연결될 수 있다. 커넥트부(3)는 광학기기의 구성과 연결될 수 있다. 커넥트부(3)는 광학기기의 구성과 연결되는 커넥터(7)를 포함할 수 있다. 커넥트부(3)에는 커넥터(7)가 배치되고 연결 기판(6)과 연결되는 연장 기판(5)을 포함할 수 있다. 연장 기판(5)은 PCB일 수 있으나, 이에 한정되는 것은 아니다.Also, in the
또한, 카메라 모듈에서 연결 기판(6)은 메인 기판(4)과 커넥트부(3)의 연장 기판(5)을 연결할 수 있다. 연결 기판(6)은 연성을 가질 수 있다. 연결 기판(6)은 연성의 인쇄회로기판(FPCB, Flexible PCB)일 수 있다.In addition, in the camera module, the connection board 6 may connect the main board 4 and the extension board 5 of the
또한, 메인 기판(4), 연결 기판(6) 및 연장 기판(5)은 일체로 또는 분리되어 형성될 수 있다. In addition, the main substrate 4, the connecting substrate 6, and the extension substrate 5 may be formed integrally or separately.
카메라 모듈은 보강판(8)을 포함할 수 있다. 보강판(8)은 스티프너(stiffener)를 포함할 수 있다. 보강판(8)은 메인 기판(4)의 하면에 배치될 수 있다. 보강판(8)은 서스(SUS)로 형성될 수 있다. The camera module may include a reinforcing
나아가, 수광부(2)는 렌즈 구동 장치를 포함할 수 있다. 즉, 수광부(2)는 보이스 코일 모터(VCM, Voice Coil Motor)를 포함할 수 있다. 또한, 수광부(2)는 렌즈 구동 모터를 포함할 수 있다. 또한, 수광부(2)는 렌즈 구동 액츄에이터를 포함할 수 있다. 이러한 구성에 의하여, 상술한 바와 같이 실시예에 따른 수광부(2)는 필터(F’)를 틸트(tilt)시킬 수 있다. 그리고 필터(F’)가 틸트됨에 따라, 필터(F, F’)를 통과한 입력광의 광경로가 소정의 규칙에 따라 반복하여 이동할 수 있다. 이로써, 수광부(2)는 필터(F’)의 틸트에 따라 이미지 센서에서 변환한 복수 개의 이미지 정보를 이용하여 고해상도의 이미지 정보를 출력하고, 출력된 이미지 정보는 외부의 광학기기로 제공될 수 있다.Furthermore, the
도 4는 실시예에 따른 발광부의 하우징을 도시한 도면이고, 도 5는 실시예에 따른 발광부의 제1 광학부 및 제1 렌즈 배럴을 도시한 도면이고, 도 6은 실시예에 따른 발광부의 구동 마그넷부 및 구동 코일부을 도시한 도면이고, 도 7은 실시예에 따른 발광부의 탄성부의 결합을 나타낸 도면이고, 도 8은 실시예에 따른 발광부의 제1 탄성부재를 도시한 도면이고, 도 9는 실시예에 따른 발광부의 제2 탄성부재를 도시한 도면이고, 도 10은 실시예에 따른 발광부의 측면 기판의 일측을 도시한 도면이고, 도 11은 실시예에 따른 발광부의 측면 기판의 타측을 도시한 도면이고, 도 12는 실시예에 따른 카메라 모듈의 베이스를 도시한 도면이고, 도 13은 실시예에 따른 수광부의 제2 광학부 및 제2 렌즈 배럴을 도시한 도면이고, 도 14는 실시예에 따른 카메라 모듈의 커버를 도시한 도면이다.4 is a view showing a housing of a light emitting unit according to an embodiment, FIG. 5 is a view showing a first optical unit and a first lens barrel of a light emitting unit according to an embodiment, and FIG. 6 is driving of the light emitting unit according to the embodiment It is a view showing a magnet part and a driving coil part, FIG. 7 is a view showing coupling of the elastic part of the light emitting part according to the embodiment, FIG. 8 is a view showing the first elastic member of the light emitting part according to the embodiment, and FIG. 9 is It is a view showing a second elastic member of the light emitting part according to the embodiment, Figure 10 is a view showing one side of the side substrate of the light emitting part according to the embodiment, Figure 11 shows the other side of the side substrate of the light emitting part according to the embodiment One view, Fig. 12 is a view showing the base of the camera module according to the embodiment, Fig. 13 is a view showing the second optical unit and the second lens barrel of the light receiving unit according to the embodiment, and Fig. 14 is the embodiment It is a view showing the cover of the camera module according to the.
도 4를 참조하면, 실시예에 따른 발광부의 하우징(110)은 하우징 홀(111), 기판홈(112), 센서홀(113) 및 코일 안착부(114)를 포함할 수 있다.Referring to FIG. 4 , the
하우징 홀(111)은 하우징(110)의 중앙에 위치할 수 있다. 하우징 홀(111)에는 제1 광학부와 제1 렌즈 배럴 그리고 구동부가 안착할 수 있다.The
기판홈(112)은 하우징(110)의 외측면에 위치할 수 있다. 하우징(110)은 평면상 사각형 형상일 수 있다. 다만, 이에 한정되는 것은 아니며 다양한 형상으로 이루어질 수 있다.The
또한, 기판홈(112)에는 측면 기판과 결합하기 위한 결합 돌기가 위치할 수 있다. 결합 돌기는 하우징(110)의 측면에서 외측을 향해 연장될 수 있다. 또한, 측면 기판에는 결합 홀이 구비되며, 결합 돌기가 결합 홀로 삽입되어 측면 기판과 하우징(110)이 서로 결합할 수 있다.In addition, a coupling protrusion for coupling with the side substrate may be positioned in the
센서홀(113)은 기판홈(112)과 제1 방향(X축 방향) 및 제2 방향(Y축 방향)으로 중첩할 수 있다. 센서홀(113)에는 위치 센서가 안착할 수 있다. 이에, 위치 센서는 측면 기판과 전기적으로 용이하게 연결될 수 있다. 또한, 위치 센서는 하우징(110)과의 결합 위치가 고정되어 구동 마그넷부의 위치를 정확하게 측정할 수 있다.The
코일 안착부(114)는 하우징(110)의 내측면에 위치할 수 있다. 예를 들어, 코일 안착부(114)는 하우징(110)의 내측면에서 내측으로 연장된 턱으로 이루어질 수 있다. 본 명세서에서, 내측은 하우징에서 제1 광학부를 향한 방향이고, 외측은 내측의 반대 방향으로 제1 광학부에서 하우징을 향한 방향일 수 있다.The
코일 안착부(114)에는 구동 코일부가 안착할 수 있다. 구동 코일부는 후술하는 바와 같이 폐루프 형태일 수 있다. 이에, 코일 안착부(114)도 구동 코일부의 형상에 대응하여 폐루프 형상일 수 있다.The driving coil unit may be seated on the
도 5를 참조하면, 발광부의 제1 광학부(120)는 제1 렌즈 배럴(130)의 렌즈 수용부(131) 내로 삽입될 수 있다. 상술한 바와 같이 제1 광학부(120)는 복수 매의 렌즈로 이루어질 수 있다. 그리고 제1 광학부(120)는 외측면에 위치한 나사산을 포함할 수 있다. 제1 렌즈 배럴(130)도 내측면에 제1 광학부(120)의 상기 나사산에 대응하는 홈을 가질 수 있다. 이에, 제1 광학부(120)와 제1 렌즈 배럴(130)은 서로 나사 결합할 수 있다.Referring to FIG. 5 , the first
또한, 제1 렌즈 배럴(130)은 상술한 렌즈 수용부(131)뿐만 아니라, 마그넷 안착홈(132)을 포함할 수 있다. 마그넷 안착홈(132)은 복수 개일 수 있다. 실시예로, 마그넷 안착홈(132)은 4개이며, 제1 렌즈 배럴(130)의 서로 마주보는 제1 외측면(132a)과 제2 외측면(132b) 그리고 서로 마주보며 제1 외측면(132a)과 제2 외측면(132b) 사이에 위치하는 제3 외측면(132c)과 제4 외측면(132d)에 위치할 수 있다.In addition, the
즉, 마그넷 안착홈(132)은 제1 외측면(132a) 내지 제4 외측면(132d) 각각에 위치하여 후술하는 제1 마그넷 내지 제4 마그넷이 제1 외측면(132a) 내지 제4 외측면(132d)의 마그넷 안착홈(132)에 안착할 수 있다. 마그넷 안착홈(132)에는 접합부재가 도포될 수 잇다. 이에, 제1 마그넷 내지 제4 마그넷과 제1 렌즈 배럴(130) 간의 결합력이 개선될 수 있다.That is, the magnet seating groove 132 is located on each of the first
도 6을 참조하면, 구동부는 구동 마그넷부(140)와 구동 코일부(150)를 포함할 수 있다. 구동 마그넷부(140)는 복수 개의 마그넷을 포함할 수 있다.Referring to FIG. 6 , the driving unit may include a
실시예로, 구동 마그넷부(140)는 제1 마그넷(141) 내지 제4 마그넷(144)을 포함할 수 있다. 제1 마그넷(141) 및 제2 마그넷(142)은 서로 마주보게 위치할 수 있다. 예컨대, 제1 마그넷(141)과 제2 마그넷(142)은 제2 방향을 기준으로 대칭으로 배치될 수 있다.In an embodiment, the driving
제3 마그넷(143)과 제4 마그넷(144)은 서로 마주보게 위치하며, 제1 마그넷(141)과 제2 마그넷(142) 사이에 위치할 수 있다. 예컨대, 제3 마그넷(143)과 제4 마그넷(144)은 제1 방향을 기준으로 대칭으로 배치될 수 있다.The
제1 마그넷(141) 내지 제4 마그넷(144)은 상술한 마그넷 안착홈에 위치할 수 있다. The
구동 코일부(150)는 상술한 바와 같이 평면 상(XY) 폐루프 형상일 수 있다. 구동 코일부(150)는 코일 안착부에 안착할 수 있다. 그리고 구동 코일부(150)는 구동 마그넷부(140)와 적어도 일부가 제1 방향 또는 제2 방향으로 중첩될 수 있다.The driving
또한, 구동 코일부(150)는 구동 마그넷부(140)를 감싸도록 배치될 수 있다. 즉, 구동 마그넷부(140)는 구동 코일부(150)의 폐루프 상에 위치할 수 있다.Also, the driving
또한, 구동 코일부(150)는 구동 마그넷부(140)와 소정 거리 이격 배치될 수 있다.Also, the driving
또한, 구동 코일부(150)는 일단에 측면 기판과 전기적으로 연결하기 위한 제1 와이어(w1)와 제2 와이어(w2)를 포함할 수 있다. 제1 와이어(w1)와 제2 와이어(w2)는 측면 기판에 대응하는 위치에 배치되어 전기적 저항이 최소화될 수 있다. 이에, 저항에 의한 정확도 감소가 방지되고 전력 효율이 향상될 수 있다.In addition, the driving
제1 와이어(w1)와 제2 와이어(w2)는 코일로 이루어진 구동 코일부(150)의 일단과 타단 각가에 연결될 수 있다.The first wire w1 and the second wire w2 may be respectively connected to one end and the other end of the driving
도 7 내지 도 9를 참조하면, 탄성부(160)는 제1 탄성부재(161) 및 제2 탄성부재(162)를 포함할 수 있다. 탄성부(160)는 제1 렌즈 배럴(130)의 상부 또는 하부에 위치하여 하우징(110) 및 제1 렌즈 배럴(130)과 결합할 수 있다. 이에, 구동부에 의해 제1 렌즈 배럴(130)이 상하 이동하더라도 하우징(110)과 결합된 탄성부(160)를 통해 제1 렌즈 배럴(130)의 상하 이동에 예압이 가해질 수 있다. 이에, 구동 코일부에 전류가 인가되지 않는다면, 제1 렌즈 배럴(130)은 하우징(110) 내에서 탄성부(160)의 복원력에 의해 동일한 위치에 존재할 수 있다.7 to 9 , the
제1 탄성부재(161)는 제1 렌즈 배럴(130)의 상부에 위치할 수 있다. 제2 탄성부재(162)는 제1 렌즈 배럴(130)의 하부에 위치할 수 있다.The first
제1 탄성부재(161)는 제1 탄성결합부(P1)와 제2 탄성결합부(P2)를 포함할 수 있다. 제1 탄성결합부(P1)는 제2 탄성결합부(P2)보다 외측에 위치할 수 있다. 그리고 제1 탄성결합부(P1)는 하우징(110)의 돌기와 결합할 수 있다. 또한, 제2 탄성결합부(P2)는 제1 렌즈 배럴(130)과 결합할 수 있다. 이 때, 제1 탄성결합부(P1)와 제2 탄성결합부(P2)에는 상술한 결합을 위해 접합 부재가 도포될 수 있다. 예컨대, 접합 부재는 댐퍼액을 포함할 수 있다. The first
마찬가지로, 제2 탄성부재(162)는 제3 탄성결합부(P3)와 제4 탄성결합부(P4)를 포함할 수 있다. 제3 탄성결합부(P3)는 제4 탄성결합부(P4)보다 외측에 위치할 수 있다.Similarly, the second
그리고 제3 탄성결합부(P3)는 하우징(110)의 돌기와 결합할 수 있다. 또한, 제4 탄성결합부(P4)는 제1 렌즈 배럴(130)과 결합할 수 있다. 이 때, 제3 탄성결합부(P3)와 제4 탄성결합부(P4)에도 접합 부재가 도포되어 상술한 결합이 이루어질 수 있다.And the third elastic coupling portion (P3) may be coupled to the protrusion of the housing (110). Also, the fourth elastic coupling part P4 may be coupled to the
또한, 제1 탄성결합부(P1)와 제2 탄성결합부(P2) 사이에는 다양한 굴곡을 갖는 제1 패턴부(PT)가 위치할 수 있다. 즉, 제1 패턴부(PT)를 사이에 두고 제1 탄성결합부(P1)와 제2 탄성결합부(P2)는 서로 결합할 수 있다. 이러한 제1 패턴부(PT)는 제1 방향(X축 방향) 및 제2 방향(Y축 방향)으로 대칭으로 위치할 수 있다.In addition, a first pattern portion PT having various curvatures may be positioned between the first elastic coupling portion P1 and the second elastic coupling portion P2 . That is, the first elastic coupling part P1 and the second elastic coupling part P2 may be coupled to each other with the first pattern part PT interposed therebetween. The first pattern portion PT may be symmetrically positioned in the first direction (X-axis direction) and the second direction (Y-axis direction).
마찬가지로, 제3 탄성결합부(P3)와 제4 탄성결합부(P4) 사이에는 다양한 굴곡을 갖는 제2 패턴부(PT')가 위치할 수 있다. 즉, 제2 패턴부(PT')를 사이에 두고 제3 탄성결합부(P3)와 제4 탄성결합부(P4)는 서로 결합할 수 있다. 이러한 제2 패턴부(PT')는 제1 방향(X축 방향) 및 제2 방향(Y축 방향)으로 대칭으로 위치할 수 있다.Similarly, a second pattern part PT′ having various curvatures may be positioned between the third elastic coupling part P3 and the fourth elastic coupling part P4. That is, the third elastic coupling part P3 and the fourth elastic coupling part P4 may be coupled to each other with the second pattern part PT′ interposed therebetween. The second pattern part PT' may be symmetrically positioned in the first direction (X-axis direction) and the second direction (Y-axis direction).
도 10 내지 도 11을 참조하면, 측면 기판(170)은 일측면과 일측면에 대향하고 하우징과 접하는 타측면을 가질 수 있다. 10 to 11 , the
측면 기판(170)은 일측면 상에 구동 코일부의 제1,2 와이어와 연결되는 제1,2 도전부(EC1, EC2)를 포함할 수 있다. 그리고 측면 기판(170)은 타측면에 결합 홀(170a)을 포함할 수 있다. 결합홀(170a)은 상술한 바와 같이 하우징의 결합 돌기와 결합할 수 있다. 이에, 측면 기판(170)은 하우징의 측면에 결합할 수 있다. The
그리고 측면 기판(170)의 타측면 상에는 위치 센서(180)가 위치할 수 있다. 위치 센서(180)는 측면 기판(170)의 타측면 상에 안착하여 센서홀로 삽입될 수 있다.In addition, the
도 12를 참조하면, 베이스(200)는 메인 기판(4) 상에 위치하며, 메인 기판(4)과 접할 수 있다. 또한, 베이스(200)에는 상술한 제1 렌즈 배럴, 제1 광학부, 제2 렌즈 배럴, 제2 광학부 및 하우징이 안착할 수 있다.Referring to FIG. 12 , the
베이스(200)는 이격 배치되는 제1 베이스부(210)와 제2 베이스부(220)를 포함할 수 있다. 제1 베이스부(210)에는 제1 광학부, 제1 렌즈 배럴 및 하우징 등 발광부의 구성요소가 안착할 수 있다. 그리고 제2 베이스부(220)는 제2 광학부 및 제2 렌즈 배럴이 안착할 수 있다.The base 200 may include a
제1 베이스부(210)와 제2 베이스부(220)는 각각 베이스홀(210a, 220a)을 포함할 수 있다. 이러한 베이스홀(210a, 220a)을 통해 광원으로부터의 광신호가 객체를 향해 출력되고, 객체에서 반사된 광신호(반사광)가 이미지 센서로 제공될 수 있다.The
또한, 제1 베이스부(210)와 제2 베이스부(220)에는 상술한 필터가 각각 안착할 수 있다. 나아가, 제1 베이스부(210)와 제2 베이스부(220)는 일체형으로 도시되어 있으나, 분리될 수 있다. 그리고 제2 베이스부(220)는 상술한 바와 같이 틸트될 수 있고, 제2 베이스부(220)에 부착된 필터도 틸트되어 실시예에 따른 카메라 모듈은 상술한 슈퍼 레졸루션 기법을 수행할 수 있다.In addition, the above-described filters may be seated on the
도 13을 참조하면, 제2 광학부(310)는 제2 렌즈 배럴(320)과 결합할 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)에서 중앙에 위치한 홀에 삽입될 수 있다. 또한, 제2 렌즈 배럴(320)은 외측면에 나사산을 가져 베이스(200)의 제2 베이스부(220)와 나사 결합될 수 있다.Referring to FIG. 13 , the second
제2 광학부(310)도 복수 매의 렌즈로 이루어질 수 있다.The second
도 14를 참조하면, 커버(400)는 상술한 내용 이외에 제1 커버부(410)와 제2 커버부(420)를 포함할 수 있다. 제1 커버부(410)는 제1 베이스부 상에 위치하며, 제1 광학부와 중첩되는 제1 커버홀(410a)을 포함할 수 있다. 제1 커버홀(410a)을 통해 제1 광학부를 통과한 광신호(출력광)가 객체로 조사될 수 있다.Referring to FIG. 14 , the
제2 커버부(420)는 제2 베이스부 상에 위치하며, 제2 광학부와 중첩되는 제2 커버홀(420a)을 포함할 수 있다. 제2 커버홀(420a)을 통해 제2 광학부를 통과한 광신호(반사광)가 이미지 센서로 조사될 수 있다. The
도 15는 본 발명의 실시예에 따른 카메라 장치의 구성을 나타낸 도면이다. 15 is a diagram illustrating a configuration of a camera device according to an embodiment of the present invention.
도 15를 참조하면, 본 발명의 실시예에 따른 카메라 장치는 카메라 모듈 및 처리부를 포함할 수 있다. 카메라 모듈은 발광부 및 수광부를 포함할 수 있다. Referring to FIG. 15 , a camera device according to an embodiment of the present invention may include a camera module and a processing unit. The camera module may include a light emitting unit and a light receiving unit.
앞서 살펴본 것처럼, 발광부(1)는 광원 및 제1 광학부를 포함할 수 있다. 발광부(1)는 광원에서 생성된 빛을 제1 광학부로 방출하고, 제1 광학부는 입력된 빛을 객체로 방출한다. As described above, the
제1 광학부는 복수 매의 렌즈 및 디퓨저를 포함할 수 있다. 이때, 디퓨저는 통과하는 빛을 산란시켜 출력한다. 이를 통해 디퓨저는 출력되는 빛의 파워를 분산시킬 수도 있다. 만약, 디퓨저가 탈락되거나 디퓨저에 크랙이 발생한 경우, 파워가 분산되지 않은 빛이 객체로 방출될 수 있다. 객체가 사람의 눈과 같이 빛에 약한 물체인 경우에는 안전상의 위험이 발생할 수 있다. The first optical unit may include a plurality of lenses and a diffuser. At this time, the diffuser scatters the passing light and outputs it. This allows the diffuser to distribute the power of the light output. If the diffuser is removed or a crack occurs in the diffuser, light in which power is not dispersed may be emitted to the object. If the object is an object weak to light, such as a human eye, a safety risk may occur.
발광부(1)는 구동부를 포함할 수 있다. 구동부는 제1 광학부를 광축 방향으로 이동시킬 수 있다. 구동부는 방출되는 제1 광에 광스팟이 형성될 수 있도록 제1 광학부를 이동시킬 수 있다.The
발광부(1)는 제어신호에 따라 광원에 전력을 공급하거나 차단함으로써 광을 생성할 수 있다. 발광부(1)는 처리부(20)로부터 수신된 제어신호에 따라 광원에 전력을 공급하거나 차단할 수 있다. The
수광부(2)는 객체로부터 반사된 빛을 수광하여 신호를 생성한다. 앞서 설명한 것처럼, 수광부(2)는 센서, 필터 및 렌즈를 포함할 수 있다. 수광부(2)는 객체로부터 반사된 빛을 렌즈를 통해 집광하여 센서로 전달함으로써 전기 신호를 생성할 수 있다. 이하에서 전기 신호는 영상 신호와 혼용되어 설명될 수 있다. 수광부(2)는 발광부로부터 방출된 빛 만을 수광하기 위하여 필터를 렌즈의 전면 또는 후면에 배치할 수 있다. 수광부(2)는 생성된 영상 신호를 처리부(20)로 전송할 수 있다. The
수광부(2)는 광원의 구동 시간에 동기화되어 제1 광을 수광하며, 수광된 제1 광에 기초하여 제1 영상 신호를 생성할 수 있다. The
수광부(2)는 광원이 동작하지 않는 비구동 시간에 제2 광을 수광하며, 제2 광에 기초하여 제2 영상 신호를 생성할 수 있다. The
처리부(20)는 카메라 장치에 배치될 수 있다. 처리부(20)는 연산 처리가 가능한 프로세서일 수 있다. 일예로, 처리부(20)는 카메라 장치에 배치된 어플리케이션 프로세서(application processor) 일 수 있다. 처리부(20)는 데이터를 처리하고 저장하기 위한 메모리를 포함할 수 있다. The
처리부(20)는 수광부(2)로부터 수신된 신호에 기초하여 영상을 생성할 수 있다. 처리부(20)는 수광부(2)의 센서로부터 전기신호를 수신하고, 전기신호에 기초하여 영상을 생성할 수 있다. 처리부(20)는 수광부(2)로부터 수신된 신호에 기초하여 3차원의 깊이영상을 생성할 수 있다. 처리부(20)는 수광부(2)로부터 수신된 신호에 기초하여 2차원의 IR 영상을 생성할 수 있다. The
처리부(20)는 제1 영상 신호에 기초하여 복수의 픽셀을 포함하는 제1 영상 정보를 생성할 수 있다. 처리부(20)는 광스팟에 대응하는 픽셀을 포함하는 제1 픽셀 그룹 및 광스팟에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹 중 어느 하나로 제1 영상 정보에 포함된 복수의 픽셀을 분류할 수 있다. 처리부(20)는 기 설정된 분류 기준에 기초하여 복수의 픽셀을 제1 픽셀 그룹과 제2 픽셀 그룹으로 분류할 수 있다.The
처리부(20)는 제2 픽셀 그룹의 픽셀값과 기 설정된 기준값을 비교하고, 비교 결과에 기초하여 광원의 동작을 제어할 수 있다. 처리부(20)는 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 작으면 광원을 턴온시키는 제어 신호를 생성할 수 있다. 처리부(20)는 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 크거나 같으면 광원을 턴오프시키는 제어 신호를 생성할 수 있다. The
처리부(20)는 제2 영상 신호에 기초하여 제2 영상 정보를 생성할 수 있다. 처리부(20)는 제2 영상 정보에 포함된 복수의 픽셀을 발광원에 대응하는 픽셀을 포함하는 제1 픽셀 그룹과 발광원에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹으로 분류할 수 있다. 이는 제1 영상 정보에 포함된 복수의 픽셀을 제1 픽셀 그룹과 제2 픽셀 그룹으로 분류하는 과정과 동일할 수 있다. The
처리부(20)는 제2 영상 정보의 제2 픽셀 그룹의 픽셀값에 기초하여 외부광에 의한 노이즈 레벨을 산출할 수 있다. 처리부(20)는 노이즈 레벨에 기초하여 발광부(1) 및 수광부(2) 중 적어도 하나를 제어할 수 있다. The
처리부(20)는 노이즈 레벨에 따라 수광부(2)의 노출시간(exposure time)을 변경하거나, 수광부(2)에 포함된 센서의 픽셀 소자의 이득값(gain)을 변경할 수 있다. 처리부(20)는 노이즈 레벨에 따라 광원이 생성하는 빛의 파워를 변경할 수 있다. The
처리부(20)는 노이즈 레벨에 따라 기 설정된 기준값을 변경할 수 있다. 처리부(20)는 제2 픽셀 그룹의 픽셀값의 비교 기준이 되는 기준값을 노이즈 레벨에 따라 변경할 수 있다. The
도 16은 본 발명의 실시예에 따른 제1 광을 설명하기 위한 도면이다. 16 is a view for explaining a first light according to an embodiment of the present invention.
도 16은 발광부에 의해 방출된 제1 광을 나타낸다. 발광부는 광원 및 광학부에 의해 생성된 제1 광을 출력할 수 있다. 제1 광은 광스팟(spot)이 소정의 패턴에 따라 형성된 패턴광일 수 있다. 광스팟 외의 영역(non-spot)은 광스팟(spot)에 대응하는 빛 중 일부가 산란되어 출력될 수도 있으나, 광스팟(spot)에 비해 광량이 매우 적을 수 있다. 16 shows the first light emitted by the light emitting unit. The light emitting unit may output the first light generated by the light source and the optical unit. The first light may be patterned light in which a light spot is formed according to a predetermined pattern. In a non-spot area other than the light spot, some of the light corresponding to the light spot may be scattered and output, but the amount of light may be very small compared to the light spot.
발광부는 광스팟(spot)이 소정의 패턴에 따라 형성된 제1 광을 출력하기 위하여 광학부를 광축 방향으로 이동시킬 수 있다. 발광부는 구동부를 통해 광학부를 광축방향으로 이동시켜 제1 광을 출력할 수 있다. The light emitting unit may move the optical unit in the optical axis direction to output the first light having a light spot formed according to a predetermined pattern. The light emitting unit may output the first light by moving the optical unit in the optical axis direction through the driving unit.
광스팟(spot)은 광원에 의해 생성될 수 있다. 예를 들어, 광원이 VCSEL(Vertical Cavity Surface Emitting Lase) 어레이인 경우, VCSEL은 복수의 에미터(emitter)를 포함할 수 있다. 광원이 복수의 에미터를 통해 광을 방출하면, 복수의 에미터 각각에 대응하는 복수의 광스팟을 포함하는 제1 광이 출력될 수 있다. 광원의 상부에 배치된 디퓨저나 렌즈와 같은 광학부재는 에미터로부터 방출되는 광의 크기를 조절할 수 있다. 예를 들어 디퓨저나 렌즈와 같은 광학부재는 광원과의 이격 거리가 변경될 수 있으며, 광원과의 이격 거리에 따라 광스팟의 크기가 변경될 수 있다. 이에 따라, 광스팟이 커짐에 따라 점광원이 면광원으로 변경되어 출력될 수 있다. A light spot may be created by a light source. For example, when the light source is a VCSEL (Vertical Cavity Surface Emitting Lase) array, the VCSEL may include a plurality of emitters. When the light source emits light through the plurality of emitters, first light including a plurality of light spots corresponding to each of the plurality of emitters may be output. An optical member such as a diffuser or a lens disposed on the light source can control the size of light emitted from the emitter. For example, in an optical member such as a diffuser or a lens, the separation distance from the light source may be changed, and the size of the light spot may be changed according to the separation distance from the light source. Accordingly, as the light spot increases, the point light source may be changed to a surface light source and output.
도 17은 본 발명의 실시예에 따른 제1 영상 정보의 제1 픽셀 그룹과 제2 픽셀 그룹을 설명하기 위한 도면이다. 17 is a diagram for describing a first pixel group and a second pixel group of first image information according to an embodiment of the present invention.
도 17의 (a)에서 음영은 제1 영상 정보의 제1 픽셀 그룹(group1)을 나타내고, 도 17의 (b)에서 음영은 제1 영상 정보의 제2 픽셀 그룹(group2)을 나타낸다. 도 17과 도 16을 비교하면, 제1 픽셀 그룹(group1)은 제1 광의 광스팟에 대응하고, 제2 픽셀 그룹(group2)은 광스팟 외의 영역에 대응함을 알 수 있다. 처리부는 기 설정된 분류 기준에 따라 제1 영상 정보의 각 픽셀을 제1 픽셀 그룹(group1) 또는 제2 픽셀 그룹(group2) 중 하나로 분류할 수 있다. In (a) of FIG. 17 , a shade indicates a first pixel group (group1) of the first image information, and in FIG. 17(b) , a shade indicates a second pixel group (group2) of the first image information. 17 and 16 , it can be seen that the first pixel group group1 corresponds to a light spot of the first light, and the second pixel group group2 corresponds to an area other than the light spot. The processor may classify each pixel of the first image information into one of a first pixel group group1 or a second pixel group group2 according to a preset classification criterion.
도 18a 및 도 18b는 일 실시예에 따른 제2 픽셀 그룹과 기준값의 비교 과정을 설명하기 위한 도면이다. 18A and 18B are diagrams for explaining a process of comparing a second pixel group and a reference value according to an exemplary embodiment.
도 18a는 일 실시예에 따른 제1 영상 정보를 나타내고, 도 18b는 제1 영상 정보의 픽셀값을 나타낸 그래프이다. 18A is a graph illustrating first image information according to an exemplary embodiment, and FIG. 18B is a graph illustrating pixel values of the first image information.
도 18a와 같은 제1 영상 정보에서 a-a' 라인에 배치된 픽셀값을 그래프의 형태로 도시하면 도 18b와 같이 나타낼 수 있다. 도 18b에서 음영 부분은 제1 픽셀 그룹(group1)을 나타내고 음영이 없는 부분은 제2 픽셀 그룹(group2)을 나타낸다. In the first image information as shown in FIG. 18A, when pixel values arranged on line a-a' are shown in the form of a graph, it can be shown as shown in FIG. 18B. In FIG. 18B , a shaded portion indicates a first pixel group group1 and a non-shaded portion indicates a second pixel group group2 .
처리부는 음영 부분인 제1 픽셀 그룹(group)의 픽셀값(amplitude)과 기준값(threshold)을 비교한다. 즉, 음영이 없는 부분인 제2 픽셀 그룹(group2)의 픽셀값(amplitude)과 기준값(threshold)은 비교하지 않는다. The processing unit compares a pixel value (amplitude) of a first pixel group that is a shaded portion and a reference value (threshold). That is, the pixel value (amplitude) of the second pixel group (group2), which is a non-shaded portion, is not compared with the reference value (threshold).
도 18b를 참조하면, 제2 픽셀 그룹(group2)에 포함된 각 픽셀의 픽셀값을 보면 기준값(threshold)보다 작음을 확인할 수 있다. 제2 픽셀 그룹(group2)에 배치된 픽셀값과 기준값(threshold)보다 작으므로, 처리부는 a-a' 라인에 배치된 픽셀에 대응하는 광학부 영역에는 이상(탈락이나 크랙 등)이 없다고 판단할 수 있다. 처리부는 이와 같이 모든 제2 픽셀 그룹(group2)에 포함된 픽셀값과 기준값(threshold)을 비교하여 광학부의 정상 여부를 판단하게 된다. 일 실시예에 따르면, 제2 픽셀 그룹(group)에 포함된 픽셀 중 픽셀값이 기준값(threshold)보다 작은 픽셀의 개수가 임계치보다 클 경우, 처리부는 광학부가 정상이라고 판단할 수 있다. 이에 따라, 처리부는 광원을 구동하는 제어 신호를 생성하여 발광부로 전송할 수 있다. Referring to FIG. 18B , it can be seen that the pixel value of each pixel included in the second pixel group group2 is smaller than a threshold. Since the pixel value arranged in the second pixel group (group2) and the threshold value are smaller than the threshold, the processing unit may determine that there is no abnormality (eg, dropout or crack) in the optical unit region corresponding to the pixel arranged on line aa'. . As described above, the processor compares the pixel values included in all the second pixel groups group2 with the reference value (threshold) to determine whether the optical unit is normal. According to an exemplary embodiment, when the number of pixels having a pixel value smaller than a threshold among pixels included in the second pixel group is greater than a threshold, the processing unit may determine that the optical unit is normal. Accordingly, the processing unit may generate a control signal for driving the light source and transmit it to the light emitting unit.
도 19a 및 도 19b는 다른 실시예에 따른 제2 픽셀 그룹과 기준값의 비교 과정을 설명하기 위한 도면이다. 19A and 19B are diagrams for explaining a process of comparing a second pixel group and a reference value according to another exemplary embodiment.
도 19a는 일 실시예에 따른 제1 영상 정보를 나타내고, 도 19b는 제1 영상 정보의 픽셀값을 나타낸 그래프이다. 19A is a graph illustrating first image information according to an exemplary embodiment, and FIG. 19B is a graph illustrating pixel values of the first image information.
도 19a와 같은 제1 영상 정보에서 a-a' 라인에 배치된 픽셀값을 그래프의 형태로 도시하면 도 19b와 같이 나타낼 수 있다. 도 19b에서 음영 부분은 제1 픽셀 그룹(group1)을 나타내고 음영이 없는 부분은 제2 픽셀 그룹(group2)을 나타낸다. In the first image information as shown in FIG. 19A, when pixel values arranged on line a-a' are shown in the form of a graph, it can be shown as shown in FIG. 19B. In FIG. 19B , a shaded portion indicates a first pixel group group1 and a non-shaded portion indicates a second pixel group group2.
처리부는 음영 부분인 제1 픽셀 그룹(group)의 픽셀값(amplitude)과 기준값(threshold)을 비교한다. 즉, 음영이 없는 부분인 제2 픽셀 그룹(group2)의 픽셀값(amplitude)과 기준값(threshold)은 비교하지 않는다. The processing unit compares a pixel value (amplitude) of a first pixel group that is a shaded portion and a reference value (threshold). That is, the pixel value (amplitude) of the second pixel group (group2), which is a non-shaded portion, is not compared with the reference value (threshold).
도 19b를 참조하면, 제2 픽셀 그룹(group2)에 포함된 픽셀 중 스팟 넘버(spot number) 0에서 40 및 70에서 230 구간의 픽셀은 픽셀값(amplitude)이 기준값(threshold)보다 작음을 확인할 수 있다. 이를 통해, 처리부는 해당 구간에 대응하는 광학부에 이상이 없다고 판단할 수 있다. Referring to FIG. 19B , among pixels included in the second pixel group (group2), it can be confirmed that pixels with
다만, 제2 픽셀 그룹(group2)에 포함된 픽셀 중 스팟 넘버(spot number) 40에서 70 구간의 픽셀은 픽셀값(amplitude)이 기준값(threshold)보다 큰 것을 알 수 있다. 이에 따라, 처리부는 해당 구간에 대응하는 광학부 영역에 이상(탈락이나 크랙 등)이 발생하였다고 판단할 수 있다. 처리부는 이와 같이 모든 제2 픽셀 그룹(group2)에 포함된 픽셀값과 기준값(threshold)을 비교하여 광학부에 이상이 발생하였는지 여부를 판단하게 된다. However, it can be seen that, among pixels included in the second pixel group group2, a pixel having a spot number of 40 to 70 has a pixel amplitude greater than a threshold. Accordingly, the processing unit may determine that an abnormality (such as a dropout or a crack) has occurred in the optical unit region corresponding to the corresponding section. The processing unit compares the pixel values included in all the second pixel groups group2 with the threshold to determine whether an abnormality has occurred in the optical unit.
도 18a 내지 도 19b를 통해 살펴본 것처럼, 본 발명의 실시예에 따른 처리부는 제1 영상 정보 내 제2 픽셀 그룹에 포함된 픽셀값을 통해 광학부의 이상 여부를 판단한다. 만약, 제1 광의 광스팟에 대응하는 제1 픽셀 그룹의 픽셀값을 통해 광학부의 이상 여부를 판단할 경우, 이상 여부 판단에 오류가 발생할 수 있다. 이는 광스팟에 대응하는 제1 픽셀 그룹의 경우 광이 조사되는 객체나 주변 환경에 의해 픽셀값의 변화가 크게 나타날 수 있기 때문이다. 이에 반해, 제2 픽셀 그룹의 경우 광스팟에 대응하는 영역이 아니므로 객체나 주변 환경에 의한 픽셀값 변화가 적게 나타난다. 따라서, 본 발명은 제2 픽셀 그룹을 통해 광학부의 이상 여부를 판단함으로써 판단의 정확도를 향상시킨다. 18A to 19B , the processing unit according to an embodiment of the present invention determines whether the optical unit is abnormal based on the pixel value included in the second pixel group in the first image information. If it is determined whether the optical unit is abnormal based on the pixel value of the first pixel group corresponding to the light spot of the first light, an error may occur in determining whether the optical unit is abnormal. This is because, in the case of the first pixel group corresponding to the light spot, the pixel value may be greatly changed by the object to which light is irradiated or the surrounding environment. On the other hand, in the case of the second pixel group, since the area does not correspond to the light spot, the pixel value change due to the object or the surrounding environment is small. Accordingly, the present invention improves the accuracy of determination by determining whether the optical unit is abnormal through the second pixel group.
도 20은 본 발명의 실시예에 따른 제1 광을 출력 시점을 설명하기 위한 도면이다. 20 is a view for explaining an output timing of the first light according to an embodiment of the present invention.
도 20을 참조하면, 발광부는 제1 광 및 제3 광을 방출할 수 있다. 제1 광은 광학부의 이상 여부를 판단하기 위한 광을 의미할 수 있고, 제3 광은 깊이 영상을 생성하기 위한 광을 의미할 수 있다. 도 20에 도시된 하나의 제3 광은 하나의 깊이 영상 프레임에 대응할 수 있다. Referring to FIG. 20 , the light emitting unit may emit first light and third light. The first light may mean light for determining whether an optical unit is abnormal, and the third light may mean light for generating a depth image. One third light illustrated in FIG. 20 may correspond to one depth image frame.
도 20의 (a)를 참조하면, 제1 광과 제3 광은 서로 반복하여 방출될 수 있다. 즉, 발광부는 깊이 영상의 각 프레임 생성을 위한 제3 광을 방출하기 전 제1 광을 방출할 수 있다. 만약 제1 광에 기초하여 광학부에 이상이 발생하였다고 판단되면, 처리부는 다음 제3 광이 방출되지 않도록 제어 신호를 생성하게 된다. Referring to FIG. 20A , the first light and the third light may be repeatedly emitted with each other. That is, the light emitting unit may emit the first light before emitting the third light for generating each frame of the depth image. If it is determined that an abnormality has occurred in the optical unit based on the first light, the processing unit generates a control signal so that the next third light is not emitted.
도 20의 (b)를 참조하면, 제1 광이 방출된 후 복수의 제3 광이 연속하여 방출되고, 다시 제1 광이 방출될 수 있다. 예를 들어, 4장이 깊이영상 프레임을 통해 하나의 고해상 깊이 영상을 생성하는 수퍼 레졸루션을 수행하는 경우, 발광부는 제1 광 방출 후 4번 제3 광을 연속하여 방출할 수 있다. 만약 제3 광이 4번 방출된 후 방출된 제1 광에 기초하여 광학부에 이상이 발생하였다고 판단되면, 처리부는 다음 제3 광이 방출되지 않도록 제어 신호를 생성하게 된다.Referring to FIG. 20B , after the first light is emitted, a plurality of third lights may be continuously emitted, and the first light may be emitted again. For example, when 4 sheets perform super resolution for generating one high-resolution depth image through the depth image frame, the light emitting unit may continuously emit the fourth light after the first light is emitted. If it is determined that an abnormality has occurred in the optical unit based on the first light emitted after the third light is emitted four times, the processing unit generates a control signal so that the next third light is not emitted.
도 21은 본 발명의 실시예에 따른 제2 광의 수광 과정을 설명하기 위한 도면이다. 21 is a view for explaining a light receiving process of a second light according to an embodiment of the present invention.
처리부에 의해 광학부가 정상인 것으로 판단되어 광원이 구동되면, 발광부는 도 21의 Tx1과 같이 제3 광을 출력할 수 있다. 발광부는 Tx1과 같이 소정의 주기에 따라 제1 시간(t1) 동안 제3 광을 출력하게 된다. When the processing unit determines that the optical unit is normal and the light source is driven, the light emitting unit may output the third light as shown in Tx1 of FIG. 21 . The light emitting unit outputs the third light for the first time t1 according to a predetermined period like Tx1.
발광부가 제1 시간(t1)에 제3 광을 출력하면, 센서의 픽셀에 포함된 제1 수광소자(phase-in 유닛)는 Rx1-1과 같이 발광부가 제3 광을 출력하는 제1 시간(t1)동안 광을 수광한다. 그리고, 센서의 픽셀에 포함된 제2 수광소자(phase-out 유닛)는 Rx1-2와 같이 제2 시간(t2)동안 제3 광을 수광한다. 카메라 장치는 제1 수광소자를 통해 수광한 광량과 제2 수광소자를 통해 수광한 광량에 기초하여 깊이 영상을 생성할 수 있다. When the light emitting unit outputs the third light at the first time t1, the first light receiving element (phase-in unit) included in the pixel of the sensor operates at the first time (Rx1-1) at which the light emitting unit outputs the third light ( light is received during t1). In addition, the second light receiving element (phase-out unit) included in the pixel of the sensor receives the third light for the second time t2 like Rx1-2. The camera device may generate a depth image based on the amount of light received through the first light receiving element and the amount of light received through the second light receiving element.
그리고 수광부는 제2 수광소자가 수광을 종료한 시점부터 다음 제3 광이 발광부로부터 출력되는 시점 사이인 제3 시간(t3)에 제2 광을 수광할 수 있다. 제2 광은 발광부에 출력된 광이 아닌 주변광일 수 있다. 센서는 제1 수광소자 또는 제2 수광소자 중 적어도 하나를 통해 제2 광을 수광할 수 있다. The light receiving unit may receive the second light at a third time t3 between the time when the second light receiving element finishes receiving light and the time when the next third light is output from the light emitting unit. The second light may be ambient light other than the light output to the light emitting unit. The sensor may receive the second light through at least one of the first light receiving element and the second light receiving element.
도 21에서는 제3 시간(t3)에 제2 광을 수광하는 것으로 도시하였으나, 수광부는 제2 수광소자가 수광을 종료한 시점부터 다음 광이 발광부로부터 출력되는 시점 사이에서 소정의 시간동안 제2 광을 수광할 수 있다. 제2 광을 수광하는 시간은 당업자에 의해 설계변경이 가능하다. 다른 실시예로, 수광부는 제1 광과 제3 광이 방출되는 구간 사이의 시간 동안 제2 광을 수광할 수도 있다. 21 shows that the second light is received at the third time t3, but the light receiving unit receives the second light for a predetermined time between the time when the second light receiving element finishes receiving light and the time when the next light is output from the light emitting unit. It can receive light. The time for receiving the second light can be changed in design by those skilled in the art. In another embodiment, the light receiving unit may receive the second light during a period between the first light and the third light is emitted.
도 22는 노이즈 레벨에 따른 제어 과정을 설명하기 위한 도면이다. 22 is a diagram for explaining a control process according to a noise level.
처리부는 제2 영상 정보의 제2 픽셀 그룹에 기초하여 노이즈 레벨을 산출할 수 있다. 일 실시예에 따르면, 처리부는 제2 픽셀 그룹에 포함된 픽셀의 픽셀값 평균을 통해 노이즈 레벨을 산출할 수 있다. 노이즈 레벨은 선형적으로 또는 이산적으로 산출될 수 있다. 노이즈 레벨이 클수록 주변광의 강도가 높음을 의미하고, 노이즈 레벨이 낮을수록 주변광의 강도가 낮음을 의미할 수 있다. 제1 픽셀 그룹의 경우에는 발광부로부터 출력된 광에 의한 영향으로 주변광에 대한 강도 측정에 부정확함이 발생할 수 있는 반면, 제2 픽셀 그룹의 경우에는 발광부로부터 출력된 광에 의한 영향이 적어 주변광에 대한 강도 측정을 정확히 수행할 수 있는 장점이 있다. The processor may calculate the noise level based on the second pixel group of the second image information. According to an embodiment, the processor may calculate the noise level through an average of pixel values of pixels included in the second pixel group. The noise level can be calculated linearly or discretely. A higher noise level may mean that the intensity of ambient light is higher, and a lower noise level may mean lower intensity of ambient light. In the case of the first pixel group, inaccuracies may occur in measuring the intensity of ambient light due to the effect of the light output from the light emitting unit, whereas in the second pixel group, the influence by the light output from the light emitting unit is small. It has the advantage of being able to accurately measure the intensity of ambient light.
처리부는 노이즈 레벨에 따라 수광부의 노출시간(exposure time)을 변경하기 위한 제1 신호(Sn1)를 생성할 수 있다. 노이즈 레벨이 높을 경우, 처리부는 수광부의 노출시간을 증가시키기 위한 제1 신호(Sn1)를 생성할 수 있다. 반면, 노이즈 레벨이 낮을 경우, 처리부는 수광부의 노출시간을 감소시키기 위한 제1 신호(Sn1)를 생성할 수 있다. 제1 신호(Sn1)는 수광부로 전송될 수 있다. The processing unit may generate a first signal Sn1 for changing an exposure time of the light receiving unit according to the noise level. When the noise level is high, the processor may generate the first signal Sn1 for increasing the exposure time of the light receiving unit. On the other hand, when the noise level is low, the processor may generate the first signal Sn1 for reducing the exposure time of the light receiving unit. The first signal Sn1 may be transmitted to the light receiving unit.
처리부는 노이즈 레벨에 따라 수광부에 포함된 센서의 픽셀 소자의 이득값(gain)을 변경하기 위한 제2 신호(Sn2)를 생성할 수 있다. 노이즈 레벨이 높을 경우, 처리부는 이득값을 증가시키기 위한 제2 신호(Sn2)를 생성할 수 있다. 반면, 노이즈 레벨이 낮을 경우, 처리부는 이득값을 감소시키기 위한 제2 신호(Sn2)를 생성할 수 있다. 제2 신호(Sn2)는 수광부로 전송될 수 있다.The processor may generate a second signal Sn2 for changing a gain of a pixel element of a sensor included in the light receiver according to the noise level. When the noise level is high, the processor may generate the second signal Sn2 for increasing the gain value. On the other hand, when the noise level is low, the processor may generate the second signal Sn2 for reducing the gain value. The second signal Sn2 may be transmitted to the light receiving unit.
처리부는 노이즈 레벨에 따라 광원이 생성하는 빛의 파워를 변경할 수 있는 제3 신호(Sn3)를 생성할 수 있다. 노이즈 레벨이 높을 경우, 처리부는 광원이 생성하는 빛의 파워를 증가시키기 위한 제3 신호(Sn3)를 생성할 수 있다. 반면, 노이즈 레벨이 낮을 경우, 처리부는 광원이 생성하는 빛의 파워를 감소시키기 위한 제3 신호(Sn3)를 생성할 수 있다. 제3 신호(Sn3)는 발광부로 전송될 수 있다.The processor may generate the third signal Sn3 capable of changing the power of light generated by the light source according to the noise level. When the noise level is high, the processor may generate a third signal Sn3 for increasing the power of light generated by the light source. On the other hand, when the noise level is low, the processor may generate the third signal Sn3 for reducing the power of light generated by the light source. The third signal Sn3 may be transmitted to the light emitting unit.
처리부는 노이즈 레벨에 따라 기 설정된 기준값을 변경할 수 있다. 처리부는 노이즈 레벨에 대응하는 값이 저장된 룩업 테이블(look-up table)을 포함할 수 있다. 처리부는 산출된 노이즈 레벨에 대응하는 값을 룩업 테이블로부터 선택하여 기준값으로 설정할 수 있다. The processor may change the preset reference value according to the noise level. The processing unit may include a look-up table in which values corresponding to noise levels are stored. The processor may select a value corresponding to the calculated noise level from the lookup table and set it as a reference value.
본 발명의 실시예에 따르면, 발광부에 별도의 하드웨어 장치를 추가하지 않고도 발광부의 이상 여부를 검출할 수 있는 장점이 있다. 발광부의 디퓨저에 ITO 패턴을 배치하고 전극을 연결하여 디퓨저의 탈락이나 크랙 여부를 검출하는 경우, 광학부의 이동에 의해 ITO 패턴과 전극 사이의 접촉이 어려울 수 있으나, 본 발명의 경우에는 광학부의 이동과 무관하게 안정적으로 디퓨저의 탈락이나 크랙 여부를 검출할 수 있다. 또한 발광부 내부에 포토 다이오드를 설치하여 발광부의 렌즈나 디퓨저의 크랙/탈락을 검출할 경우 복수의 렌즈나 디퓨저에 의한 반사광량 오류로 인해 부정확한 진단 결과가 도출될 수 있으나, 본 발명의 경우에는 수광부의 수광 정보에 기초하므로 발광부의 렌즈나 디퓨저의 반사광량과 무관하게 광학부의 이상 여부를 검출할 수 있다. According to an embodiment of the present invention, there is an advantage in that it is possible to detect an abnormality in the light emitting unit without adding a separate hardware device to the light emitting unit. When an ITO pattern is placed on the diffuser of the light emitting unit and an electrode is connected to detect whether the diffuser is dropped or cracked, contact between the ITO pattern and the electrode may be difficult due to the movement of the optical unit, but in the present invention, the movement of the optical unit and Regardless of whether the diffuser is dropped or cracked, it can be reliably detected. In addition, when a photodiode is installed inside the light emitting unit to detect cracks/falls in the lens or diffuser of the light emitting unit, an inaccurate diagnosis result may be derived due to an error in the amount of reflected light by a plurality of lenses or diffusers, but in the case of the present invention Since it is based on the light-receiving information of the light-receiving unit, it is possible to detect whether the optical unit is abnormal regardless of the amount of reflected light from the lens or the diffuser of the light-emitting unit.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. In the above, the embodiment has been mainly described, but this is only an example and does not limit the present invention, and those of ordinary skill in the art to which the present invention pertains are not exemplified above in the range that does not depart from the essential characteristics of the present embodiment. It will be appreciated that various modifications and applications are possible. For example, each component specifically shown in the embodiment can be implemented by modification. And differences related to such modifications and applications should be construed as being included in the scope of the present invention defined in the appended claims.
1 : 발광부
2 : 수광부
10 : 카메라 모듈
20 : 처리부1: light emitting part
2: light receiver
10: camera module
20: processing unit
Claims (11)
상기 제1 광을 수광하며, 수광된 상기 제1 광에 기초하여 제1 영상 신호를 생성하는 수광부;
상기 제1 영상 신호를 수신하는 처리부;를 포함하고,
상기 처리부는,
상기 제1 영상 신호에 기초하여 복수의 픽셀을 포함하는 제1 영상 정보를 생성하고,
상기 광스팟에 대응하는 픽셀을 포함하는 제1 픽셀 그룹 및 상기 광스팟에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹 중 어느 하나로 상기 복수의 픽셀을 분류하고,
상기 제2 픽셀 그룹의 픽셀값과 기 설정된 기준값을 비교하고,
상기 비교 결과에 기초하여 상기 광원의 동작을 제어하는 카메라 장치. a light source emitting a first light including a plurality of light spots;
a light receiving unit receiving the first light and generating a first image signal based on the received first light;
Including; a processing unit for receiving the first image signal;
The processing unit,
generating first image information including a plurality of pixels based on the first image signal;
classifying the plurality of pixels into any one of a first pixel group including pixels corresponding to the light spot and a second pixel group including pixels not corresponding to the light spot;
comparing a pixel value of the second pixel group with a preset reference value;
A camera device for controlling an operation of the light source based on the comparison result.
상기 처리부는,
기 설정된 분류 기준에 기초하여 상기 복수의 픽셀을 상기 제1 픽셀 그룹과 상기 제2 픽셀 그룹으로 분류하는 카메라 장치. According to claim 1,
The processing unit,
A camera device for classifying the plurality of pixels into the first pixel group and the second pixel group based on a preset classification criterion.
상기 처리부는
상기 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 작으면, 상기 광원을 턴온시키는 제어 신호를 생성하는 카메라 장치. According to claim 1,
the processing unit
When the pixel value of the second pixel group is smaller than a preset reference value, the camera device generates a control signal for turning on the light source.
상기 처리부는
상기 제2 픽셀 그룹의 픽셀값이 기 설정된 기준값보다 크거나 같으면, 상기 광원을 턴오프시키는 제어 신호를 생성하는 카메라 장치.According to claim 1,
the processing unit
When the pixel value of the second pixel group is greater than or equal to a preset reference value, the camera device generates a control signal for turning off the light source.
상기 수광부는,
상기 광원의 구동 시간에 동기화되어 상기 제1 광을 수광하는 카메라 장치. According to claim 1,
The light receiving unit,
A camera device for receiving the first light in synchronization with the driving time of the light source.
상기 수광부는,
상기 광원이 동작하지 않는 비구동 시간에 동기화되어 제2 광을 수광하며, 상기 제2 광에 기초하여 제2 영상 신호를 생성하는 카메라 장치. According to claim 1,
The light receiving unit,
The camera apparatus is synchronized with a non-driving time when the light source is not in operation, receives a second light, and generates a second image signal based on the second light.
상기 처리부는,
상기 제2 영상 신호에 기초하여 제2 영상 정보를 생성하고,
상기 제2 영상 정보에 포함된 복수의 픽셀을 발광원에 대응하는 픽셀을 포함하는 제1 픽셀 그룹과 상기 발광원에 대응하지 않는 픽셀을 포함하는 제2 픽셀 그룹으로 분류하며,
상기 제2 영상 정보의 제2 픽셀 그룹의 픽셀값에 기초하여 외부광에 의한 노이즈 레벨을 산출하고, 상기 노이즈 레벨에 기초하여 상기 광원 및 수광부 중 적어도 하나를 제어하는 카메라 장치. 7. The method of claim 6,
The processing unit,
generating second image information based on the second image signal;
classifying the plurality of pixels included in the second image information into a first pixel group including pixels corresponding to the light-emitting source and a second pixel group including pixels not corresponding to the light-emitting source;
A camera apparatus for calculating a noise level caused by external light based on a pixel value of a second pixel group of the second image information, and controlling at least one of the light source and the light receiving unit based on the noise level.
상기 처리부는,
상기 노이즈 레벨에 따라 상기 수광부의 노출시간(exposure time)을 변경하거나, 상기 수광부에 포함된 센서의 픽셀 소자의 이득값(gain)을 변경하는 카메라 장치. 8. The method of claim 7,
The processing unit,
A camera device for changing an exposure time of the light receiving unit or a gain of a pixel element of a sensor included in the light receiving unit according to the noise level.
상기 처리부는,
상기 노이즈 레벨에 따라 상기 광원이 생성하는 빛의 파워를 변경하는 카메라 장치.8. The method of claim 7,
The processing unit,
A camera device for changing the power of the light generated by the light source according to the noise level.
상기 처리부는,
상기 노이즈 레벨에 따라 상기 기 설정된 기준값을 변경하는 카메라 장치. 8. The method of claim 7,
The processing unit,
The camera device changes the preset reference value according to the noise level.
상기 광원은,
각각의 깊이 영상 프레임(frame) 생성 전 상기 제1 광을 출력하는 카메라 장치. According to claim 1,
The light source is
A camera device for outputting the first light before each depth image frame is generated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200056479A KR102674227B1 (en) | 2020-05-12 | 2020-05-12 | Camera device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200056479A KR102674227B1 (en) | 2020-05-12 | 2020-05-12 | Camera device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210138305A true KR20210138305A (en) | 2021-11-19 |
KR102674227B1 KR102674227B1 (en) | 2024-06-12 |
Family
ID=78718031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200056479A KR102674227B1 (en) | 2020-05-12 | 2020-05-12 | Camera device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102674227B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150074727A (en) * | 2013-12-24 | 2015-07-02 | 엘지전자 주식회사 | Electronic device and method for controlling of the same |
KR20160092137A (en) * | 2015-01-26 | 2016-08-04 | 주식회사 히타치엘지 데이터 스토리지 코리아 | Controlling method in distance measuring device using TOF |
KR101666137B1 (en) * | 2009-07-21 | 2016-10-13 | 디엑스오 랩스 | Method for estimating a defect in an image-capturing system, and associated systems |
KR20170119515A (en) * | 2016-04-19 | 2017-10-27 | 주식회사 만도 | System and method for verification of lamp operation |
-
2020
- 2020-05-12 KR KR1020200056479A patent/KR102674227B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101666137B1 (en) * | 2009-07-21 | 2016-10-13 | 디엑스오 랩스 | Method for estimating a defect in an image-capturing system, and associated systems |
KR20150074727A (en) * | 2013-12-24 | 2015-07-02 | 엘지전자 주식회사 | Electronic device and method for controlling of the same |
KR20160092137A (en) * | 2015-01-26 | 2016-08-04 | 주식회사 히타치엘지 데이터 스토리지 코리아 | Controlling method in distance measuring device using TOF |
KR20170119515A (en) * | 2016-04-19 | 2017-10-27 | 주식회사 만도 | System and method for verification of lamp operation |
Also Published As
Publication number | Publication date |
---|---|
KR102674227B1 (en) | 2024-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102568462B1 (en) | A detector for determining the position of at least one object | |
EP3786707B1 (en) | Projection module and terminal | |
US7679671B2 (en) | Image capturing for capturing an image of an object by illuminating the object and receiving light from the object | |
US20230064678A1 (en) | Camera module | |
EP4117268A1 (en) | Distance measuring camera apparatus | |
CN113196284B (en) | Image pickup apparatus | |
US20220113608A1 (en) | Camera module | |
KR102211153B1 (en) | Camera module type sensor apparatus and camera module | |
KR20200085578A (en) | Camera module | |
KR102674227B1 (en) | Camera device | |
CN108490572A (en) | Laser projection module, depth camera and electronic device | |
KR20200113438A (en) | Camera module | |
US12085838B2 (en) | Camera module | |
KR102505817B1 (en) | 3d image acquisition device | |
KR20210141167A (en) | Camera module | |
KR102710469B1 (en) | Camera module | |
KR102656494B1 (en) | Camera module | |
KR102656488B1 (en) | Camera module | |
US20240007728A1 (en) | Distance measuring camera device | |
KR20220003295A (en) | Camera module | |
CN112312829A (en) | Sensing method and device | |
KR20220103392A (en) | Distance measurement camera device | |
KR20220000599A (en) | Camera module | |
KR20220055917A (en) | Distance measurement camera device | |
US20240255643A1 (en) | Distance measurement camera module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right |