KR20220165422A - Camera module - Google Patents
Camera module Download PDFInfo
- Publication number
- KR20220165422A KR20220165422A KR1020210074020A KR20210074020A KR20220165422A KR 20220165422 A KR20220165422 A KR 20220165422A KR 1020210074020 A KR1020210074020 A KR 1020210074020A KR 20210074020 A KR20210074020 A KR 20210074020A KR 20220165422 A KR20220165422 A KR 20220165422A
- Authority
- KR
- South Korea
- Prior art keywords
- light
- light source
- output
- disposed
- optical
- Prior art date
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 66
- 239000000758 substrate Substances 0.000 claims abstract description 27
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 239000011247 coating layer Substances 0.000 claims description 9
- 238000002834 transmittance Methods 0.000 claims description 3
- 230000001678 irradiating effect Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 10
- 239000000463 material Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 239000010410 layer Substances 0.000 description 3
- 101001045744 Sus scrofa Hepatocyte nuclear factor 1-beta Proteins 0.000 description 2
- 239000012790 adhesive layer Substances 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H04N5/2253—
-
- H04N5/2254—
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 카메라 장치에 관한 것이다. The present invention relates to a camera device.
3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 깊이 정보를 획득하는 방법으로, IR(Infrared) 구조광을 객체에 투사하는 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다. 3D content is applied in many fields such as education, manufacturing, and autonomous driving as well as games and culture, and depth maps are required to acquire 3D content. Depth information is information representing a distance in space, and represents perspective information of another point with respect to one point in a 2D image. As a method of acquiring depth information, a method of projecting IR (Infrared) structured light onto an object, a method using a stereo camera, a Time of Flight (TOF) method, and the like are used.
ToF 방식에 따르면, 비행 시간, 즉 빛을 쏘아서 반사되어 오는 시간을 측정함으로써 물체와의 거리를 계산한다. ToF 방식의 가장 큰 장점은 3차원 공간에 대한 거리 정보를 실시간으로 빠르게 제공한다는 점에 있다. 또한 사용자가 별도의 알고리즘 적용이나 하드웨어적 보정을 하지 않고도 정확한 거리 정보를 얻을 수 있다. 또한 매우 가까운 피사체를 측정하거나 움직이는 피사체를 측정하여도 정확한 깊이 정보를 획득할 수 있다.According to the ToF method, the distance to an object is calculated by measuring the time of flight, that is, the time it takes for light to be emitted and reflected. The biggest advantage of the ToF method is that it quickly provides distance information about a 3D space in real time. In addition, the user can obtain accurate distance information without applying a separate algorithm or hardware correction. In addition, accurate depth information can be obtained even when a very close subject is measured or a moving subject is measured.
최근, 모바일 또는 차량에서 ToF 방식에 따른 카메라 장치를 이용하여 입체 영상을 촬영하거나, 안면 인식 또는 정맥 인식 등의 생체 인식을 하는 기능이 요구되고 있다. 일반적으로, ToF 방식에 따른 카메라 장치는 객체를 향하여 IR 광을 출력한다. IR 광은 사람의 눈에 보이지 않으므로, 카메라 장치의 오류 또는 렌즈 손상 등으로 인하여 인체에 안전한 수준보다 높은 양의 IR 광이 장기간 출력되더라도 사용자가 이를 인지하기 어려울 수 있다. 이에 따라, ToF 방식에 따른 카메라 장치로부터 출력되는 IR 광을 주기적으로 모니터링하여 인체 안전성을 확보할 필요가 있다.Recently, a function of taking a 3D image using a ToF-based camera device or performing biometric recognition such as face recognition or vein recognition in a mobile or vehicle has been demanded. In general, a ToF-based camera device outputs IR light toward an object. Since IR light is invisible to the human eye, it may be difficult for a user to perceive even if an amount of IR light higher than a level safe for the human body is output for a long period of time due to an error in a camera device or damage to a lens. Accordingly, it is necessary to periodically monitor the IR light output from the camera device according to the ToF method to ensure human safety.
본 발명이 이루고자 하는 기술적 과제는 인체 안전성을 확보할 수 있는 카메라 장치를 제공하는 것이다.A technical problem to be achieved by the present invention is to provide a camera device capable of securing human body safety.
본 발명의 실시예에 따른 카메라 장치는 IR 광 신호를 생성하여 객체에 조사하는 광출력부, 상기 객체로부터 반사된 후 입력된 IR 광 신호를 수신하는 광입력부, 상기 광입력부에 입력된 상기 IR 광 신호를 이용하여 상기 객체의 깊이 정보를 생성하는 깊이 정보 생성부, 그리고 상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 포함하며, 상기 광출력부는, 기판 상에 배치되며, 상기 IR 광 신호를 생성하는 광원, 상기 광원 상에 배치된 렌즈, 그리고 상기 기판 상에 배치되며, 상기 광원으로부터 출력된 후 상기 렌즈에 의해 반사된 상기 IR 광 신호를 검출하는 광검출부재를 포함하고, 상기 제어부는 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 소정 값을 초과할 때 상기 광원이 생성하는 상기 IR 광 신호의 양을 조절한다.A camera device according to an embodiment of the present invention includes an optical output unit for generating an IR light signal and irradiating it to an object, an optical input unit for receiving an input IR light signal after being reflected from the object, and the IR light input to the optical input unit. a depth information generation unit generating depth information of the object using a signal, and a control unit controlling the optical output unit, the optical input unit, and the depth information generation unit, wherein the optical output unit is disposed on a substrate; A light source generating the IR light signal, a lens disposed on the light source, and a photodetector disposed on the substrate and detecting the IR light signal output from the light source and reflected by the lens; , The controller adjusts the amount of the IR light signal generated by the light source when the IR light signal detected by the light detection member exceeds a predetermined value.
상기 렌즈는 상기 광원을 향하도록 배치된 제1면 및 상기 객체를 향하도록 배치된 제2면을 포함하며, 상기 제1면 및 상기 제2면 중 적어도 하나는 제1 영역, 그리고 상기 제1 영역보다 상기 광원으로부터 출력된 상기 IR 광의 투과율 낮고 반사율이 높은 제2 영역을 포함할 수 있다. The lens includes a first surface disposed to face the light source and a second surface disposed to face the object, wherein at least one of the first surface and the second surface comprises a first area and the first area. A second region having a lower transmittance and a higher reflectance of the IR light output from the light source may be included.
상기 제2 영역의 면적은 상기 제1면의 전체 면적 또는 상기 제2면의 전체 면적의 10 내지 30%일 수 있다.An area of the second region may be 10 to 30% of the total area of the first surface or the total area of the second surface.
상기 제2 영역은 상기 제1 영역의 가장자리에 형성될 수 있다.The second area may be formed at an edge of the first area.
상기 제2 영역에서는 상기 광원으로부터 출력된 상기 IR 광이 전반사될 수 있다.In the second area, the IR light output from the light source may be totally reflected.
상기 제2 영역은 적어도 하나의 홈을 포함할 수 있다.The second region may include at least one groove.
상기 제2 영역에는 상기 IR 광을 반사시키는 코팅층이 형성될 수 있다.A coating layer that reflects the IR light may be formed in the second region.
상기 제2 영역의 적어도 일부는 상기 광검출부재와 수직으로 중첩될 수 있다.At least a portion of the second region may vertically overlap the photodetecting member.
상기 광검출부재는 포토다이오드를 포함할 수 있다. The light detection member may include a photodiode.
상기 광검출부재 상에 배치된 집광부재를 더 포함할 수 있다. A light collecting member disposed on the light detecting member may be further included.
상기 광입력부는, 상기 기판 상에 배치된 이미지 센서, 그리고 상기 이미지 센서 상에 배치된 렌즈 어셈블리를 포함하고, 상기 이미지 센서, 상기 광원 및 상기 광검출부재는 상기 기판 상에서 상기 기판과 평행한 제1 방향을 따라 순차적으로 이격되어 배치될 수 있다.The light input unit includes an image sensor disposed on the substrate, and a lens assembly disposed on the image sensor, wherein the image sensor, the light source, and the photodetector member have a first surface on the substrate parallel to the substrate. It may be arranged spaced apart sequentially along the direction.
상기 제어부는 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 제1 기준 값을 초과할 때 상기 광원이 생성하는 상기 IR 광 신호의 양을 줄이고, 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 상기 제1 기준 값보다 높은 제2 기준 값을 초과할 때 상기 광원의 상기 IR 광 신호의 생성을 중단할 수 있다.The control unit reduces the amount of the IR light signal generated by the light source when the IR light signal detected by the photodetector exceeds a first reference value, and the IR light signal detected by the photodetector member. Generation of the IR light signal of the light source may be discontinued when R exceeds a second reference value higher than the first reference value.
본 발명의 실시예에 따르면, 카메라 장치로부터 출력되는 출력광 신호를 모니터링하며, 모니터링 결과에 따라 카메라 장치를 제어할 수 있다. 이에 따라, 인체 안전성이 확보된 카메라 장치를 얻을 수 있다.According to an embodiment of the present invention, an output light signal output from a camera device may be monitored, and the camera device may be controlled according to a monitoring result. In this way, it is possible to obtain a camera device in which human body safety is ensured.
도 1은 본 발명의 실시예에 따른 카메라 장치의 블록도이다.
도 2는 본 발명의 실시예에 따른 카메라 장치의 개략적인 단면도이다.
도 3은 본 발명의 한 실시예에 따른 카메라 장치의 블록도이다.
도 4는 본 발명의 한 실시예에 따른 카메라 장치의 단면도이다.
도 5는 본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법의 순서도이다.
도 6 내지 도 9는 본 발명의 실시예에 따른 광출력부의 렌즈 구조의 예이다.
도 10 내지 도 13은 본 발명의 실시예에 따른 카메라 장치의 단면도이다.1 is a block diagram of a camera device according to an embodiment of the present invention.
2 is a schematic cross-sectional view of a camera device according to an embodiment of the present invention.
3 is a block diagram of a camera device according to an embodiment of the present invention.
4 is a cross-sectional view of a camera device according to an embodiment of the present invention.
5 is a flowchart of a method for generating depth information of a camera device according to an embodiment of the present invention.
6 to 9 are examples of a lens structure of an optical output unit according to an embodiment of the present invention.
10 to 13 are cross-sectional views of a camera device according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in a variety of different forms, and if it is within the scope of the technical idea of the present invention, one or more of the components among the embodiments can be selectively implemented. can be used by combining and substituting.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless explicitly specifically defined and described, can be generally understood by those of ordinary skill in the art to which the present invention belongs. It can be interpreted as meaning, and commonly used terms, such as terms defined in a dictionary, can be interpreted in consideration of contextual meanings of related technologies.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Also, terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular form may also include the plural form unless otherwise specified in the phrase, and when described as "at least one (or more than one) of A and (and) B and C", A, B, and C are combined. may include one or more of all possible combinations.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Also, terms such as first, second, A, B, (a), and (b) may be used to describe components of an embodiment of the present invention.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and the term is not limited to the nature, order, or order of the corresponding component.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.In addition, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected to, combined with, or connected to the other component, but also with the component. It may also include the case of being 'connected', 'combined', or 'connected' due to another component between the other components.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.In addition, when it is described as being formed or disposed on the "top (above) or bottom (bottom)" of each component, the top (top) or bottom (bottom) is not only a case where two components are in direct contact with each other, but also one A case in which another component above is formed or disposed between two components is also included. In addition, when expressed as "up (up) or down (down)", it may include the meaning of not only an upward direction but also a downward direction based on one component.
본 발명의 실시예에 따른 카메라 장치는 ToF(Time of Flight) 기능을 이용하여 깊이 정보를 추출하는 카메라를 의미할 수 있다. 따라서, 카메라 장치는 ToF 카메라 장치, ToF 카메라 모듈, ToF 카메라 등과 혼용될 수 있다.A camera device according to an embodiment of the present invention may refer to a camera that extracts depth information using a Time of Flight (ToF) function. Accordingly, the camera device may be used interchangeably with a ToF camera device, a ToF camera module, a ToF camera, and the like.
도 1은 본 발명의 실시예에 따른 카메라 장치의 블록도이고, 도 2는 본 발명의 실시예에 따른 카메라 장치의 개략적인 단면도이다.1 is a block diagram of a camera device according to an embodiment of the present invention, and FIG. 2 is a schematic cross-sectional view of a camera device according to an embodiment of the present invention.
도 1 및 도 2를 참조하면, 본 발명의 실시예에 따른 카메라 장치(1)는 광출력부(10), 광입력부(20), 깊이 정보 생성부(30) 및 제어부(40)를 포함한다. 1 and 2 , a
광출력부(10)는 출력광 신호를 생성한 후 객체에 조사한다. 이때, 광출력부(10)는 펄스파(pulse wave)의 형태나 지속파(continuous wave)의 형태로 출력광 신호를 생성하여 출력할 수 있다. 지속파는 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다. 출력광 신호를 펄스파나 지속파 형태로 생성함으로써, 카메라(1)는 광출력부(10)로부터 출력된 출력광 신호와 객체로부터 반사된 후 광입력부(20)로 입력된 입력광 신호 사이의 시간 차 또는 위상 차를 검출할 수 있다. 본 명세서에서, 출력광은 광출력부(10)로부터 출력되어 객체에 입사되는 광을 의미하고, 입력광은 광출력부(10)로부터 출력되어 객체에 도달한 후 객체로부터 반사되어 광입력부(20)로 입력되는 광을 의미할 수 있다. 객체의 입장에서 출력광은 입사광이 될 수 있고, 입력광은 반사광이 될 수 있다.The
광출력부(10)는 광원(100) 및 렌즈 어셈블리(110)를 포함할 수 있다. The
우선, 광원(100)은 빛을 생성한다. 광원(100)이 생성하는 빛은 파장이 770 내지 3000nm인 적외선일 수 있으며, 파장이 380 내지 770 nm인 가시광선 일 수도 있다. 광원(100)은 발광 다이오드(Light Emitting Diode, LED)를 이용할 수 있으며, 복수의 발광 다이오드가 일정한 패턴에 따라 배열된 형태를 가질 수 있다. 뿐만 아니라, 광원(100)은 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수도 있다. 또는, 광원(100)은 VCSEL(Vertical Cavity Surface Emitting Laser)일 수도 있다. VCSEL은 전기 신호를 광 신호로 바꾸어 주는 레이저 다이오드 중 하나이며, 약 800 내지 1000nm인 파장, 예를 들어 약 850nm 또는 약 940nm 파장을 출력할 수 있다. 광원(100)은 일정 시간 간격으로 점멸(on/off)을 반복하여 펄스파 형태나 지속파 형태의 출력광 신호를 생성한다. 일정 시간 간격은 출력광 신호의 주파수일 수 있다. First, the
렌즈 어셈블리(110)는 광원(100)으로부터 출력된 빛을 집광하고, 집광된 빛을 외부로 출력할 수 있다. 렌즈 어셈블리(110)는 광원(100)의 상부에서 광원(100)과 이격되어 배치될 수 있다. 여기서, 광원(100)의 상부란 광원(100)으로부터 빛이 출력되는 측을 의미할 수 있다. 렌즈 어셈블리(110)는 적어도 1매의 렌즈를 포함할 수 있다. 렌즈 어셈블리(110)가 복수 매의 렌즈를 포함하는 경우, 각 렌즈들은 중심축을 기준으로 정렬하여 광학계를 형성할 수 있다. 여기서, 중심축은 광학계의 광축(Optical axis)와 동일할 수 있다. The
렌즈 어셈블리(110)는 하우징(120)에 수용 또는 지지될 수 있다. 일 실시예에 따르면, 하우징(120)은 구동 모듈(미도시)과 결합될 수 있으며, 렌즈 어셈블리(110)는 구동 모듈(미도시)에 의해 광축 방향 또는 광축에 수직하는 방향으로 이동할 수 있다. The
한편, 광입력부(20)는 객체로부터 반사된 빛을 수신한다. 이를 위하여, 광입력부(20)는 객체로부터 반사된 입력광을 집광하는 렌즈 어셈블리(130), 필터(미도시) 및 렌즈 어셈블리(130)를 통과한 입력광을 전기신호로 변환하는 이미지 센서(140)를 포함할 수 있으며, 렌즈 어셈블리(130), 필터(미도시) 및 이미지 센서(140)는 하우징(150)에 수용 또는 지지될 수 있다. 광출력부(10) 측의 하우징(120)과 광입력부(20) 측의 하우징(150)이 서로 이격된 것으로 도시되어 있으나, 이로 제한되는 것은 아니며, 광출력부(10) 측의 하우징(120)과 광입력부(20) 측의 하우징(150)은 일체의 하우징일 수도 있다. Meanwhile, the
렌즈 어셈블리(130)의 광축은 이미지 센서(140)의 광축과 얼라인(align)될 수 있다. 필터(미도시)는 렌즈 어셈블리(130)와 이미지 센서(140) 사이에 배치되며, 소정 파장 범위를 갖는 빛을 필터링할 수 있다. 예를 들어, 필터(미도시)는 광출력부(10)가 출력하는 출력광의 파장 대역에서 빛을 통과시킬 수 있다. An optical axis of the
이미지 센서(140)는 광원(100)의 점멸 주기와 동기화되어 입력광 신호를 수신할 수 있다. 구체적으로, 이미지 센서(140)는 광원(100)으로부터 출력된 출력광 신호와 동상(in phase) 및 이상(out phase)에서 각각 빛을 수신할 수 있다. 즉, 이미지 센서(140)는 광원이 켜져 있는 시간에 입력광 신호를 수신하는 단계와 광원이 꺼져 있는 시간에 입력광 신호를 수신하는 단계를 반복 수행할 수 있다. 이미지 센서(140)는 서로 다른 위상차를 가지는 복수의 참조 신호(reference signal)를 이용하여 각 참조 신호에 대응하는 전기 신호를 생성할 수 있다. 참조 신호의 주파수는 광원(100)으로부터 출력된 출력광 신호의 주파수와 동일하게 설정될 수 있다. 따라서, 광원(100)이 복수의 주파수로 출력광 신호를 생성하는 경우, 이미지 센서(140)는 각 주파수에 대응하는 복수의 참조 신호를 이용하여 전기 신호를 생성한다. 전기 신호는 각 참조 신호에 대응하는 전하량이나 전압에 관한 정보를 포함할 수 있다. The
본 발명의 실시예에 따른 참조 신호는 4개(C1 내지 C4)일 수 있다. 각 참조 신호(C1 내지 C4)는 출력광 신호와 동일한 주파수를 가지되, 서로 90도 위상차를 가질 수 있다. 4개의 참조 신호 중 하나(C1)는 출력광 신호와 동일한 위상을 가질 수 있다. 입력광 신호는 출력광 신호가 객체에 입사된 후 반사되어 돌아오는 거리만큼 위상이 지연된다. 이미지 센서(140)는 입력광 신호와 각 참조 신호를 각각 믹싱(mixing)한다. 그러면, 이미지 센서(140)는 전기 신호를 각 참조 신호별로 생성할 수 있다. Reference signals according to an embodiment of the present invention may be four (C 1 to C 4 ). Each of the reference signals C 1 to C 4 may have the same frequency as the output optical signal, but may have a phase difference of 90 degrees from each other. One of the four reference signals (C 1 ) may have the same phase as the output light signal. The phase of the input light signal is delayed by the distance that the output light signal is incident on the object and reflected back. The
이미지 센서(140)는 복수의 픽셀이 그리드 형태로 배열된 구조로 구성될 수 있다. 이미지 센서(140)는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서일 수 있으며, CCD(Charge Coupled Device) 이미지 센서일 수도 있다. 또한, 이미지 센서(140)는 객체로부터 반사된 IR 광을 받아들여 시간 또는 위상 차를 이용해 거리를 측정하는 ToF 센서를 포함할 수 있다. 예를 들어, 각 픽셀은 출력광의 파형과 동일 위상에서 입력광 신호를 수신하는 In phase 수신 유닛 및 출력광의 파형과 반대 위상에서 입력광 신호를 수신하는 Out phase 수신 유닛을 포함할 수 있다. In phase 수신 유닛 및 Out phase 수신 유닛이 시간 차를 두고 활성화되면, 객체와의 거리에 따라 In phase 수신 유닛과 Out phase 수신 유닛이 수신하는 빛의 양에 차이가 발생하며, 이를 이용하여 객체의 거리가 연산될 수 있다. The
광입력부(20)는 광출력부(10)와 나란히 배치될 수 있다. 광입력부(20)는 광출력부(10) 옆에 배치될 수 있다. 광입력부(20)는 광출력부(10)와 같은 방향으로 배치될 수 있다.The
깊이 정보 생성부(30)는 광입력부(20)에 입력된 입력광 신호를 이용하여 객체의 깊이 정보를 생성할 수 있다. 예를 들어, 깊이 정보 생성부(30)는 광출력부(10)로부터 출력된 출력광 신호가 객체로부터 반사된 후 광입력부(20)에 입력되기까지 걸리는 비행시간을 이용하여 객체의 깊이 정보를 생성할 수 있다. 예를 들어, 깊이 정보 생성부(30)는 이미지 센서(140)로부터 수신한 전기신호를 이용하여 출력광 신호와 입력광 신호 사이의 위상차를 계산하고, 위상차를 이용하여 객체와 카메라(1) 사이의 거리를 계산한다. The depth
구체적으로, 깊이 정보 생성부(30)는 전기신호의 전하량 정보를 이용하여 출력광 신호와 입력광 신호 사이의 위상차를 계산할 수 있다. Specifically, the depth
상기에서 살펴본 바와 같이, 출력광 신호의 주파수마다 전기신호는 4개가 생성될 수 있다. 따라서, 깊이 정보 생성부(30)는 아래의 수학식 1을 이용하여 출력광 신호와 입력광 신호 사이의 위상차(td)를 계산할 수 있다. As described above, four electrical signals may be generated for each frequency of the output light signal. Accordingly, the
여기서, Q1 내지 Q4는 4개의 전기 신호 각각의 전하 충전량이다. Q1은 출력광 신호와 동일한 위상의 기준신호에 대응하는 전기신호의 전하량이다. Q2는 출력광 신호보다 위상이 180도 느린 기준신호에 대응하는 전기신호의 전하량이다. Q3는 출력광 신호보다 위상이 90도 느린 기준신호에 대응하는 전기신호의 전하량이다. Q4는 출력광 신호보다 위상이 270도 느린 기준신호에 대응하는 전기신호의 전하량이다.Here, Q 1 to Q 4 are charge amounts of each of the four electrical signals. Q 1 is the amount of charge of the electrical signal corresponding to the reference signal having the same phase as the output optical signal. Q 2 is an electric charge amount of an electrical signal corresponding to a reference signal whose phase is 180 degrees slower than that of the output optical signal. Q 3 is the charge amount of the electrical signal corresponding to the reference signal, which is 90 degrees slower than the output optical signal. Q 4 is the amount of electric charge of the electrical signal corresponding to the reference signal whose phase is 270 degrees slower than that of the output light signal.
그러면, 깊이 정보 생성부(30)는 출력광 신호와 입력광 신호의 위상차를 이용하여 객체와 카메라(1) 사이의 거리를 계산할 수 있다. 이때, 깊이 정보 생성부(30)는 아래의 수학식 2를 이용하여 객체와 카메라(1) 사이의 거리(d)를 계산할 수 있다.Then, the depth
여기서, c는 빛의 속도이고, f는 출력광의 주파수이다.Here, c is the speed of light and f is the frequency of the output light.
제어부(40)는 광출력부(10), 광입력부(20) 및 깊이 정보 생성부(30)의 구동을 제어한다. 깊이 정보 생성부(30) 및 제어부(40)는 광출력부(10) 및 광입력부(20)가 탑재된 PCB(printed circuit board)의 형태로 구현될 수 있다. 즉, 깊이 정보 생성부(30) 또는 제어부(40)는 기판(S) 상에 배치된 회로 패턴 또는 IC 칩에 의하여 구현될 수 있다. 또는, PCB는 FPCB(미도시)를 통해 커넥터와 연결될 수 있다. 또는, PCB와 FPCB는 RFPCB(Rigid Flexible PCB)로 구현될 수도 있다. 광출력부(10)의 광원(100)은 기판(S) 상에 배치되며, 기판(S) 상의 회로 패턴과 전기적으로 연결될 수 있다. 또는, 제어부(40)는 본 발명의 실시예에 따른 카메라(1)가 배치된 전자기기 내에 포함될 수도 있다. 예를 들어, 제어부(40)는 본 발명의 실시예에 따른 카메라 장치(1)가 탑재된 전자기기의 어플리케이션 프로세서(Application Processor, AP)의 형태로 구현될 수 있다.The
본 발명의 실시예에 따르면, ToF 방식에 따른 카메라 장치의 인체 안전성을 확보하기 위하여, 광출력부의 IR 광량을 모니터링하고자 한다.According to an embodiment of the present invention, in order to secure human body safety of a camera device according to the ToF method, an amount of IR light of an optical output unit is monitored.
도 3은 본 발명의 한 실시예에 따른 카메라 장치의 블록도이고, 도 4는 본 발명의 한 실시예에 따른 카메라 장치의 단면도이며, 도 5는 본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법의 순서도이다. 3 is a block diagram of a camera device according to an embodiment of the present invention, FIG. 4 is a cross-sectional view of a camera device according to an embodiment of the present invention, and FIG. 5 is a depth of the camera device according to an embodiment of the present invention. It is a flow chart of the information generation method.
도 3 내지 도 4를 참조하면, 본 발명의 한 실시예에 따른 카메라 장치(1)는 광출력부(10), 광입력부(20), 깊이 정보 생성부(30) 및 제어부(40)를 포함한다. 광출력부(10), 광입력부(20), 깊이 정보 생성부(30) 및 제어부(40)에 대하여 도 1 내지 도 2를 참조하여 설명한 내용과 동일한 내용에 대해서는 중복된 설명을 생략한다. 3 and 4 , a
본 발명의 실시예에 따르면, 광출력부(10)는 기판(S) 상에 배치되며, 출력광 신호를 생성하는 광원(100), 광원(100) 상에 배치된 렌즈 어셈블리(110), 기판(S) 상에 배치되며, 광원(100)으로부터 출력된 후 렌즈 어셈블리(110)에 의해 반사된 출력광 신호를 검출하는 광검출부재(160)를 포함하고, 제어부(40)는 광검출부재(160)에 의해 검출된 출력광 신호의 광량 또는 인텐시티가 소정 값을 초과할 때 광원(100)이 생성하는 출력광 신호의 광량 또는 인텐시티를 조절한다. 여기서, 소정 값은 규격에 의하여 미리 설정된 값으로, 인체에 영향을 미치는 IR 광의 광량 또는 인텐시티를 의미할 수 있다.According to an embodiment of the present invention, the
여기서, 기판(S)은 인쇄회로기판(printed circuit board, PCB)일 수 있으며, 기판(S) 상에 깊이 정보 생성부(30) 및 제어부(40)가 구현될 수 있다. Here, the substrate S may be a printed circuit board (PCB), and the depth
도 5를 참조하면, 본 발명의 실시예에 따른 카메라 장치(1)의 광원(100)은 인가된 출력광 신호를 생성하여 객체에 조사한다(S500). 여기서, 출력광 신호는 IR 광일 수 있다. 예를 들어, 출력광 신호는 파장이 770 내지 3000nm인 적외선일 수 있다. 또는, 출력광 신호는 파장이 800 내지 1500nm인 적외선일 수 있다. 또는, 출력광 신호는 파장이 800 내지 1000nm인 적외선일 수 있다. 또는, 출력광 신호는 파장이 850 내지 940nm인 적외선일 수 있다. Referring to FIG. 5 , the
광검출부재(160)는 광원(100)으로부터 출력된 후 렌즈 어셈블리(110)에 의해 반사된 출력광 신호를 검출한다(S510). 여기서, 렌즈 어셈블리(110)에 의해 반사된 출력광 신호는 광출력부(10)의 외부로 출력되지 못하고 광출력부(10)의 내부에서 반사된 광 신호일 수 있다. The
제어부(40)는 광검출부재(160)에 의해 검출된 출력광 신호를 소정의 기준 값과 비교하며(S520), 광검출부재(160)에 의해 검출된 출력광 신호 소정의 기준 값을 초과할 때, 광원(100)이 생성하는 출력광 신호의 양을 조절할 수 있다(S530). 예를 들어, 제어부(40)는 광검출부재(160)에 의하여 검출된 출력광 신호가 제1 기준 값을 초과할 때 광원(100)이 생성하는 출력광 신호의 양을 줄이고, 광검출부재(160)에 의하여 검출된 출력광 신호가 제1 기준 값보다 높은 제2 기준 값을 초과할 때 광원(100)의 출력광 신호의 생성을 중단할 수 있다. 단계 S510 내지 단계 S530은 주기적으로 수행되거나, 사용자 인터페이스를 통한 요청 수신 시 수행될 수 있다. The
그리고, 광입력부(20)는 객체로부터 반사된 후 입력된 입력광 신호를 수신하며(S540), 깊이 정보 생성부(30)는 입력광 신호를 이용하여 객체의 깊이 정보를 생성한다(S550).Then, the
이에 따르면, 소정의 기준 값을 초과하는 IR 광 신호가 출력되는 경우, 카메라 장치(1)가 이를 감지하며, IR 광 신호의 광량을 조절할 수 있으므로, 인체 안전성이 확보될 수 있다. According to this, when an IR light signal exceeding a predetermined reference value is output, the
다시 도 4를 참조하면, 기판(S) 상에 광출력부(10) 및 광입력부(20)가 배치된다. 광출력부(10)는 기판(S) 상에 배치된 광원(100), 광원(100) 상에 배치된 렌즈 어셈블리(110) 및 기판(S) 상에 배치된 광검출부재(160)를 포함한다. Referring back to FIG. 4 , the
여기서, 렌즈 어셈블리(110)는 광의 굴절, 반사 및 회절 특성 등을 이용하여 광 지향각(divergence angle) 및 광 균일도(light uniformity)를 변경시키는 광전달부재이며, 광원(100)의 광축 상에 배치될 수 있다. 도 4에는 1매의 렌즈가 도시되어 있으나, 이로 제한되는 것은 아니며, 렌즈 어셈블리(110)는 굴절 렌즈, 집광 렌즈, 회절 소자, 확산판, 거울 등을 포함할 수 있다. Here, the
광검출부재(160)는 광원(100)으로부터 출력된 후 렌즈 어셈블리(110)에 의해 반사된 광을 수신하여 전기적 신호로 변환하는 포토다이오드(photo diode, PD)를 포함할 수 있다. 여기서, 렌즈 어셈블리(110)에 의해 반사된 광은 광출력부(10) 외부로 출력되지 못하고 렌즈 어셈블리(110)를 이루는 복수의 구성 요소 중 적어도 하나에 의해 반사된 광을 의미할 수 있다. 이를 위하여, 광검출부재(160)는 광출력부(10)의 하우징(120) 내에 배치될 수 있다. 광검출부재(160)가 광출력부(10)의 하우징(120) 내에 배치되면, 광출력부(10)로부터 출력되는 IR 광을 검출하기 위한 별도의 외부 장치가 요구되지 않는다.The
한편, 광입력부(10)는 기판(S) 상에 배치된 이미지 센서(140), 그리고 이미지 센서(140) 상에 배치된 렌즈 어셈블리(130)를 포함한다. 즉, 광출력부(10)의 광원(100) 및 광검출부재(160)와 광입력부(20)의 이미지 센서(140)는 모두 기판(S) 상에 배치될 수 있다. 이때, 이미지 센서(140), 광원(100) 및 광검출부재(160)는 기판(S) 상에서 기판(S)과 평행한 제1 방향을 따라 순차적으로 이격되어 배치될 수 있다. 즉, 이미지 센서(140) 및 광검출부재(160)는 광원(100)을 사이에 두고 배치될 수 있다. 이와 같이, 이미지 센서(140)와 광검출부재(160)가 서로 이웃하지 않도록 배치되면, 이미지 센서(140)에 입력되는 광 신호가 크로스토크에 의하여 광검출부재(160)에 영향을 미치는 문제를 방지할 수 있다.Meanwhile, the
본 발명의 실시예에 따르면, 렌즈 어셈블리(110)의 구조를 이용하여 광검출부재(160)의 광수신 효율을 높일 수 있다. According to the exemplary embodiment of the present invention, light reception efficiency of the
도 6 내지 도 9는 본 발명의 실시예에 따른 광출력부의 렌즈 구조의 예이다. 설명의 편의를 위하여, 광원(100) 상에 1매의 렌즈(112)가 배치된 예를 도시하고 있으나 이로 제한되는 것은 아니다. 광원(100) 상에 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)가 배치될 수 있으며, 본 발명의 실시예에 따른 렌즈 구조는 복수 매의 렌즈 중 적어도 1매의 렌즈에 적용될 수 있다.6 to 9 are examples of a lens structure of an optical output unit according to an embodiment of the present invention. For convenience of description, an example in which one
도 6 내지 도 9를 참조하면, 광원(100) 상에 배치된 렌즈(112)는 광원(100)을 향하도록 배치된 제1면(112A) 및 객체를 향하도록 배치된 제2면(112B)을 포함하며, 제1면(112A) 및 제2면(112B) 중 적어도 하나는 제1 영역(112R1), 그리고 제1 영역(112R1)보다 광원(100)으로부터 출력된 IR 광의 투과율이 낮고 반사율이 높은 제2 영역(112R2)을 포함할 수 있다. 이에 따르면, 광원(100)으로부터 출력된 후 제1 영역(112R1)에 입사된 IR 광은 렌즈(112)를 통과하여 외부로 출력되며, 광원(100)으로부터 출력된 후 제2 영역(112R2)에 입사된 IR 광은 렌즈(112)에서 반사되어 외부로 출력되지 못하며, 광검출부재(160)에 의하여 검출될 수 있다. 본 발명의 실시예에 따르면, 제2 영역(112R2)에서 반사된 IR 광이 광검출부재(160)에 의하여 검출될 수 있으며, 광검출부재(160)에 의하여 검출된 IR 광의 광량 또는 인텐시티로부터 카메라 장치(1)의 제어부(40)의 오류 또는 렌즈 어셈블리의 손상에 따른 IR 광의 출력 이상을 추정할 수 있다. 6 to 9, the
이때, 제2 영역(112R2)의 면적은 제1면(112A)의 면적 또는 제2 면(112B)의 면적의 10 내지 30%, 바람직하게는 15 내지 25%일 수 있다. 이에 따르면, 광출력부(10)의 외부로 출력되는 광량 및 면적을 충분히 확보하면서도, 광검출부재(160)에 의하여 검출되는 유효한 수준의 광량을 얻을 수 있다. 그리고, 제2 영역(112R2)은 제1 영역(112R1)의 가장자리에 배치될 수 있다. 이에 따르면, 광원(100)으로부터 출력된 IR 광의 주광선이 외부로 출력되어 깊이 정보 추출에 이용될 수 있으므로, 본 발명의 실시예에 따른 렌즈 구조가 깊이 정보 추출의 성능에 미치는 영향을 최소화할 수 있다. In this case, the area of the second region 112R2 may be 10 to 30%, preferably 15 to 25% of the area of the
여기서, 제1면(112A)은 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)에서 광원(100)에 가장 가까운 면을 의미할 수도 있다. 그리고, 제2면(112B)은 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)에서 객체에 가장 가까운 면을 의미할 수도 있다. 제2 영역(112R2)이 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)에서 광원(100)에 가장 가까운 면에 형성된 경우, 광검출부재(160)는 카메라 장치(1)의 제어부(40)의 오류에 따른 IR 광의 출력 이상을 추정할 수 있다. 이와 반대로, 제2 영역(112R2)이 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)에서 객체에 가장 가까운 면에 형성된 경우, 광검출부재(160)는 렌즈 손상에 따른 IR 광의 출력 이상을 추정할 수 있다.Here, the
여기서, 단일의 렌즈(112)의 제1면(112A) 또는 제2면(112B)에 제2 영역(112R2)이 형성되는 것을 예로 들어 설명하고 있으나, 이로 제한되는 것은 아니다. 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)에서 최외측 렌즈뿐만 아니라, 최외측 렌즈 사이에 배치된 적어도 하나의 렌즈에도 제2 영역(112R2)이 형성될 수 있다.Here, the formation of the second region 112R2 on the
본 발명의 실시예에 따르면, 광원(100)으로부터 출력된 IR 광은 제2 영역(112R2)에서 전반사될 수 있다. According to an embodiment of the present invention, IR light output from the
이를 위하여, 도 6a 내지 도 6b에 도시된 바와 같이, 렌즈(112)의 제2 영역(112R2)에는 적어도 하나의 홈(600)이 형성될 수 있다. 적어도 하나의 홈(600)은 광원(100)으로부터 출력된 IR 광이 전반사되는 굴절면을 이루도록 형성될 수 있으며, 홈(600)의 단면은 곡선 형상(도 6a) 또는 직선 형상(도 6b)을 가질 수 있다. 도 6a 내지 도 6b에는 렌즈(112)의 양면 중 광원(100)을 향하도록 배치된 제1면(112A)에 제2 영역(112R2)이 형성된 것으로 도시되어 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 본 발명의 실시예에 따르면, 제2 영역(112R2)은 렌즈(112)의 양면 중 객체를 향하도록 배치된 제2면(112B)에 형성될 수도 있다. To this end, as shown in FIGS. 6A and 6B , at least one
또는, 도 7에 도시된 바와 같이, 렌즈(112)의 제2 영역(112R2)에는 적어도 하나의 제1 홈(700)이 형성되고, 제1 영역(112R1)에는 적어도 하나의 제2 홈(702)이 형성될 수도 있다. 여기서, 제1 홈(700)은 광원(100)으로부터 출력된 IR 광이 전반사되는 굴절면을 이루도록 형성될 수 있으며, 제2 홈(702)은 광원(100)으로부터 출력된 IR 광이 렌즈(112)로 입사되는 굴절면을 이루도록 형성될 수도 있다. 도 7에는 렌즈(112)의 양면 중 광원(100)을 향하도록 배치된 제1면(112A)에 제2 영역(112R2)이 형성된 것으로 도시되어 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 본 발명의 실시예에 따르면, 제2 영역(112R2)은 렌즈(112)의 양면 중 객체를 향하도록 배치된 제2면(112B)에 형성될 수도 있다. Alternatively, as shown in FIG. 7 , at least one
또는, 도 8에 도시된 바와 같이, 렌즈(112)의 제2 영역(112R2)에는 코팅층(800)이 형성될 수도 있다. 코팅층(800)은 IR 광을 반사시키는 물질을 포함할 수 있다. 여기서, 렌즈(112)의 양면 중 광원(100)을 향하도록 배치된 제1면(112A)에 제2 영역(112R2)이 형성된 것으로 도시되어 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 본 발명의 실시예에 따르면, 제2 영역(112R2)은 렌즈(112)의 양면 중 객체를 향하도록 배치된 제2면(112B)에 형성될 수도 있다. 렌즈(112)의 제2면(112B)에 IR 광을 반사시키는 물질을 포함하는 코팅층이 형성되는 경우, 렌즈(112)를 통과한 후 렌즈(112)의 제2면(112B)에서 반사되는 IR 광이 검출될 수 있다. 이러한 구조를 이용하면, 렌즈(112)의 파손을 용이하게 검출할 수 있다. Alternatively, as shown in FIG. 8 , the
또는, 도 9에 도시된 바와 같이, 렌즈(112)의 제2 영역(112R2)에는 IR 광을 반사시키는 물질을 포함하는 코팅층(800)이 형성되고, 렌즈(112)의 제1 영역(112R1)에는 IR 광의 반사를 방지하는 물질을 포함하는 코팅층(900)이 형성될 수도 있다. 이에 따르면, 제1 영역(112R1)에 입사된 IR 광은 렌즈(112)를 통하여 외부로 출력된 후 깊이 정보 생성에 이용될 수 있으며, 제2 영역(112R2)에 입사된 IR 광은 렌즈(112)로부터 반사되어 광검출부재(160)에 수신된 후 IR 광의 출력 이상 추정에 이용될 수 있다. 여기서, 렌즈(112)의 양면 중 광원(100)을 향하도록 배치된 제1면(112A)에 제1 영역(112R1) 및 제2 영역(112R2)이 형성된 것으로 도시되어 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 본 발명의 실시예에 따르면, 제1 영역(112R1) 및 제2 영역(112R2)은 렌즈(112)의 양면 중 객체를 향하도록 배치된 제2면(112B)에 형성될 수도 있다. 렌즈(112)의 제2면(112B)에 IR 광을 반사시키는 물질을 포함하는 코팅층이 형성되는 경우, 렌즈(112)를 통과한 후 렌즈(112)의 제2면(112B)에서 반사되는 IR 광이 검출될 수 있다. 이러한 구조를 이용하면, 렌즈(112)의 파손을 용이하게 검출할 수 있다. Alternatively, as shown in FIG. 9 , a
도 6 내지 도 9를 참조하면, 제2 영역(112R2)의 적어도 일부는 광검출부재(160)와 수직으로 중첩되도록 배치될 수 있다. 이에 따르면, 제2 영역(112R2)으로부터 반사된 광이 광검출부재(160)에 수신되는 효율을 높일 수 있다.Referring to FIGS. 6 to 9 , at least a portion of the second region 112R2 may be disposed to vertically overlap the
한편, 광검출부재(160)는 소정 수준 이상의 IR 광을 수신하여야 광량 변화를 감지할 수 있다. 또한, 광검출부재(160)는 특정 파장, 예를 들어 광원(100)이 출력한 광의 파장, 또는 인체에 영향을 미치기 때문에 광량이 제어되어야 하는 파장만을 감지할 수 있어야 한다. 그러나, 광출력부(10)가 나노초 또는 피코초 수준의 펄스를 구동하거나, 다양한 패턴 조명을 출력하게 될 경우, 광출력부(10)의 내부 구조가 복잡해질 수 있으며, 이는 광검출부재(160)의 검출 정확도를 낮출 수 있다. 본 발명의 실시예에 따르면, 광검출부재(160)의 구조를 개선하여 광출력부(10)의 렌즈 어셈블리(110)에서 반사된 광에 대한 수신 효율을 높이고자 한다.Meanwhile, the
도 10 내지 도 13은 본 발명의 실시예에 따른 카메라 장치의 단면도이다. 여기서, 도 1 내지 도 12를 통하여 설명한 내용과 동일한 내용에 대해서는 중복된 설명을 생략한다. 광출력부(10)의 렌즈 어셈블리(110)는 도 6 내지 도 9를 통하여 예시한 렌즈를 포함할 수 있다.10 to 13 are cross-sectional views of a camera device according to an embodiment of the present invention. Here, redundant descriptions of the same contents as those described with reference to FIGS. 1 to 12 will be omitted. The
도 10을 참조하면, 광검출부재(160) 상에는 빔 스플리터(162)가 더 배치될 수 있다. 여기서, 빔 스플리터(162)는 특정 파장의 빛이 광검출부재(160)의 표면 상에 고르게 퍼지도록 하는 코팅층을 포함할 수 있다. 이에 따르면, 광검출부재(160)가 검출하고자 하는 특정 파장의 빛이 광검출부재(160)에 고르게 퍼지므로, 광검출부재(160)의 광검출 성능을 높일 수 있다. Referring to FIG. 10 , a
도 11을 참조하면, 광검출부재(160) 상에는 집광부재(164)가 더 배치될 수도 있다. 집광부재(164)는 렌즈 어셈블리(110)로부터 반사된 소정 각도의 IR 광을 선택적으로 수신하여 광검출부재(160)에 전달할 수 있다. 이를 위하여, 집광부재(164)의 표면은 소정 각도의 곡면 또는 돌기를 가지도록 배치될 수 있다. Referring to FIG. 11 , a
여기서, 집광부재(164)는 광검출부재(160) 상에 직접 접촉하도록 배치될 수도 있고, 연결층을 통하여 간접 접촉하도록 배치될 수도 있다. 집광부재(164)가 광검출부재(160) 상에 직접 접촉하도록 배치되는 경우, 집광부재(164)와 광검출부재(160) 사이에는 에어갭이 있을 수 있다. 집광부재(164)와 광검출부재(160)가 연결층을 통하여 간접 접촉하도록 배치되는 경우, 연결층은 접착층일 수 있고, 접착층의 굴절률은 집광부재(164)의 굴절률과 상이할 수 있으며, 이에 따라 광검출부재(160)에 수신되는 광량을 높일 수 있다. Here, the
이상에서 광출력부(10)가 하나의 광원(100)을 포함하는 예를 중심으로 설명하고 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. In the above, the
본 발명의 실시예에 따르면, 광출력부(10)는 기판(S) 상에 서로 이격되도록 배치된 복수의 광원(100-1, 100-2)을 포함할 수 있으며, 광검출부재(160)는 복수의 광원(100-1, 100-2) 사이에 배치될 수 있다. According to an embodiment of the present invention, the
도 12 내지 도 13을 참조하면, 서로 이격되도록 배치된 제1 광원(100-1) 및 제2 광원(100-2) 사이에 광검출부재(160)가 배치될 수 있다. 이에 따르면, 광검출부재(160)는 제1 광원(100-1) 상에 배치된 렌즈 어셈블리(110-1)로부터 반사된 광 및 제2 광원(100-2) 상에 배치된 렌즈 어셈블리(110-2)로부터 반사된 광을 모두 수신할 수 있다. 이때, 광검출부재(160) 상에는 렌즈 어셈블리(110-1) 및 렌즈 어셈블리(110-2)로부터 반사된 광을 집광하는 집광부재(164)가 더 배치될 수 있다.Referring to FIGS. 12 and 13 , the
이에 따르면, 복수의 광원을 포함하는 광출력부(10)에서 광검출부재(160)를 배치하기 위한 별도의 공간을 최소화하면서도 복수의 광원에 대한 IR 광을 모니터링하는 것이 가능하다. 이때, 복수의 광원(100-1, 100-2)은 동시에 구동되거나, 순차적으로 구동될 수 있다. 복수의 광원(100-1, 100-2)이 순차적으로 구동되는 경우, 광검출부재(160)는 렌즈 어셈블리(110-1)로부터 반사된 IR 광 및 렌즈 어셈블리(110-2)로부터 반사된 IR 광을 순차적으로 수신 및 검출할 수 있으며, 이를 이용하여 제1 광원(100-1) 측의 IR 광 출력 이상인지, 아니면 제2 광원(100-2) 측의 IR 광 출력 이상인지 판별하는 것이 가능하다. According to this, it is possible to monitor the IR light of the plurality of light sources while minimizing a separate space for disposing the
한편, 렌즈 어셈블리(110-1) 및 렌즈 어셈블리(110-2)로부터 반사된 광의 집광 효율을 최적화하기 위하여, 집광부재(164)의 표면 형상은 도 13에 도시된 바와 같이 렌즈 어셈블리(110-1)로부터 반사된 광을 집광하는 제1 굴절면(164-1) 및 렌즈 어셈블리(110-2)로부터 반사된 광을 집광하는 제2 굴절면(164-2)으로 구분될 수도 있다. 제1 굴절면(164-1)의 곡률은 렌즈 어셈블리(110-1)와의 거리 및 위치에 따라 설계되며, 제2 굴절면(164-2)의 곡률은 렌즈 어셈블리(110-2)와의 거리 및 위치에 따라 설계될 수 있다.Meanwhile, in order to optimize the condensing efficiency of the light reflected from the lens assembly 110-1 and the lens assembly 110-2, the surface shape of the
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. Although the above has been described with reference to the embodiments, this is only an example and does not limit the present invention, and those skilled in the art to which the present invention belongs will not deviate from the essential characteristics of the present embodiment. It will be appreciated that various variations and applications are possible. For example, each component specifically shown in the embodiment can be modified and implemented. And differences related to these modifications and applications should be construed as being included in the scope of the present invention as defined in the appended claims.
1: 카메라 장치
10: 광출력부
20: 광입력부
30: 깊이 정보 생성부
40: 제어부
100: 광원
160: 광검출부재1: Camera device
10: optical output unit
20: optical input unit
30: depth information generator
40: control unit
100: light source
160: light detection member
Claims (12)
상기 객체로부터 반사된 후 입력된 IR 광 신호를 수신하는 광입력부,
상기 광입력부에 입력된 상기 IR 광 신호를 이용하여 상기 객체의 깊이 정보를 생성하는 깊이 정보 생성부, 그리고
상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 포함하며,
상기 광출력부는,
기판 상에 배치되며, 상기 IR 광 신호를 생성하는 광원,
상기 광원 상에 배치된 렌즈, 그리고
상기 기판 상에 배치되며, 상기 광원으로부터 출력된 후 상기 렌즈에 의해 반사된 상기 IR 광 신호를 검출하는 광검출부재를 포함하고,
상기 제어부는 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 소정 값을 초과할 때 상기 광원이 생성하는 상기 IR 광 신호의 양을 조절하는 카메라 장치.An optical output unit for generating an IR light signal and irradiating it to an object;
An optical input unit for receiving an input IR light signal after being reflected from the object;
a depth information generation unit configured to generate depth information of the object using the IR optical signal input to the optical input unit; and
A control unit controlling the optical output unit, the optical input unit, and the depth information generating unit;
The light output unit,
a light source disposed on a substrate and generating the IR light signal;
A lens disposed on the light source, and
a photodetector disposed on the substrate and detecting the IR light signal output from the light source and then reflected by the lens;
wherein the control unit adjusts the amount of the IR light signal generated by the light source when the IR light signal detected by the light detection member exceeds a predetermined value.
상기 렌즈는 상기 광원을 향하도록 배치된 제1면 및 상기 객체를 향하도록 배치된 제2면을 포함하며,
상기 제1면 및 상기 제2면 중 적어도 하나는 제1 영역, 그리고 상기 제1 영역보다 상기 광원으로부터 출력된 상기 IR 광의 투과율 낮고 반사율이 높은 제2 영역을 포함하는 카메라 장치. According to claim 1,
The lens includes a first surface disposed to face the light source and a second surface disposed to face the object,
At least one of the first surface and the second surface includes a first area and a second area having a lower transmittance and higher reflectance of the IR light output from the light source than the first area.
상기 제2 영역의 면적은 상기 제1면의 전체 면적 또는 상기 제2면의 전체 면적의 10 내지 30%인 카메라 장치. According to claim 2,
The area of the second region is 10 to 30% of the total area of the first surface or the total area of the second surface.
상기 제2 영역은 상기 제1 영역의 가장자리에 형성되는 카메라 장치. According to claim 3,
The second area is formed at an edge of the first area.
상기 제2 영역에서는 상기 광원으로부터 출력된 상기 IR 광이 전반사되는 카메라 장치. According to claim 3,
In the second area, the IR light output from the light source is totally reflected.
상기 제2 영역은 적어도 하나의 홈을 포함하는 카메라 장치.According to claim 5,
The second area includes at least one groove.
상기 제2 영역에는 상기 IR 광을 반사시키는 코팅층이 형성된 카메라 장치.According to claim 5,
A camera device having a coating layer reflecting the IR light formed in the second region.
상기 제2 영역의 적어도 일부는 상기 광검출부재와 수직으로 중첩되는 카메라 장치. According to claim 3,
At least a portion of the second area vertically overlaps the light detecting member.
상기 광검출부재는 포토다이오드를 포함하는 카메라 장치. According to claim 1,
The camera device according to claim 1 , wherein the light detecting member includes a photodiode.
상기 광검출부재 상에 배치된 집광부재를 더 포함하는 카메라 장치. According to claim 9,
A camera device further comprising a light collecting member disposed on the light detecting member.
상기 광입력부는,
상기 기판 상에 배치된 이미지 센서, 그리고
상기 이미지 센서 상에 배치된 렌즈 어셈블리를 포함하고,
상기 이미지 센서, 상기 광원 및 상기 광검출부재는 상기 기판 상에서 상기 기판과 평행한 제1 방향을 따라 순차적으로 이격되어 배치된 카메라 장치.According to claim 1,
The optical input unit,
An image sensor disposed on the substrate, and
A lens assembly disposed on the image sensor;
The image sensor, the light source, and the photodetector are sequentially spaced apart from each other on the substrate along a first direction parallel to the substrate.
상기 제어부는 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 제1 기준 값을 초과할 때 상기 광원이 생성하는 상기 IR 광 신호의 양을 줄이고, 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 상기 제1 기준 값보다 높은 제2 기준 값을 초과할 때 상기 광원의 상기 IR 광 신호의 생성을 중단하는 카메라 장치.According to claim 1,
The control unit reduces the amount of the IR light signal generated by the light source when the IR light signal detected by the photodetector exceeds a first reference value, and the IR light signal detected by the photodetector member. A camera device for stopping the generation of the IR light signal of the light source when A exceeds a second reference value higher than the first reference value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210074020A KR20220165422A (en) | 2021-06-08 | 2021-06-08 | Camera module |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210074020A KR20220165422A (en) | 2021-06-08 | 2021-06-08 | Camera module |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220165422A true KR20220165422A (en) | 2022-12-15 |
Family
ID=84439460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210074020A KR20220165422A (en) | 2021-06-08 | 2021-06-08 | Camera module |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220165422A (en) |
-
2021
- 2021-06-08 KR KR1020210074020A patent/KR20220165422A/en active Search and Examination
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942966B2 (en) | Object detection device and mobile device | |
US9329080B2 (en) | Modular optics for scanning engine having beam combining optics with a prism intercepted by both beam axis and collection axis | |
CN109901353B (en) | Light projection system | |
CN109991584A (en) | A kind of jamproof distance measurement method and depth camera | |
KR101695821B1 (en) | Depth image obtaining device and display device using same | |
KR102505234B1 (en) | Method for detecting biometric information using spatial litht modulators | |
KR20150065473A (en) | Camera for depth image measure and method of measuring depth image using the same | |
US20150138325A1 (en) | Camera integrated with light source | |
US11523095B2 (en) | Mems mirror-based extended reality projection with eye-tracking | |
US10436881B2 (en) | Photonics device | |
KR20180124953A (en) | A staggered array of light emitting devices for sweeping angular ranges | |
KR20150090777A (en) | Time of flight camera apparatus | |
CN105324688B (en) | Modularized optical device for scanning engine | |
KR20210033528A (en) | Detector to determine the position of at least one object | |
TWI829828B (en) | Camera device | |
KR20220165422A (en) | Camera module | |
WO2020187175A1 (en) | Light projection system and light projection method | |
US11467260B2 (en) | Hermetically sealed distance measuring apparatus | |
KR20210028520A (en) | Time of flight apparatus | |
JP3724483B2 (en) | Optical wireless transmission device | |
TW202100993A (en) | Optical projection apparatus and electronic device | |
US20200400423A1 (en) | Optoelectronic modules and methods for operating the same | |
CN216956618U (en) | Structured light projector, camera module and electronic equipment | |
CN113196284B (en) | Image pickup apparatus | |
KR20240055445A (en) | Camera device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |