KR20220165422A - Camera module - Google Patents

Camera module Download PDF

Info

Publication number
KR20220165422A
KR20220165422A KR1020210074020A KR20210074020A KR20220165422A KR 20220165422 A KR20220165422 A KR 20220165422A KR 1020210074020 A KR1020210074020 A KR 1020210074020A KR 20210074020 A KR20210074020 A KR 20210074020A KR 20220165422 A KR20220165422 A KR 20220165422A
Authority
KR
South Korea
Prior art keywords
light
light source
output
disposed
optical
Prior art date
Application number
KR1020210074020A
Other languages
Korean (ko)
Inventor
이기석
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020210074020A priority Critical patent/KR20220165422A/en
Publication of KR20220165422A publication Critical patent/KR20220165422A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • H04N5/2253
    • H04N5/2254

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)

Abstract

A camera device according to an embodiment of the present invention comprises: an optical output unit that generates an IR optical signal and irradiates the same to an object; an optical input unit that receives an IR optical signal input after reflection from the object; a depth information generating unit that generates depth information of the object using the IR optical signal input to the optical input unit; and a control unit that controls the optical output unit, the optical input unit, and the depth information generator. The optical output unit comprises: a light source disposed on a substrate and generating the IR light signal; a lens disposed on the light source; and a light detection member disposed on the substrate and detecting the IR light signal output from the light source and then reflected by the lens. The control unit adjusts the amount of the IR light signal generated by the light source when the IR light signal detected by the light detection member exceeds a predetermined value. Human safety can be ensured.

Description

카메라 장치{CAMERA MODULE}Camera device {CAMERA MODULE}

본 발명은 카메라 장치에 관한 것이다. The present invention relates to a camera device.

3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 깊이 정보를 획득하는 방법으로, IR(Infrared) 구조광을 객체에 투사하는 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다. 3D content is applied in many fields such as education, manufacturing, and autonomous driving as well as games and culture, and depth maps are required to acquire 3D content. Depth information is information representing a distance in space, and represents perspective information of another point with respect to one point in a 2D image. As a method of acquiring depth information, a method of projecting IR (Infrared) structured light onto an object, a method using a stereo camera, a Time of Flight (TOF) method, and the like are used.

ToF 방식에 따르면, 비행 시간, 즉 빛을 쏘아서 반사되어 오는 시간을 측정함으로써 물체와의 거리를 계산한다. ToF 방식의 가장 큰 장점은 3차원 공간에 대한 거리 정보를 실시간으로 빠르게 제공한다는 점에 있다. 또한 사용자가 별도의 알고리즘 적용이나 하드웨어적 보정을 하지 않고도 정확한 거리 정보를 얻을 수 있다. 또한 매우 가까운 피사체를 측정하거나 움직이는 피사체를 측정하여도 정확한 깊이 정보를 획득할 수 있다.According to the ToF method, the distance to an object is calculated by measuring the time of flight, that is, the time it takes for light to be emitted and reflected. The biggest advantage of the ToF method is that it quickly provides distance information about a 3D space in real time. In addition, the user can obtain accurate distance information without applying a separate algorithm or hardware correction. In addition, accurate depth information can be obtained even when a very close subject is measured or a moving subject is measured.

최근, 모바일 또는 차량에서 ToF 방식에 따른 카메라 장치를 이용하여 입체 영상을 촬영하거나, 안면 인식 또는 정맥 인식 등의 생체 인식을 하는 기능이 요구되고 있다. 일반적으로, ToF 방식에 따른 카메라 장치는 객체를 향하여 IR 광을 출력한다. IR 광은 사람의 눈에 보이지 않으므로, 카메라 장치의 오류 또는 렌즈 손상 등으로 인하여 인체에 안전한 수준보다 높은 양의 IR 광이 장기간 출력되더라도 사용자가 이를 인지하기 어려울 수 있다. 이에 따라, ToF 방식에 따른 카메라 장치로부터 출력되는 IR 광을 주기적으로 모니터링하여 인체 안전성을 확보할 필요가 있다.Recently, a function of taking a 3D image using a ToF-based camera device or performing biometric recognition such as face recognition or vein recognition in a mobile or vehicle has been demanded. In general, a ToF-based camera device outputs IR light toward an object. Since IR light is invisible to the human eye, it may be difficult for a user to perceive even if an amount of IR light higher than a level safe for the human body is output for a long period of time due to an error in a camera device or damage to a lens. Accordingly, it is necessary to periodically monitor the IR light output from the camera device according to the ToF method to ensure human safety.

본 발명이 이루고자 하는 기술적 과제는 인체 안전성을 확보할 수 있는 카메라 장치를 제공하는 것이다.A technical problem to be achieved by the present invention is to provide a camera device capable of securing human body safety.

본 발명의 실시예에 따른 카메라 장치는 IR 광 신호를 생성하여 객체에 조사하는 광출력부, 상기 객체로부터 반사된 후 입력된 IR 광 신호를 수신하는 광입력부, 상기 광입력부에 입력된 상기 IR 광 신호를 이용하여 상기 객체의 깊이 정보를 생성하는 깊이 정보 생성부, 그리고 상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 포함하며, 상기 광출력부는, 기판 상에 배치되며, 상기 IR 광 신호를 생성하는 광원, 상기 광원 상에 배치된 렌즈, 그리고 상기 기판 상에 배치되며, 상기 광원으로부터 출력된 후 상기 렌즈에 의해 반사된 상기 IR 광 신호를 검출하는 광검출부재를 포함하고, 상기 제어부는 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 소정 값을 초과할 때 상기 광원이 생성하는 상기 IR 광 신호의 양을 조절한다.A camera device according to an embodiment of the present invention includes an optical output unit for generating an IR light signal and irradiating it to an object, an optical input unit for receiving an input IR light signal after being reflected from the object, and the IR light input to the optical input unit. a depth information generation unit generating depth information of the object using a signal, and a control unit controlling the optical output unit, the optical input unit, and the depth information generation unit, wherein the optical output unit is disposed on a substrate; A light source generating the IR light signal, a lens disposed on the light source, and a photodetector disposed on the substrate and detecting the IR light signal output from the light source and reflected by the lens; , The controller adjusts the amount of the IR light signal generated by the light source when the IR light signal detected by the light detection member exceeds a predetermined value.

상기 렌즈는 상기 광원을 향하도록 배치된 제1면 및 상기 객체를 향하도록 배치된 제2면을 포함하며, 상기 제1면 및 상기 제2면 중 적어도 하나는 제1 영역, 그리고 상기 제1 영역보다 상기 광원으로부터 출력된 상기 IR 광의 투과율 낮고 반사율이 높은 제2 영역을 포함할 수 있다. The lens includes a first surface disposed to face the light source and a second surface disposed to face the object, wherein at least one of the first surface and the second surface comprises a first area and the first area. A second region having a lower transmittance and a higher reflectance of the IR light output from the light source may be included.

상기 제2 영역의 면적은 상기 제1면의 전체 면적 또는 상기 제2면의 전체 면적의 10 내지 30%일 수 있다.An area of the second region may be 10 to 30% of the total area of the first surface or the total area of the second surface.

상기 제2 영역은 상기 제1 영역의 가장자리에 형성될 수 있다.The second area may be formed at an edge of the first area.

상기 제2 영역에서는 상기 광원으로부터 출력된 상기 IR 광이 전반사될 수 있다.In the second area, the IR light output from the light source may be totally reflected.

상기 제2 영역은 적어도 하나의 홈을 포함할 수 있다.The second region may include at least one groove.

상기 제2 영역에는 상기 IR 광을 반사시키는 코팅층이 형성될 수 있다.A coating layer that reflects the IR light may be formed in the second region.

상기 제2 영역의 적어도 일부는 상기 광검출부재와 수직으로 중첩될 수 있다.At least a portion of the second region may vertically overlap the photodetecting member.

상기 광검출부재는 포토다이오드를 포함할 수 있다. The light detection member may include a photodiode.

상기 광검출부재 상에 배치된 집광부재를 더 포함할 수 있다. A light collecting member disposed on the light detecting member may be further included.

상기 광입력부는, 상기 기판 상에 배치된 이미지 센서, 그리고 상기 이미지 센서 상에 배치된 렌즈 어셈블리를 포함하고, 상기 이미지 센서, 상기 광원 및 상기 광검출부재는 상기 기판 상에서 상기 기판과 평행한 제1 방향을 따라 순차적으로 이격되어 배치될 수 있다.The light input unit includes an image sensor disposed on the substrate, and a lens assembly disposed on the image sensor, wherein the image sensor, the light source, and the photodetector member have a first surface on the substrate parallel to the substrate. It may be arranged spaced apart sequentially along the direction.

상기 제어부는 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 제1 기준 값을 초과할 때 상기 광원이 생성하는 상기 IR 광 신호의 양을 줄이고, 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 상기 제1 기준 값보다 높은 제2 기준 값을 초과할 때 상기 광원의 상기 IR 광 신호의 생성을 중단할 수 있다.The control unit reduces the amount of the IR light signal generated by the light source when the IR light signal detected by the photodetector exceeds a first reference value, and the IR light signal detected by the photodetector member. Generation of the IR light signal of the light source may be discontinued when R exceeds a second reference value higher than the first reference value.

본 발명의 실시예에 따르면, 카메라 장치로부터 출력되는 출력광 신호를 모니터링하며, 모니터링 결과에 따라 카메라 장치를 제어할 수 있다. 이에 따라, 인체 안전성이 확보된 카메라 장치를 얻을 수 있다.According to an embodiment of the present invention, an output light signal output from a camera device may be monitored, and the camera device may be controlled according to a monitoring result. In this way, it is possible to obtain a camera device in which human body safety is ensured.

도 1은 본 발명의 실시예에 따른 카메라 장치의 블록도이다.
도 2는 본 발명의 실시예에 따른 카메라 장치의 개략적인 단면도이다.
도 3은 본 발명의 한 실시예에 따른 카메라 장치의 블록도이다.
도 4는 본 발명의 한 실시예에 따른 카메라 장치의 단면도이다.
도 5는 본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법의 순서도이다.
도 6 내지 도 9는 본 발명의 실시예에 따른 광출력부의 렌즈 구조의 예이다.
도 10 내지 도 13은 본 발명의 실시예에 따른 카메라 장치의 단면도이다.
1 is a block diagram of a camera device according to an embodiment of the present invention.
2 is a schematic cross-sectional view of a camera device according to an embodiment of the present invention.
3 is a block diagram of a camera device according to an embodiment of the present invention.
4 is a cross-sectional view of a camera device according to an embodiment of the present invention.
5 is a flowchart of a method for generating depth information of a camera device according to an embodiment of the present invention.
6 to 9 are examples of a lens structure of an optical output unit according to an embodiment of the present invention.
10 to 13 are cross-sectional views of a camera device according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in a variety of different forms, and if it is within the scope of the technical idea of the present invention, one or more of the components among the embodiments can be selectively implemented. can be used by combining and substituting.

또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless explicitly specifically defined and described, can be generally understood by those of ordinary skill in the art to which the present invention belongs. It can be interpreted as meaning, and commonly used terms, such as terms defined in a dictionary, can be interpreted in consideration of contextual meanings of related technologies.

또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Also, terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular form may also include the plural form unless otherwise specified in the phrase, and when described as "at least one (or more than one) of A and (and) B and C", A, B, and C are combined. may include one or more of all possible combinations.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Also, terms such as first, second, A, B, (a), and (b) may be used to describe components of an embodiment of the present invention.

이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and the term is not limited to the nature, order, or order of the corresponding component.

그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.In addition, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected to, combined with, or connected to the other component, but also with the component. It may also include the case of being 'connected', 'combined', or 'connected' due to another component between the other components.

또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.In addition, when it is described as being formed or disposed on the "top (above) or bottom (bottom)" of each component, the top (top) or bottom (bottom) is not only a case where two components are in direct contact with each other, but also one A case in which another component above is formed or disposed between two components is also included. In addition, when expressed as "up (up) or down (down)", it may include the meaning of not only an upward direction but also a downward direction based on one component.

본 발명의 실시예에 따른 카메라 장치는 ToF(Time of Flight) 기능을 이용하여 깊이 정보를 추출하는 카메라를 의미할 수 있다. 따라서, 카메라 장치는 ToF 카메라 장치, ToF 카메라 모듈, ToF 카메라 등과 혼용될 수 있다.A camera device according to an embodiment of the present invention may refer to a camera that extracts depth information using a Time of Flight (ToF) function. Accordingly, the camera device may be used interchangeably with a ToF camera device, a ToF camera module, a ToF camera, and the like.

도 1은 본 발명의 실시예에 따른 카메라 장치의 블록도이고, 도 2는 본 발명의 실시예에 따른 카메라 장치의 개략적인 단면도이다.1 is a block diagram of a camera device according to an embodiment of the present invention, and FIG. 2 is a schematic cross-sectional view of a camera device according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 발명의 실시예에 따른 카메라 장치(1)는 광출력부(10), 광입력부(20), 깊이 정보 생성부(30) 및 제어부(40)를 포함한다. 1 and 2 , a camera device 1 according to an embodiment of the present invention includes an optical output unit 10, an optical input unit 20, a depth information generator 30, and a control unit 40. .

광출력부(10)는 출력광 신호를 생성한 후 객체에 조사한다. 이때, 광출력부(10)는 펄스파(pulse wave)의 형태나 지속파(continuous wave)의 형태로 출력광 신호를 생성하여 출력할 수 있다. 지속파는 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다. 출력광 신호를 펄스파나 지속파 형태로 생성함으로써, 카메라(1)는 광출력부(10)로부터 출력된 출력광 신호와 객체로부터 반사된 후 광입력부(20)로 입력된 입력광 신호 사이의 시간 차 또는 위상 차를 검출할 수 있다. 본 명세서에서, 출력광은 광출력부(10)로부터 출력되어 객체에 입사되는 광을 의미하고, 입력광은 광출력부(10)로부터 출력되어 객체에 도달한 후 객체로부터 반사되어 광입력부(20)로 입력되는 광을 의미할 수 있다. 객체의 입장에서 출력광은 입사광이 될 수 있고, 입력광은 반사광이 될 수 있다.The light output unit 10 generates an output light signal and then irradiates it to the object. At this time, the light output unit 10 may generate and output an output light signal in the form of a pulse wave or a continuous wave. The continuous wave may be in the form of a sinusoid wave or a squared wave. By generating an output light signal in the form of a pulse wave or a continuous wave, the camera 1 determines the time between the output light signal output from the light output unit 10 and the input light signal reflected from the object and then input to the light input unit 20. A difference or phase difference can be detected. In this specification, the output light means light output from the light output unit 10 and incident on an object, and the input light is output from the light output unit 10, reaches the object, and is reflected from the object to form the light input unit 20 ) may mean light input. From the viewpoint of the object, the output light may be incident light and the input light may be reflected light.

광출력부(10)는 광원(100) 및 렌즈 어셈블리(110)를 포함할 수 있다. The light output unit 10 may include a light source 100 and a lens assembly 110 .

우선, 광원(100)은 빛을 생성한다. 광원(100)이 생성하는 빛은 파장이 770 내지 3000nm인 적외선일 수 있으며, 파장이 380 내지 770 nm인 가시광선 일 수도 있다. 광원(100)은 발광 다이오드(Light Emitting Diode, LED)를 이용할 수 있으며, 복수의 발광 다이오드가 일정한 패턴에 따라 배열된 형태를 가질 수 있다. 뿐만 아니라, 광원(100)은 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수도 있다. 또는, 광원(100)은 VCSEL(Vertical Cavity Surface Emitting Laser)일 수도 있다. VCSEL은 전기 신호를 광 신호로 바꾸어 주는 레이저 다이오드 중 하나이며, 약 800 내지 1000nm인 파장, 예를 들어 약 850nm 또는 약 940nm 파장을 출력할 수 있다. 광원(100)은 일정 시간 간격으로 점멸(on/off)을 반복하여 펄스파 형태나 지속파 형태의 출력광 신호를 생성한다. 일정 시간 간격은 출력광 신호의 주파수일 수 있다. First, the light source 100 generates light. Light generated by the light source 100 may be infrared rays having a wavelength of 770 to 3000 nm, or may be visible rays having a wavelength of 380 to 770 nm. The light source 100 may use a light emitting diode (LED), and may have a form in which a plurality of light emitting diodes are arranged according to a predetermined pattern. In addition, the light source 100 may include an organic light emitting diode (OLED) or a laser diode (LD). Alternatively, the light source 100 may be a vertical cavity surface emitting laser (VCSEL). A VCSEL is one of laser diodes that convert electrical signals into optical signals, and can output a wavelength of about 800 to 1000 nm, for example, about 850 nm or about 940 nm. The light source 100 generates an output light signal in the form of a pulse wave or a continuous wave by repeating blinking (on/off) at regular time intervals. The predetermined time interval may be the frequency of the output light signal.

렌즈 어셈블리(110)는 광원(100)으로부터 출력된 빛을 집광하고, 집광된 빛을 외부로 출력할 수 있다. 렌즈 어셈블리(110)는 광원(100)의 상부에서 광원(100)과 이격되어 배치될 수 있다. 여기서, 광원(100)의 상부란 광원(100)으로부터 빛이 출력되는 측을 의미할 수 있다. 렌즈 어셈블리(110)는 적어도 1매의 렌즈를 포함할 수 있다. 렌즈 어셈블리(110)가 복수 매의 렌즈를 포함하는 경우, 각 렌즈들은 중심축을 기준으로 정렬하여 광학계를 형성할 수 있다. 여기서, 중심축은 광학계의 광축(Optical axis)와 동일할 수 있다. The lens assembly 110 may condense light output from the light source 100 and output the condensed light to the outside. The lens assembly 110 may be disposed above the light source 100 and spaced apart from the light source 100 . Here, the upper part of the light source 100 may mean a side from which light is output from the light source 100 . The lens assembly 110 may include at least one lens. When the lens assembly 110 includes a plurality of lenses, each lens may be aligned with respect to a central axis to form an optical system. Here, the central axis may be the same as the optical axis of the optical system.

렌즈 어셈블리(110)는 하우징(120)에 수용 또는 지지될 수 있다. 일 실시예에 따르면, 하우징(120)은 구동 모듈(미도시)과 결합될 수 있으며, 렌즈 어셈블리(110)는 구동 모듈(미도시)에 의해 광축 방향 또는 광축에 수직하는 방향으로 이동할 수 있다. The lens assembly 110 may be accommodated or supported by the housing 120 . According to one embodiment, the housing 120 may be coupled to a driving module (not shown), and the lens assembly 110 may move in an optical axis direction or a direction perpendicular to the optical axis by the driving module (not shown).

한편, 광입력부(20)는 객체로부터 반사된 빛을 수신한다. 이를 위하여, 광입력부(20)는 객체로부터 반사된 입력광을 집광하는 렌즈 어셈블리(130), 필터(미도시) 및 렌즈 어셈블리(130)를 통과한 입력광을 전기신호로 변환하는 이미지 센서(140)를 포함할 수 있으며, 렌즈 어셈블리(130), 필터(미도시) 및 이미지 센서(140)는 하우징(150)에 수용 또는 지지될 수 있다. 광출력부(10) 측의 하우징(120)과 광입력부(20) 측의 하우징(150)이 서로 이격된 것으로 도시되어 있으나, 이로 제한되는 것은 아니며, 광출력부(10) 측의 하우징(120)과 광입력부(20) 측의 하우징(150)은 일체의 하우징일 수도 있다. Meanwhile, the light input unit 20 receives light reflected from an object. To this end, the optical input unit 20 includes a lens assembly 130 that collects input light reflected from an object, a filter (not shown), and an image sensor 140 that converts input light that has passed through the lens assembly 130 into an electrical signal. ), and the lens assembly 130, a filter (not shown), and the image sensor 140 may be accommodated or supported by the housing 150. The housing 120 on the side of the light output unit 10 and the housing 150 on the side of the light input unit 20 are shown as being spaced apart from each other, but are not limited thereto, and the housing 120 on the side of the light output unit 10 ) and the housing 150 on the side of the optical input unit 20 may be an integral housing.

렌즈 어셈블리(130)의 광축은 이미지 센서(140)의 광축과 얼라인(align)될 수 있다. 필터(미도시)는 렌즈 어셈블리(130)와 이미지 센서(140) 사이에 배치되며, 소정 파장 범위를 갖는 빛을 필터링할 수 있다. 예를 들어, 필터(미도시)는 광출력부(10)가 출력하는 출력광의 파장 대역에서 빛을 통과시킬 수 있다. An optical axis of the lens assembly 130 may be aligned with an optical axis of the image sensor 140 . A filter (not shown) is disposed between the lens assembly 130 and the image sensor 140 and may filter light having a predetermined wavelength range. For example, a filter (not shown) may pass light in a wavelength band of output light output from the light output unit 10 .

이미지 센서(140)는 광원(100)의 점멸 주기와 동기화되어 입력광 신호를 수신할 수 있다. 구체적으로, 이미지 센서(140)는 광원(100)으로부터 출력된 출력광 신호와 동상(in phase) 및 이상(out phase)에서 각각 빛을 수신할 수 있다. 즉, 이미지 센서(140)는 광원이 켜져 있는 시간에 입력광 신호를 수신하는 단계와 광원이 꺼져 있는 시간에 입력광 신호를 수신하는 단계를 반복 수행할 수 있다. 이미지 센서(140)는 서로 다른 위상차를 가지는 복수의 참조 신호(reference signal)를 이용하여 각 참조 신호에 대응하는 전기 신호를 생성할 수 있다. 참조 신호의 주파수는 광원(100)으로부터 출력된 출력광 신호의 주파수와 동일하게 설정될 수 있다. 따라서, 광원(100)이 복수의 주파수로 출력광 신호를 생성하는 경우, 이미지 센서(140)는 각 주파수에 대응하는 복수의 참조 신호를 이용하여 전기 신호를 생성한다. 전기 신호는 각 참조 신호에 대응하는 전하량이나 전압에 관한 정보를 포함할 수 있다. The image sensor 140 may receive an input light signal in synchronization with the blinking cycle of the light source 100 . Specifically, the image sensor 140 may receive light in phase and out of phase with the output light signal output from the light source 100 , respectively. That is, the image sensor 140 may repeatedly perform the step of receiving an input light signal while the light source is turned on and the step of receiving the input light signal while the light source is turned off. The image sensor 140 may generate an electrical signal corresponding to each reference signal using a plurality of reference signals having different phase differences. The frequency of the reference signal may be set equal to the frequency of the output light signal output from the light source 100 . Accordingly, when the light source 100 generates an output light signal with a plurality of frequencies, the image sensor 140 generates an electrical signal using a plurality of reference signals corresponding to each frequency. The electrical signal may include information about the amount of charge or voltage corresponding to each reference signal.

본 발명의 실시예에 따른 참조 신호는 4개(C1 내지 C4)일 수 있다. 각 참조 신호(C1 내지 C4)는 출력광 신호와 동일한 주파수를 가지되, 서로 90도 위상차를 가질 수 있다. 4개의 참조 신호 중 하나(C1)는 출력광 신호와 동일한 위상을 가질 수 있다. 입력광 신호는 출력광 신호가 객체에 입사된 후 반사되어 돌아오는 거리만큼 위상이 지연된다. 이미지 센서(140)는 입력광 신호와 각 참조 신호를 각각 믹싱(mixing)한다. 그러면, 이미지 센서(140)는 전기 신호를 각 참조 신호별로 생성할 수 있다. Reference signals according to an embodiment of the present invention may be four (C 1 to C 4 ). Each of the reference signals C 1 to C 4 may have the same frequency as the output optical signal, but may have a phase difference of 90 degrees from each other. One of the four reference signals (C 1 ) may have the same phase as the output light signal. The phase of the input light signal is delayed by the distance that the output light signal is incident on the object and reflected back. The image sensor 140 mixes the input light signal and each reference signal. Then, the image sensor 140 may generate electrical signals for each reference signal.

이미지 센서(140)는 복수의 픽셀이 그리드 형태로 배열된 구조로 구성될 수 있다. 이미지 센서(140)는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서일 수 있으며, CCD(Charge Coupled Device) 이미지 센서일 수도 있다. 또한, 이미지 센서(140)는 객체로부터 반사된 IR 광을 받아들여 시간 또는 위상 차를 이용해 거리를 측정하는 ToF 센서를 포함할 수 있다. 예를 들어, 각 픽셀은 출력광의 파형과 동일 위상에서 입력광 신호를 수신하는 In phase 수신 유닛 및 출력광의 파형과 반대 위상에서 입력광 신호를 수신하는 Out phase 수신 유닛을 포함할 수 있다. In phase 수신 유닛 및 Out phase 수신 유닛이 시간 차를 두고 활성화되면, 객체와의 거리에 따라 In phase 수신 유닛과 Out phase 수신 유닛이 수신하는 빛의 양에 차이가 발생하며, 이를 이용하여 객체의 거리가 연산될 수 있다. The image sensor 140 may have a structure in which a plurality of pixels are arranged in a grid shape. The image sensor 140 may be a complementary metal oxide semiconductor (CMOS) image sensor or a charge coupled device (CCD) image sensor. In addition, the image sensor 140 may include a ToF sensor that receives IR light reflected from an object and measures a distance using a time or phase difference. For example, each pixel may include an in-phase receiving unit receiving an input light signal in the same phase as the output light waveform and an out-phase receiving unit receiving the input light signal in the opposite phase to the output light waveform. When the in-phase receiving unit and the out-phase receiving unit are activated with a time difference, a difference occurs in the amount of light received by the in-phase receiving unit and the out-phase receiving unit according to the distance to the object. can be computed.

광입력부(20)는 광출력부(10)와 나란히 배치될 수 있다. 광입력부(20)는 광출력부(10) 옆에 배치될 수 있다. 광입력부(20)는 광출력부(10)와 같은 방향으로 배치될 수 있다.The optical input unit 20 may be disposed parallel to the optical output unit 10 . The optical input unit 20 may be disposed next to the optical output unit 10 . The optical input unit 20 may be disposed in the same direction as the optical output unit 10 .

깊이 정보 생성부(30)는 광입력부(20)에 입력된 입력광 신호를 이용하여 객체의 깊이 정보를 생성할 수 있다. 예를 들어, 깊이 정보 생성부(30)는 광출력부(10)로부터 출력된 출력광 신호가 객체로부터 반사된 후 광입력부(20)에 입력되기까지 걸리는 비행시간을 이용하여 객체의 깊이 정보를 생성할 수 있다. 예를 들어, 깊이 정보 생성부(30)는 이미지 센서(140)로부터 수신한 전기신호를 이용하여 출력광 신호와 입력광 신호 사이의 위상차를 계산하고, 위상차를 이용하여 객체와 카메라(1) 사이의 거리를 계산한다. The depth information generation unit 30 may generate depth information of an object using an input light signal input to the optical input unit 20 . For example, the depth information generation unit 30 calculates the depth information of the object by using a flight time required for the output light signal output from the optical output unit 10 to be input to the optical input unit 20 after being reflected from the object. can create For example, the depth information generating unit 30 calculates the phase difference between the output light signal and the input light signal using the electric signal received from the image sensor 140, and uses the phase difference to determine the distance between the object and the camera 1. calculate the distance of

구체적으로, 깊이 정보 생성부(30)는 전기신호의 전하량 정보를 이용하여 출력광 신호와 입력광 신호 사이의 위상차를 계산할 수 있다. Specifically, the depth information generating unit 30 may calculate a phase difference between the output light signal and the input light signal using charge amount information of the electric signal.

상기에서 살펴본 바와 같이, 출력광 신호의 주파수마다 전기신호는 4개가 생성될 수 있다. 따라서, 깊이 정보 생성부(30)는 아래의 수학식 1을 이용하여 출력광 신호와 입력광 신호 사이의 위상차(td)를 계산할 수 있다. As described above, four electrical signals may be generated for each frequency of the output light signal. Accordingly, the depth information generator 30 may calculate the phase difference t d between the output light signal and the input light signal using Equation 1 below.

Figure pat00001
Figure pat00001

여기서, Q1 내지 Q4는 4개의 전기 신호 각각의 전하 충전량이다. Q1은 출력광 신호와 동일한 위상의 기준신호에 대응하는 전기신호의 전하량이다. Q2는 출력광 신호보다 위상이 180도 느린 기준신호에 대응하는 전기신호의 전하량이다. Q3는 출력광 신호보다 위상이 90도 느린 기준신호에 대응하는 전기신호의 전하량이다. Q4는 출력광 신호보다 위상이 270도 느린 기준신호에 대응하는 전기신호의 전하량이다.Here, Q 1 to Q 4 are charge amounts of each of the four electrical signals. Q 1 is the amount of charge of the electrical signal corresponding to the reference signal having the same phase as the output optical signal. Q 2 is an electric charge amount of an electrical signal corresponding to a reference signal whose phase is 180 degrees slower than that of the output optical signal. Q 3 is the charge amount of the electrical signal corresponding to the reference signal, which is 90 degrees slower than the output optical signal. Q 4 is the amount of electric charge of the electrical signal corresponding to the reference signal whose phase is 270 degrees slower than that of the output light signal.

그러면, 깊이 정보 생성부(30)는 출력광 신호와 입력광 신호의 위상차를 이용하여 객체와 카메라(1) 사이의 거리를 계산할 수 있다. 이때, 깊이 정보 생성부(30)는 아래의 수학식 2를 이용하여 객체와 카메라(1) 사이의 거리(d)를 계산할 수 있다.Then, the depth information generating unit 30 may calculate the distance between the object and the camera 1 using the phase difference between the output light signal and the input light signal. In this case, the depth information generator 30 may calculate the distance d between the object and the camera 1 using Equation 2 below.

Figure pat00002
Figure pat00002

여기서, c는 빛의 속도이고, f는 출력광의 주파수이다.Here, c is the speed of light and f is the frequency of the output light.

제어부(40)는 광출력부(10), 광입력부(20) 및 깊이 정보 생성부(30)의 구동을 제어한다. 깊이 정보 생성부(30) 및 제어부(40)는 광출력부(10) 및 광입력부(20)가 탑재된 PCB(printed circuit board)의 형태로 구현될 수 있다. 즉, 깊이 정보 생성부(30) 또는 제어부(40)는 기판(S) 상에 배치된 회로 패턴 또는 IC 칩에 의하여 구현될 수 있다. 또는, PCB는 FPCB(미도시)를 통해 커넥터와 연결될 수 있다. 또는, PCB와 FPCB는 RFPCB(Rigid Flexible PCB)로 구현될 수도 있다. 광출력부(10)의 광원(100)은 기판(S) 상에 배치되며, 기판(S) 상의 회로 패턴과 전기적으로 연결될 수 있다. 또는, 제어부(40)는 본 발명의 실시예에 따른 카메라(1)가 배치된 전자기기 내에 포함될 수도 있다. 예를 들어, 제어부(40)는 본 발명의 실시예에 따른 카메라 장치(1)가 탑재된 전자기기의 어플리케이션 프로세서(Application Processor, AP)의 형태로 구현될 수 있다.The control unit 40 controls driving of the optical output unit 10 , the optical input unit 20 and the depth information generator 30 . The depth information generation unit 30 and the control unit 40 may be implemented in the form of a printed circuit board (PCB) on which the optical output unit 10 and the optical input unit 20 are mounted. That is, the depth information generator 30 or the controller 40 may be implemented by a circuit pattern or an IC chip disposed on the substrate S. Alternatively, the PCB may be connected to the connector through an FPCB (not shown). Alternatively, the PCB and FPCB may be implemented as a Rigid Flexible PCB (RFPCB). The light source 100 of the light output unit 10 is disposed on the substrate S and may be electrically connected to a circuit pattern on the substrate S. Alternatively, the controller 40 may be included in an electronic device in which the camera 1 according to the embodiment of the present invention is disposed. For example, the controller 40 may be implemented in the form of an application processor (AP) of an electronic device in which the camera device 1 according to an embodiment of the present invention is mounted.

본 발명의 실시예에 따르면, ToF 방식에 따른 카메라 장치의 인체 안전성을 확보하기 위하여, 광출력부의 IR 광량을 모니터링하고자 한다.According to an embodiment of the present invention, in order to secure human body safety of a camera device according to the ToF method, an amount of IR light of an optical output unit is monitored.

도 3은 본 발명의 한 실시예에 따른 카메라 장치의 블록도이고, 도 4는 본 발명의 한 실시예에 따른 카메라 장치의 단면도이며, 도 5는 본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법의 순서도이다. 3 is a block diagram of a camera device according to an embodiment of the present invention, FIG. 4 is a cross-sectional view of a camera device according to an embodiment of the present invention, and FIG. 5 is a depth of the camera device according to an embodiment of the present invention. It is a flow chart of the information generation method.

도 3 내지 도 4를 참조하면, 본 발명의 한 실시예에 따른 카메라 장치(1)는 광출력부(10), 광입력부(20), 깊이 정보 생성부(30) 및 제어부(40)를 포함한다. 광출력부(10), 광입력부(20), 깊이 정보 생성부(30) 및 제어부(40)에 대하여 도 1 내지 도 2를 참조하여 설명한 내용과 동일한 내용에 대해서는 중복된 설명을 생략한다. 3 and 4 , a camera device 1 according to an embodiment of the present invention includes an optical output unit 10, an optical input unit 20, a depth information generator 30, and a control unit 40. do. Redundant descriptions of the same contents of the optical output unit 10, the optical input unit 20, the depth information generator 30, and the control unit 40 as those described with reference to FIGS. 1 and 2 will be omitted.

본 발명의 실시예에 따르면, 광출력부(10)는 기판(S) 상에 배치되며, 출력광 신호를 생성하는 광원(100), 광원(100) 상에 배치된 렌즈 어셈블리(110), 기판(S) 상에 배치되며, 광원(100)으로부터 출력된 후 렌즈 어셈블리(110)에 의해 반사된 출력광 신호를 검출하는 광검출부재(160)를 포함하고, 제어부(40)는 광검출부재(160)에 의해 검출된 출력광 신호의 광량 또는 인텐시티가 소정 값을 초과할 때 광원(100)이 생성하는 출력광 신호의 광량 또는 인텐시티를 조절한다. 여기서, 소정 값은 규격에 의하여 미리 설정된 값으로, 인체에 영향을 미치는 IR 광의 광량 또는 인텐시티를 의미할 수 있다.According to an embodiment of the present invention, the light output unit 10 is disposed on the substrate S, the light source 100 for generating an output light signal, the lens assembly 110 disposed on the light source 100, the substrate It is disposed on (S), and includes a photodetector 160 for detecting an output light signal output from the light source 100 and then reflected by the lens assembly 110, and the control unit 40 includes a photodetector member ( When the light quantity or intensity of the output light signal detected by 160 exceeds a predetermined value, the light quantity or intensity of the output light signal generated by the light source 100 is adjusted. Here, the predetermined value is a value previously set according to standards, and may mean the amount or intensity of IR light affecting the human body.

여기서, 기판(S)은 인쇄회로기판(printed circuit board, PCB)일 수 있으며, 기판(S) 상에 깊이 정보 생성부(30) 및 제어부(40)가 구현될 수 있다. Here, the substrate S may be a printed circuit board (PCB), and the depth information generating unit 30 and the controller 40 may be implemented on the substrate S.

도 5를 참조하면, 본 발명의 실시예에 따른 카메라 장치(1)의 광원(100)은 인가된 출력광 신호를 생성하여 객체에 조사한다(S500). 여기서, 출력광 신호는 IR 광일 수 있다. 예를 들어, 출력광 신호는 파장이 770 내지 3000nm인 적외선일 수 있다. 또는, 출력광 신호는 파장이 800 내지 1500nm인 적외선일 수 있다. 또는, 출력광 신호는 파장이 800 내지 1000nm인 적외선일 수 있다. 또는, 출력광 신호는 파장이 850 내지 940nm인 적외선일 수 있다. Referring to FIG. 5 , the light source 100 of the camera device 1 according to the embodiment of the present invention generates an applied output light signal and radiates it to the object (S500). Here, the output light signal may be IR light. For example, the output light signal may be an infrared ray having a wavelength of 770 to 3000 nm. Alternatively, the output light signal may be an infrared ray having a wavelength of 800 to 1500 nm. Alternatively, the output light signal may be an infrared ray having a wavelength of 800 to 1000 nm. Alternatively, the output light signal may be an infrared ray having a wavelength of 850 to 940 nm.

광검출부재(160)는 광원(100)으로부터 출력된 후 렌즈 어셈블리(110)에 의해 반사된 출력광 신호를 검출한다(S510). 여기서, 렌즈 어셈블리(110)에 의해 반사된 출력광 신호는 광출력부(10)의 외부로 출력되지 못하고 광출력부(10)의 내부에서 반사된 광 신호일 수 있다. The light detecting member 160 detects an output light signal output from the light source 100 and then reflected by the lens assembly 110 (S510). Here, the output light signal reflected by the lens assembly 110 may not be output to the outside of the light output unit 10 and may be an optical signal reflected inside the light output unit 10 .

제어부(40)는 광검출부재(160)에 의해 검출된 출력광 신호를 소정의 기준 값과 비교하며(S520), 광검출부재(160)에 의해 검출된 출력광 신호 소정의 기준 값을 초과할 때, 광원(100)이 생성하는 출력광 신호의 양을 조절할 수 있다(S530). 예를 들어, 제어부(40)는 광검출부재(160)에 의하여 검출된 출력광 신호가 제1 기준 값을 초과할 때 광원(100)이 생성하는 출력광 신호의 양을 줄이고, 광검출부재(160)에 의하여 검출된 출력광 신호가 제1 기준 값보다 높은 제2 기준 값을 초과할 때 광원(100)의 출력광 신호의 생성을 중단할 수 있다. 단계 S510 내지 단계 S530은 주기적으로 수행되거나, 사용자 인터페이스를 통한 요청 수신 시 수행될 수 있다. The control unit 40 compares the output light signal detected by the photodetector 160 with a predetermined reference value (S520), and when the output light signal detected by the photodetector 160 exceeds the predetermined reference value, At this time, the amount of the output light signal generated by the light source 100 may be adjusted (S530). For example, the control unit 40 reduces the amount of the output light signal generated by the light source 100 when the output light signal detected by the light detection member 160 exceeds the first reference value, and the light detection member ( Generation of the output light signal of the light source 100 may be stopped when the output light signal detected by 160 exceeds a second reference value higher than the first reference value. Steps S510 to S530 may be performed periodically or when a request is received through the user interface.

그리고, 광입력부(20)는 객체로부터 반사된 후 입력된 입력광 신호를 수신하며(S540), 깊이 정보 생성부(30)는 입력광 신호를 이용하여 객체의 깊이 정보를 생성한다(S550).Then, the light input unit 20 receives the input light signal that is reflected from the object and then input (S540), and the depth information generator 30 generates depth information of the object using the input light signal (S550).

이에 따르면, 소정의 기준 값을 초과하는 IR 광 신호가 출력되는 경우, 카메라 장치(1)가 이를 감지하며, IR 광 신호의 광량을 조절할 수 있으므로, 인체 안전성이 확보될 수 있다. According to this, when an IR light signal exceeding a predetermined reference value is output, the camera device 1 can detect this and adjust the amount of light of the IR light signal, so human safety can be secured.

다시 도 4를 참조하면, 기판(S) 상에 광출력부(10) 및 광입력부(20)가 배치된다. 광출력부(10)는 기판(S) 상에 배치된 광원(100), 광원(100) 상에 배치된 렌즈 어셈블리(110) 및 기판(S) 상에 배치된 광검출부재(160)를 포함한다. Referring back to FIG. 4 , the optical output unit 10 and the optical input unit 20 are disposed on the substrate S. The light output unit 10 includes a light source 100 disposed on a substrate S, a lens assembly 110 disposed on the light source 100, and a light detecting member 160 disposed on the substrate S. do.

여기서, 렌즈 어셈블리(110)는 광의 굴절, 반사 및 회절 특성 등을 이용하여 광 지향각(divergence angle) 및 광 균일도(light uniformity)를 변경시키는 광전달부재이며, 광원(100)의 광축 상에 배치될 수 있다. 도 4에는 1매의 렌즈가 도시되어 있으나, 이로 제한되는 것은 아니며, 렌즈 어셈블리(110)는 굴절 렌즈, 집광 렌즈, 회절 소자, 확산판, 거울 등을 포함할 수 있다. Here, the lens assembly 110 is a light transmission member that changes the light divergence angle and light uniformity using refraction, reflection, and diffraction characteristics of light, and is disposed on the optical axis of the light source 100. It can be. Although a single lens is shown in FIG. 4, it is not limited thereto, and the lens assembly 110 may include a refractive lens, a condensing lens, a diffractive element, a diffusion plate, a mirror, and the like.

광검출부재(160)는 광원(100)으로부터 출력된 후 렌즈 어셈블리(110)에 의해 반사된 광을 수신하여 전기적 신호로 변환하는 포토다이오드(photo diode, PD)를 포함할 수 있다. 여기서, 렌즈 어셈블리(110)에 의해 반사된 광은 광출력부(10) 외부로 출력되지 못하고 렌즈 어셈블리(110)를 이루는 복수의 구성 요소 중 적어도 하나에 의해 반사된 광을 의미할 수 있다. 이를 위하여, 광검출부재(160)는 광출력부(10)의 하우징(120) 내에 배치될 수 있다. 광검출부재(160)가 광출력부(10)의 하우징(120) 내에 배치되면, 광출력부(10)로부터 출력되는 IR 광을 검출하기 위한 별도의 외부 장치가 요구되지 않는다.The light detecting member 160 may include a photodiode (PD) that receives light reflected by the lens assembly 110 after being output from the light source 100 and converts it into an electrical signal. Here, the light reflected by the lens assembly 110 may refer to light reflected by at least one of a plurality of components constituting the lens assembly 110 without being output to the outside of the light output unit 10 . To this end, the light detection member 160 may be disposed within the housing 120 of the light output unit 10 . When the light detection member 160 is disposed within the housing 120 of the light output unit 10, a separate external device for detecting IR light output from the light output unit 10 is not required.

한편, 광입력부(10)는 기판(S) 상에 배치된 이미지 센서(140), 그리고 이미지 센서(140) 상에 배치된 렌즈 어셈블리(130)를 포함한다. 즉, 광출력부(10)의 광원(100) 및 광검출부재(160)와 광입력부(20)의 이미지 센서(140)는 모두 기판(S) 상에 배치될 수 있다. 이때, 이미지 센서(140), 광원(100) 및 광검출부재(160)는 기판(S) 상에서 기판(S)과 평행한 제1 방향을 따라 순차적으로 이격되어 배치될 수 있다. 즉, 이미지 센서(140) 및 광검출부재(160)는 광원(100)을 사이에 두고 배치될 수 있다. 이와 같이, 이미지 센서(140)와 광검출부재(160)가 서로 이웃하지 않도록 배치되면, 이미지 센서(140)에 입력되는 광 신호가 크로스토크에 의하여 광검출부재(160)에 영향을 미치는 문제를 방지할 수 있다.Meanwhile, the optical input unit 10 includes an image sensor 140 disposed on the substrate S and a lens assembly 130 disposed on the image sensor 140 . That is, the light source 100 and the light detecting member 160 of the light output unit 10 and the image sensor 140 of the light input unit 20 may all be disposed on the substrate S. At this time, the image sensor 140, the light source 100, and the light detection member 160 may be sequentially spaced apart from each other along a first direction parallel to the substrate S on the substrate S. That is, the image sensor 140 and the light detecting member 160 may be disposed with the light source 100 interposed therebetween. In this way, if the image sensor 140 and the photodetector 160 are arranged so as not to be adjacent to each other, the problem that the optical signal input to the image sensor 140 affects the photodetector 160 due to crosstalk is solved. It can be prevented.

본 발명의 실시예에 따르면, 렌즈 어셈블리(110)의 구조를 이용하여 광검출부재(160)의 광수신 효율을 높일 수 있다. According to the exemplary embodiment of the present invention, light reception efficiency of the light detection member 160 may be increased by using the structure of the lens assembly 110 .

도 6 내지 도 9는 본 발명의 실시예에 따른 광출력부의 렌즈 구조의 예이다. 설명의 편의를 위하여, 광원(100) 상에 1매의 렌즈(112)가 배치된 예를 도시하고 있으나 이로 제한되는 것은 아니다. 광원(100) 상에 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)가 배치될 수 있으며, 본 발명의 실시예에 따른 렌즈 구조는 복수 매의 렌즈 중 적어도 1매의 렌즈에 적용될 수 있다.6 to 9 are examples of a lens structure of an optical output unit according to an embodiment of the present invention. For convenience of description, an example in which one lens 112 is disposed on the light source 100 is shown, but is not limited thereto. A lens assembly 110 including a plurality of lenses may be disposed on the light source 100, and the lens structure according to an embodiment of the present invention may be applied to at least one of the plurality of lenses.

도 6 내지 도 9를 참조하면, 광원(100) 상에 배치된 렌즈(112)는 광원(100)을 향하도록 배치된 제1면(112A) 및 객체를 향하도록 배치된 제2면(112B)을 포함하며, 제1면(112A) 및 제2면(112B) 중 적어도 하나는 제1 영역(112R1), 그리고 제1 영역(112R1)보다 광원(100)으로부터 출력된 IR 광의 투과율이 낮고 반사율이 높은 제2 영역(112R2)을 포함할 수 있다. 이에 따르면, 광원(100)으로부터 출력된 후 제1 영역(112R1)에 입사된 IR 광은 렌즈(112)를 통과하여 외부로 출력되며, 광원(100)으로부터 출력된 후 제2 영역(112R2)에 입사된 IR 광은 렌즈(112)에서 반사되어 외부로 출력되지 못하며, 광검출부재(160)에 의하여 검출될 수 있다. 본 발명의 실시예에 따르면, 제2 영역(112R2)에서 반사된 IR 광이 광검출부재(160)에 의하여 검출될 수 있으며, 광검출부재(160)에 의하여 검출된 IR 광의 광량 또는 인텐시티로부터 카메라 장치(1)의 제어부(40)의 오류 또는 렌즈 어셈블리의 손상에 따른 IR 광의 출력 이상을 추정할 수 있다. 6 to 9, the lens 112 disposed on the light source 100 includes a first surface 112A disposed to face the light source 100 and a second surface 112B disposed to face an object. At least one of the first surface 112A and the second surface 112B has a lower transmittance and reflectance of the IR light output from the light source 100 than the first region 112R1 and the first region 112R1. A high second region 112R2 may be included. According to this, the IR light incident on the first region 112R1 after being output from the light source 100 passes through the lens 112 and is output to the outside, and after being output from the light source 100, the IR light enters the second region 112R2. The incident IR light is reflected by the lens 112 and cannot be output to the outside, and can be detected by the photodetection member 160 . According to an embodiment of the present invention, the IR light reflected from the second region 112R2 may be detected by the photodetector 160, and the light amount or intensity of the IR light detected by the photodetector 160 may be detected by the camera. An abnormal output of IR light due to an error in the controller 40 of the device 1 or a damage to the lens assembly may be estimated.

이때, 제2 영역(112R2)의 면적은 제1면(112A)의 면적 또는 제2 면(112B)의 면적의 10 내지 30%, 바람직하게는 15 내지 25%일 수 있다. 이에 따르면, 광출력부(10)의 외부로 출력되는 광량 및 면적을 충분히 확보하면서도, 광검출부재(160)에 의하여 검출되는 유효한 수준의 광량을 얻을 수 있다. 그리고, 제2 영역(112R2)은 제1 영역(112R1)의 가장자리에 배치될 수 있다. 이에 따르면, 광원(100)으로부터 출력된 IR 광의 주광선이 외부로 출력되어 깊이 정보 추출에 이용될 수 있으므로, 본 발명의 실시예에 따른 렌즈 구조가 깊이 정보 추출의 성능에 미치는 영향을 최소화할 수 있다. In this case, the area of the second region 112R2 may be 10 to 30%, preferably 15 to 25% of the area of the first surface 112A or the area of the second surface 112B. According to this, it is possible to obtain an effective amount of light detected by the photodetector 160 while sufficiently securing the amount and area of light output to the outside of the light output unit 10 . Also, the second region 112R2 may be disposed at an edge of the first region 112R1. According to this, since the chief ray of IR light output from the light source 100 is output to the outside and can be used for extracting depth information, the effect of the lens structure according to an embodiment of the present invention on the performance of extracting depth information can be minimized. .

여기서, 제1면(112A)은 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)에서 광원(100)에 가장 가까운 면을 의미할 수도 있다. 그리고, 제2면(112B)은 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)에서 객체에 가장 가까운 면을 의미할 수도 있다. 제2 영역(112R2)이 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)에서 광원(100)에 가장 가까운 면에 형성된 경우, 광검출부재(160)는 카메라 장치(1)의 제어부(40)의 오류에 따른 IR 광의 출력 이상을 추정할 수 있다. 이와 반대로, 제2 영역(112R2)이 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)에서 객체에 가장 가까운 면에 형성된 경우, 광검출부재(160)는 렌즈 손상에 따른 IR 광의 출력 이상을 추정할 수 있다.Here, the first surface 112A may mean a surface closest to the light source 100 in the lens assembly 110 including a plurality of lenses. Also, the second surface 112B may mean a surface closest to the object in the lens assembly 110 including a plurality of lenses. When the second region 112R2 is formed on the surface closest to the light source 100 in the lens assembly 110 including a plurality of lenses, the light detecting member 160 is the control unit 40 of the camera device 1. An abnormal output of IR light according to an error can be estimated. Conversely, when the second region 112R2 is formed on the surface closest to the object in the lens assembly 110 including a plurality of lenses, the photodetector 160 may estimate an abnormal output of IR light due to lens damage. can

여기서, 단일의 렌즈(112)의 제1면(112A) 또는 제2면(112B)에 제2 영역(112R2)이 형성되는 것을 예로 들어 설명하고 있으나, 이로 제한되는 것은 아니다. 복수 매의 렌즈를 포함하는 렌즈 어셈블리(110)에서 최외측 렌즈뿐만 아니라, 최외측 렌즈 사이에 배치된 적어도 하나의 렌즈에도 제2 영역(112R2)이 형성될 수 있다.Here, the formation of the second region 112R2 on the first surface 112A or the second surface 112B of the single lens 112 has been described as an example, but is not limited thereto. In the lens assembly 110 including a plurality of lenses, the second region 112R2 may be formed not only on the outermost lens but also on at least one lens disposed between the outermost lenses.

본 발명의 실시예에 따르면, 광원(100)으로부터 출력된 IR 광은 제2 영역(112R2)에서 전반사될 수 있다. According to an embodiment of the present invention, IR light output from the light source 100 may be totally reflected in the second region 112R2.

이를 위하여, 도 6a 내지 도 6b에 도시된 바와 같이, 렌즈(112)의 제2 영역(112R2)에는 적어도 하나의 홈(600)이 형성될 수 있다. 적어도 하나의 홈(600)은 광원(100)으로부터 출력된 IR 광이 전반사되는 굴절면을 이루도록 형성될 수 있으며, 홈(600)의 단면은 곡선 형상(도 6a) 또는 직선 형상(도 6b)을 가질 수 있다. 도 6a 내지 도 6b에는 렌즈(112)의 양면 중 광원(100)을 향하도록 배치된 제1면(112A)에 제2 영역(112R2)이 형성된 것으로 도시되어 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 본 발명의 실시예에 따르면, 제2 영역(112R2)은 렌즈(112)의 양면 중 객체를 향하도록 배치된 제2면(112B)에 형성될 수도 있다. To this end, as shown in FIGS. 6A and 6B , at least one groove 600 may be formed in the second region 112R2 of the lens 112 . At least one groove 600 may be formed to form a refracting surface on which IR light output from the light source 100 is totally reflected, and the cross section of the groove 600 may have a curved shape (FIG. 6a) or a straight line shape (FIG. 6b). can 6A to 6B, it is shown that the second region 112R2 is formed on the first surface 112A disposed to face the light source 100 among both sides of the lens 112, but the embodiment of the present invention is limited thereto. It is not. According to an embodiment of the present invention, the second area 112R2 may be formed on the second surface 112B of both surfaces of the lens 112 disposed to face the object.

또는, 도 7에 도시된 바와 같이, 렌즈(112)의 제2 영역(112R2)에는 적어도 하나의 제1 홈(700)이 형성되고, 제1 영역(112R1)에는 적어도 하나의 제2 홈(702)이 형성될 수도 있다. 여기서, 제1 홈(700)은 광원(100)으로부터 출력된 IR 광이 전반사되는 굴절면을 이루도록 형성될 수 있으며, 제2 홈(702)은 광원(100)으로부터 출력된 IR 광이 렌즈(112)로 입사되는 굴절면을 이루도록 형성될 수도 있다. 도 7에는 렌즈(112)의 양면 중 광원(100)을 향하도록 배치된 제1면(112A)에 제2 영역(112R2)이 형성된 것으로 도시되어 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 본 발명의 실시예에 따르면, 제2 영역(112R2)은 렌즈(112)의 양면 중 객체를 향하도록 배치된 제2면(112B)에 형성될 수도 있다. Alternatively, as shown in FIG. 7 , at least one first groove 700 is formed in the second region 112R2 of the lens 112, and at least one second groove 702 is formed in the first region 112R1. ) may be formed. Here, the first groove 700 may be formed to form a refracting surface on which the IR light output from the light source 100 is totally reflected, and the second groove 702 is the IR light output from the light source 100 to the lens 112. It may be formed to form a refracting surface that is incident on. Although FIG. 7 shows that the second region 112R2 is formed on the first surface 112A of both sides of the lens 112 disposed to face the light source 100, the embodiment of the present invention is not limited thereto. According to an embodiment of the present invention, the second area 112R2 may be formed on the second surface 112B of both surfaces of the lens 112 disposed to face the object.

또는, 도 8에 도시된 바와 같이, 렌즈(112)의 제2 영역(112R2)에는 코팅층(800)이 형성될 수도 있다. 코팅층(800)은 IR 광을 반사시키는 물질을 포함할 수 있다. 여기서, 렌즈(112)의 양면 중 광원(100)을 향하도록 배치된 제1면(112A)에 제2 영역(112R2)이 형성된 것으로 도시되어 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 본 발명의 실시예에 따르면, 제2 영역(112R2)은 렌즈(112)의 양면 중 객체를 향하도록 배치된 제2면(112B)에 형성될 수도 있다. 렌즈(112)의 제2면(112B)에 IR 광을 반사시키는 물질을 포함하는 코팅층이 형성되는 경우, 렌즈(112)를 통과한 후 렌즈(112)의 제2면(112B)에서 반사되는 IR 광이 검출될 수 있다. 이러한 구조를 이용하면, 렌즈(112)의 파손을 용이하게 검출할 수 있다. Alternatively, as shown in FIG. 8 , the coating layer 800 may be formed on the second region 112R2 of the lens 112 . The coating layer 800 may include a material that reflects IR light. Here, it is illustrated that the second region 112R2 is formed on the first surface 112A disposed to face the light source 100 among both surfaces of the lens 112, but the embodiment of the present invention is not limited thereto. According to an embodiment of the present invention, the second area 112R2 may be formed on the second surface 112B of both surfaces of the lens 112 disposed to face the object. When a coating layer including a material that reflects IR light is formed on the second surface 112B of the lens 112, IR reflected from the second surface 112B of the lens 112 after passing through the lens 112 Light can be detected. Using this structure, damage to the lens 112 can be easily detected.

또는, 도 9에 도시된 바와 같이, 렌즈(112)의 제2 영역(112R2)에는 IR 광을 반사시키는 물질을 포함하는 코팅층(800)이 형성되고, 렌즈(112)의 제1 영역(112R1)에는 IR 광의 반사를 방지하는 물질을 포함하는 코팅층(900)이 형성될 수도 있다. 이에 따르면, 제1 영역(112R1)에 입사된 IR 광은 렌즈(112)를 통하여 외부로 출력된 후 깊이 정보 생성에 이용될 수 있으며, 제2 영역(112R2)에 입사된 IR 광은 렌즈(112)로부터 반사되어 광검출부재(160)에 수신된 후 IR 광의 출력 이상 추정에 이용될 수 있다. 여기서, 렌즈(112)의 양면 중 광원(100)을 향하도록 배치된 제1면(112A)에 제1 영역(112R1) 및 제2 영역(112R2)이 형성된 것으로 도시되어 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 본 발명의 실시예에 따르면, 제1 영역(112R1) 및 제2 영역(112R2)은 렌즈(112)의 양면 중 객체를 향하도록 배치된 제2면(112B)에 형성될 수도 있다. 렌즈(112)의 제2면(112B)에 IR 광을 반사시키는 물질을 포함하는 코팅층이 형성되는 경우, 렌즈(112)를 통과한 후 렌즈(112)의 제2면(112B)에서 반사되는 IR 광이 검출될 수 있다. 이러한 구조를 이용하면, 렌즈(112)의 파손을 용이하게 검출할 수 있다. Alternatively, as shown in FIG. 9 , a coating layer 800 including a material that reflects IR light is formed on the second region 112R2 of the lens 112, and the first region 112R1 of the lens 112 A coating layer 900 including a material preventing reflection of IR light may be formed on the surface. According to this, the IR light incident on the first region 112R1 may be output to the outside through the lens 112 and then used to generate depth information, and the IR light incident on the second region 112R2 may be output to the outside through the lens 112 . After being reflected from the photodetector 160 and received by the photodetector 160, it can be used for estimating an output abnormality of the IR light. Here, it is shown that the first region 112R1 and the second region 112R2 are formed on the first surface 112A of both sides of the lens 112 disposed to face the light source 100, but the embodiment of the present invention It is not limited to this. According to an embodiment of the present invention, the first area 112R1 and the second area 112R2 may be formed on the second surface 112B disposed to face the object among both surfaces of the lens 112 . When a coating layer including a material that reflects IR light is formed on the second surface 112B of the lens 112, IR reflected from the second surface 112B of the lens 112 after passing through the lens 112 Light can be detected. Using this structure, damage to the lens 112 can be easily detected.

도 6 내지 도 9를 참조하면, 제2 영역(112R2)의 적어도 일부는 광검출부재(160)와 수직으로 중첩되도록 배치될 수 있다. 이에 따르면, 제2 영역(112R2)으로부터 반사된 광이 광검출부재(160)에 수신되는 효율을 높일 수 있다.Referring to FIGS. 6 to 9 , at least a portion of the second region 112R2 may be disposed to vertically overlap the photodetector 160 . Accordingly, the efficiency of receiving the light reflected from the second region 112R2 by the photodetector 160 may be increased.

한편, 광검출부재(160)는 소정 수준 이상의 IR 광을 수신하여야 광량 변화를 감지할 수 있다. 또한, 광검출부재(160)는 특정 파장, 예를 들어 광원(100)이 출력한 광의 파장, 또는 인체에 영향을 미치기 때문에 광량이 제어되어야 하는 파장만을 감지할 수 있어야 한다. 그러나, 광출력부(10)가 나노초 또는 피코초 수준의 펄스를 구동하거나, 다양한 패턴 조명을 출력하게 될 경우, 광출력부(10)의 내부 구조가 복잡해질 수 있으며, 이는 광검출부재(160)의 검출 정확도를 낮출 수 있다. 본 발명의 실시예에 따르면, 광검출부재(160)의 구조를 개선하여 광출력부(10)의 렌즈 어셈블리(110)에서 반사된 광에 대한 수신 효율을 높이고자 한다.Meanwhile, the photodetector 160 can detect a change in light amount only when IR light of a predetermined level or higher is received. In addition, the light detecting member 160 should be able to detect only a specific wavelength, for example, a wavelength of light output from the light source 100 or a wavelength for which the amount of light should be controlled because it affects the human body. However, when the light output unit 10 drives nanosecond or picosecond level pulses or outputs various pattern lights, the internal structure of the light output unit 10 may become complicated, which is due to the fact that the light detection member 160 ) can lower the detection accuracy. According to an embodiment of the present invention, the receiving efficiency of the light reflected by the lens assembly 110 of the light output unit 10 is improved by improving the structure of the light detecting member 160 .

도 10 내지 도 13은 본 발명의 실시예에 따른 카메라 장치의 단면도이다. 여기서, 도 1 내지 도 12를 통하여 설명한 내용과 동일한 내용에 대해서는 중복된 설명을 생략한다. 광출력부(10)의 렌즈 어셈블리(110)는 도 6 내지 도 9를 통하여 예시한 렌즈를 포함할 수 있다.10 to 13 are cross-sectional views of a camera device according to an embodiment of the present invention. Here, redundant descriptions of the same contents as those described with reference to FIGS. 1 to 12 will be omitted. The lens assembly 110 of the light output unit 10 may include the lenses illustrated in FIGS. 6 to 9 .

도 10을 참조하면, 광검출부재(160) 상에는 빔 스플리터(162)가 더 배치될 수 있다. 여기서, 빔 스플리터(162)는 특정 파장의 빛이 광검출부재(160)의 표면 상에 고르게 퍼지도록 하는 코팅층을 포함할 수 있다. 이에 따르면, 광검출부재(160)가 검출하고자 하는 특정 파장의 빛이 광검출부재(160)에 고르게 퍼지므로, 광검출부재(160)의 광검출 성능을 높일 수 있다. Referring to FIG. 10 , a beam splitter 162 may be further disposed on the light detecting member 160 . Here, the beam splitter 162 may include a coating layer to evenly spread light of a specific wavelength on the surface of the photodetector 160 . According to this, since light of a specific wavelength to be detected by the photodetector 160 is evenly spread through the photodetector 160, the photodetection performance of the photodetector 160 can be improved.

도 11을 참조하면, 광검출부재(160) 상에는 집광부재(164)가 더 배치될 수도 있다. 집광부재(164)는 렌즈 어셈블리(110)로부터 반사된 소정 각도의 IR 광을 선택적으로 수신하여 광검출부재(160)에 전달할 수 있다. 이를 위하여, 집광부재(164)의 표면은 소정 각도의 곡면 또는 돌기를 가지도록 배치될 수 있다. Referring to FIG. 11 , a light collecting member 164 may be further disposed on the light detecting member 160 . The light collecting member 164 may selectively receive IR light of a predetermined angle reflected from the lens assembly 110 and transfer the IR light to the light detecting member 160 . To this end, the surface of the light collecting member 164 may be arranged to have a curved surface or protrusion at a predetermined angle.

여기서, 집광부재(164)는 광검출부재(160) 상에 직접 접촉하도록 배치될 수도 있고, 연결층을 통하여 간접 접촉하도록 배치될 수도 있다. 집광부재(164)가 광검출부재(160) 상에 직접 접촉하도록 배치되는 경우, 집광부재(164)와 광검출부재(160) 사이에는 에어갭이 있을 수 있다. 집광부재(164)와 광검출부재(160)가 연결층을 통하여 간접 접촉하도록 배치되는 경우, 연결층은 접착층일 수 있고, 접착층의 굴절률은 집광부재(164)의 굴절률과 상이할 수 있으며, 이에 따라 광검출부재(160)에 수신되는 광량을 높일 수 있다. Here, the light collecting member 164 may be disposed to directly contact the light detecting member 160 or may be disposed to indirectly contact the light detecting member 160 through a connection layer. When the light collecting member 164 is disposed to directly contact the light detecting member 160 , an air gap may exist between the light collecting member 164 and the light detecting member 160 . When the light collecting member 164 and the light detecting member 160 are disposed to be in indirect contact through a connection layer, the connection layer may be an adhesive layer, and the refractive index of the adhesive layer may be different from that of the light collecting member 164. Accordingly, the amount of light received by the photodetector 160 may be increased.

이상에서 광출력부(10)가 하나의 광원(100)을 포함하는 예를 중심으로 설명하고 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. In the above, the light output unit 10 has been mainly described with an example including one light source 100, but the embodiment of the present invention is not limited thereto.

본 발명의 실시예에 따르면, 광출력부(10)는 기판(S) 상에 서로 이격되도록 배치된 복수의 광원(100-1, 100-2)을 포함할 수 있으며, 광검출부재(160)는 복수의 광원(100-1, 100-2) 사이에 배치될 수 있다. According to an embodiment of the present invention, the light output unit 10 may include a plurality of light sources 100-1 and 100-2 arranged to be spaced apart from each other on the substrate S, and the light detecting member 160 may be disposed between the plurality of light sources 100-1 and 100-2.

도 12 내지 도 13을 참조하면, 서로 이격되도록 배치된 제1 광원(100-1) 및 제2 광원(100-2) 사이에 광검출부재(160)가 배치될 수 있다. 이에 따르면, 광검출부재(160)는 제1 광원(100-1) 상에 배치된 렌즈 어셈블리(110-1)로부터 반사된 광 및 제2 광원(100-2) 상에 배치된 렌즈 어셈블리(110-2)로부터 반사된 광을 모두 수신할 수 있다. 이때, 광검출부재(160) 상에는 렌즈 어셈블리(110-1) 및 렌즈 어셈블리(110-2)로부터 반사된 광을 집광하는 집광부재(164)가 더 배치될 수 있다.Referring to FIGS. 12 and 13 , the light detecting member 160 may be disposed between the first light source 100-1 and the second light source 100-2 that are spaced apart from each other. According to this, the light detecting member 160 uses the reflected light from the lens assembly 110-1 disposed on the first light source 100-1 and the lens assembly 110 disposed on the second light source 100-2. -2) can receive all reflected light. At this time, a light collecting member 164 for condensing the light reflected from the lens assembly 110-1 and the lens assembly 110-2 may be further disposed on the light detecting member 160.

이에 따르면, 복수의 광원을 포함하는 광출력부(10)에서 광검출부재(160)를 배치하기 위한 별도의 공간을 최소화하면서도 복수의 광원에 대한 IR 광을 모니터링하는 것이 가능하다. 이때, 복수의 광원(100-1, 100-2)은 동시에 구동되거나, 순차적으로 구동될 수 있다. 복수의 광원(100-1, 100-2)이 순차적으로 구동되는 경우, 광검출부재(160)는 렌즈 어셈블리(110-1)로부터 반사된 IR 광 및 렌즈 어셈블리(110-2)로부터 반사된 IR 광을 순차적으로 수신 및 검출할 수 있으며, 이를 이용하여 제1 광원(100-1) 측의 IR 광 출력 이상인지, 아니면 제2 광원(100-2) 측의 IR 광 출력 이상인지 판별하는 것이 가능하다. According to this, it is possible to monitor the IR light of the plurality of light sources while minimizing a separate space for disposing the photodetector 160 in the light output unit 10 including the plurality of light sources. In this case, the plurality of light sources 100-1 and 100-2 may be driven simultaneously or sequentially. When the plurality of light sources 100-1 and 100-2 are sequentially driven, the photodetector 160 transmits the IR light reflected from the lens assembly 110-1 and the IR light reflected from the lens assembly 110-2. It is possible to sequentially receive and detect light, and using this, it is possible to determine whether the IR light output of the first light source 100-1 is higher or the IR light output of the second light source 100-2 is higher. Do.

한편, 렌즈 어셈블리(110-1) 및 렌즈 어셈블리(110-2)로부터 반사된 광의 집광 효율을 최적화하기 위하여, 집광부재(164)의 표면 형상은 도 13에 도시된 바와 같이 렌즈 어셈블리(110-1)로부터 반사된 광을 집광하는 제1 굴절면(164-1) 및 렌즈 어셈블리(110-2)로부터 반사된 광을 집광하는 제2 굴절면(164-2)으로 구분될 수도 있다. 제1 굴절면(164-1)의 곡률은 렌즈 어셈블리(110-1)와의 거리 및 위치에 따라 설계되며, 제2 굴절면(164-2)의 곡률은 렌즈 어셈블리(110-2)와의 거리 및 위치에 따라 설계될 수 있다.Meanwhile, in order to optimize the condensing efficiency of the light reflected from the lens assembly 110-1 and the lens assembly 110-2, the surface shape of the light collecting member 164 is changed as shown in FIG. 13 to the lens assembly 110-1. ) may be divided into a first refracting surface 164-1 condensing the light reflected from the lens assembly 110-2 and a second refracting surface 164-2 condensing the light reflected from the lens assembly 110-2. The curvature of the first refracting surface 164-1 is designed according to the distance and position from the lens assembly 110-1, and the curvature of the second refracting surface 164-2 depends on the distance and position from the lens assembly 110-2. can be designed accordingly.

이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. Although the above has been described with reference to the embodiments, this is only an example and does not limit the present invention, and those skilled in the art to which the present invention belongs will not deviate from the essential characteristics of the present embodiment. It will be appreciated that various variations and applications are possible. For example, each component specifically shown in the embodiment can be modified and implemented. And differences related to these modifications and applications should be construed as being included in the scope of the present invention as defined in the appended claims.

1: 카메라 장치
10: 광출력부
20: 광입력부
30: 깊이 정보 생성부
40: 제어부
100: 광원
160: 광검출부재
1: Camera device
10: optical output unit
20: optical input unit
30: depth information generator
40: control unit
100: light source
160: light detection member

Claims (12)

IR 광 신호를 생성하여 객체에 조사하는 광출력부,
상기 객체로부터 반사된 후 입력된 IR 광 신호를 수신하는 광입력부,
상기 광입력부에 입력된 상기 IR 광 신호를 이용하여 상기 객체의 깊이 정보를 생성하는 깊이 정보 생성부, 그리고
상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 포함하며,
상기 광출력부는,
기판 상에 배치되며, 상기 IR 광 신호를 생성하는 광원,
상기 광원 상에 배치된 렌즈, 그리고
상기 기판 상에 배치되며, 상기 광원으로부터 출력된 후 상기 렌즈에 의해 반사된 상기 IR 광 신호를 검출하는 광검출부재를 포함하고,
상기 제어부는 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 소정 값을 초과할 때 상기 광원이 생성하는 상기 IR 광 신호의 양을 조절하는 카메라 장치.
An optical output unit for generating an IR light signal and irradiating it to an object;
An optical input unit for receiving an input IR light signal after being reflected from the object;
a depth information generation unit configured to generate depth information of the object using the IR optical signal input to the optical input unit; and
A control unit controlling the optical output unit, the optical input unit, and the depth information generating unit;
The light output unit,
a light source disposed on a substrate and generating the IR light signal;
A lens disposed on the light source, and
a photodetector disposed on the substrate and detecting the IR light signal output from the light source and then reflected by the lens;
wherein the control unit adjusts the amount of the IR light signal generated by the light source when the IR light signal detected by the light detection member exceeds a predetermined value.
제1항에 있어서,
상기 렌즈는 상기 광원을 향하도록 배치된 제1면 및 상기 객체를 향하도록 배치된 제2면을 포함하며,
상기 제1면 및 상기 제2면 중 적어도 하나는 제1 영역, 그리고 상기 제1 영역보다 상기 광원으로부터 출력된 상기 IR 광의 투과율 낮고 반사율이 높은 제2 영역을 포함하는 카메라 장치.
According to claim 1,
The lens includes a first surface disposed to face the light source and a second surface disposed to face the object,
At least one of the first surface and the second surface includes a first area and a second area having a lower transmittance and higher reflectance of the IR light output from the light source than the first area.
제2항에 있어서,
상기 제2 영역의 면적은 상기 제1면의 전체 면적 또는 상기 제2면의 전체 면적의 10 내지 30%인 카메라 장치.
According to claim 2,
The area of the second region is 10 to 30% of the total area of the first surface or the total area of the second surface.
제3항에 있어서,
상기 제2 영역은 상기 제1 영역의 가장자리에 형성되는 카메라 장치.
According to claim 3,
The second area is formed at an edge of the first area.
제3항에 있어서,
상기 제2 영역에서는 상기 광원으로부터 출력된 상기 IR 광이 전반사되는 카메라 장치.
According to claim 3,
In the second area, the IR light output from the light source is totally reflected.
제5항에 있어서,
상기 제2 영역은 적어도 하나의 홈을 포함하는 카메라 장치.
According to claim 5,
The second area includes at least one groove.
제5항에 있어서,
상기 제2 영역에는 상기 IR 광을 반사시키는 코팅층이 형성된 카메라 장치.
According to claim 5,
A camera device having a coating layer reflecting the IR light formed in the second region.
제3항에 있어서,
상기 제2 영역의 적어도 일부는 상기 광검출부재와 수직으로 중첩되는 카메라 장치.
According to claim 3,
At least a portion of the second area vertically overlaps the light detecting member.
제1항에 있어서,
상기 광검출부재는 포토다이오드를 포함하는 카메라 장치.
According to claim 1,
The camera device according to claim 1 , wherein the light detecting member includes a photodiode.
제9항에 있어서,
상기 광검출부재 상에 배치된 집광부재를 더 포함하는 카메라 장치.
According to claim 9,
A camera device further comprising a light collecting member disposed on the light detecting member.
제1항에 있어서,
상기 광입력부는,
상기 기판 상에 배치된 이미지 센서, 그리고
상기 이미지 센서 상에 배치된 렌즈 어셈블리를 포함하고,
상기 이미지 센서, 상기 광원 및 상기 광검출부재는 상기 기판 상에서 상기 기판과 평행한 제1 방향을 따라 순차적으로 이격되어 배치된 카메라 장치.
According to claim 1,
The optical input unit,
An image sensor disposed on the substrate, and
A lens assembly disposed on the image sensor;
The image sensor, the light source, and the photodetector are sequentially spaced apart from each other on the substrate along a first direction parallel to the substrate.
제1항에 있어서,
상기 제어부는 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 제1 기준 값을 초과할 때 상기 광원이 생성하는 상기 IR 광 신호의 양을 줄이고, 상기 광검출부재에 의하여 검출된 상기 IR 광 신호가 상기 제1 기준 값보다 높은 제2 기준 값을 초과할 때 상기 광원의 상기 IR 광 신호의 생성을 중단하는 카메라 장치.
According to claim 1,
The control unit reduces the amount of the IR light signal generated by the light source when the IR light signal detected by the photodetector exceeds a first reference value, and the IR light signal detected by the photodetector member. A camera device for stopping the generation of the IR light signal of the light source when A exceeds a second reference value higher than the first reference value.
KR1020210074020A 2021-06-08 2021-06-08 Camera module KR20220165422A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210074020A KR20220165422A (en) 2021-06-08 2021-06-08 Camera module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210074020A KR20220165422A (en) 2021-06-08 2021-06-08 Camera module

Publications (1)

Publication Number Publication Date
KR20220165422A true KR20220165422A (en) 2022-12-15

Family

ID=84439460

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210074020A KR20220165422A (en) 2021-06-08 2021-06-08 Camera module

Country Status (1)

Country Link
KR (1) KR20220165422A (en)

Similar Documents

Publication Publication Date Title
US10708573B2 (en) Apparatus and methods for three-dimensional sensing
JP6942966B2 (en) Object detection device and mobile device
US9329080B2 (en) Modular optics for scanning engine having beam combining optics with a prism intercepted by both beam axis and collection axis
CN109901353B (en) Light projection system
EP1830123B1 (en) Light guide member illumination apparatus and image capturing apparatus using the same
KR102505234B1 (en) Method for detecting biometric information using spatial litht modulators
CN109991584A (en) A kind of jamproof distance measurement method and depth camera
KR20150065473A (en) Camera for depth image measure and method of measuring depth image using the same
US20150138325A1 (en) Camera integrated with light source
WO2014109711A1 (en) Opto-electronic modules including features to help reduce stray light and/or optical cross-talk
US10436881B2 (en) Photonics device
KR20150139831A (en) Depth image obtaining device and display device using same
US11523095B2 (en) Mems mirror-based extended reality projection with eye-tracking
KR20180124953A (en) A staggered array of light emitting devices for sweeping angular ranges
US20150006106A1 (en) Optical Sensor
CN105324688B (en) Modularized optical device for scanning engine
KR20200036614A (en) Camera device and depth map extraction method of the same
TWI829828B (en) Camera device
KR20220165422A (en) Camera module
WO2020187175A1 (en) Light projection system and light projection method
CN115144840B (en) Beam expanding lens, transmitting module, photoelectric detection device and electronic equipment
US11692813B2 (en) Optoelectronic modules and methods for operating the same
KR20210043763A (en) Beam projector module providing eye protection
CN216956618U (en) Structured light projector, camera module and electronic equipment
KR20240055445A (en) Camera device

Legal Events

Date Code Title Description
A201 Request for examination