KR20230160598A - Camera apparatus - Google Patents

Camera apparatus Download PDF

Info

Publication number
KR20230160598A
KR20230160598A KR1020220060296A KR20220060296A KR20230160598A KR 20230160598 A KR20230160598 A KR 20230160598A KR 1020220060296 A KR1020220060296 A KR 1020220060296A KR 20220060296 A KR20220060296 A KR 20220060296A KR 20230160598 A KR20230160598 A KR 20230160598A
Authority
KR
South Korea
Prior art keywords
optical
angle
optical system
depth information
view
Prior art date
Application number
KR1020220060296A
Other languages
Korean (ko)
Inventor
이현용
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020220060296A priority Critical patent/KR20230160598A/en
Priority to PCT/KR2023/006413 priority patent/WO2023219440A1/en
Publication of KR20230160598A publication Critical patent/KR20230160598A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 실시예에 따른 카메라 장치는 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사하는 광출력부, 상기 객체로부터 반사된 광 신호를 수신하는 광입력부, 그리고 상기 광입력부가 수신하는 상기 광 신호의 디스패리티(disparity)를 이용하여 상기 객체의 깊이 정보를 생성하는 깊이 정보 생성부를 포함하고, 상기 광출력부는, 제1 화각의 상기 광 신호를 상기 객체에 조사하는 제1 광학계, 및 상기 제1 화각보다 작은 제2 화각의 상기 광 신호를 상기 객체에 조사하는 제2 광학계를 포함하며, 상기 광입력부는 제1 배율 및 상기 제1 배율보다 높은 제2 배율 중 하나로 구동되는 줌 광학계 및 이미지 센서를 포함하고, 상기 제1 광학계가 구동되면, 상기 줌 광학계는 상기 제1 배율로 구동되고, 상기 제2 광학계가 구동되면, 상기 줌 광학계는 상기 제2 배율로 구동된다.A camera device according to an embodiment of the present invention includes an optical output unit that radiates an optical signal of a predetermined pattern consisting of a plurality of dots to an object, an optical input unit that receives an optical signal reflected from the object, and the optical signal that the optical input unit receives. a depth information generator that generates depth information of the object using disparity of an optical signal, wherein the optical output unit includes a first optical system that radiates the optical signal at a first angle of view to the object, and A zoom optical system and an image comprising a second optical system that radiates the optical signal of a second angle of view smaller than the first angle of view to the object, wherein the optical input unit is driven at one of a first magnification and a second magnification higher than the first magnification. It includes a sensor, and when the first optical system is driven, the zoom optical system is driven at the first magnification, and when the second optical system is driven, the zoom optical system is driven at the second magnification.

Description

카메라 장치{CAMERA APPARATUS}Camera device{CAMERA APPARATUS}

본 발명은 카메라 장치에 관한 것이다.The present invention relates to a camera device.

3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 깊이 정보를 획득하는 방법으로, 구조광 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다.3D content is applied in many fields such as education, manufacturing, and autonomous driving as well as games and culture, and depth information (Depth Map) is required to obtain 3D content. Depth information is information representing distance in space, and represents perspective information of another point with respect to one point in a two-dimensional image. Methods for acquiring depth information include structured light methods, stereo camera methods, and TOF (Time of Flight) methods.

이 중에서, 구조광 방식에 따르면, 주변 조명과 구별되는 소정 패턴의 IR(Infrared) 구조광을 객체에 조사하고, 객체로부터 반사된 광 신호를 수신하여 왜곡을 분석함으로써 거리를 계산한다.Among these, according to the structured light method, a predetermined pattern of IR (Infrared) structured light, which is distinct from surrounding lighting, is irradiated to the object, and the distance is calculated by receiving the light signal reflected from the object and analyzing the distortion.

IR 구조광을 객체에 투사하는 방식은 다른 방식에 비하여 근거리에서 상대적으로 높은 정확도를 가지지만, 거리가 멀어질수록 정확도가 현저히 낮아지므로, 구동 가능 거리가 짧은 한계를 가진다.The method of projecting IR structured light onto an object has relatively high accuracy at close range compared to other methods, but the accuracy decreases significantly as the distance increases, so the drivable distance is limited to a short range.

본 발명이 이루고자 하는 기술적 과제는 깊이 정보 획득을 위한 카메라 장치를 제공하는 것이다. The technical problem to be achieved by the present invention is to provide a camera device for acquiring depth information.

본 발명의 실시예에 따른 카메라 장치는 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사하는 광출력부, 상기 객체로부터 반사된 광 신호를 수신하는 광입력부, 그리고 상기 광입력부가 수신하는 상기 광 신호의 디스패리티(disparity)를 이용하여 상기 객체의 깊이 정보를 생성하는 깊이 정보 생성부를 포함하고, 상기 광출력부는, 제1 화각의 상기 광 신호를 상기 객체에 조사하는 제1 광학계, 및 상기 제1 화각보다 작은 제2 화각의 상기 광 신호를 상기 객체에 조사하는 제2 광학계를 포함하며, 상기 광입력부는 제1 배율 및 상기 제1 배율보다 높은 제2 배율 중 하나로 구동되는 줌 광학계 및 이미지 센서를 포함하고, 상기 제1 광학계가 구동되면, 상기 줌 광학계는 상기 제1 배율로 구동되고, 상기 제2 광학계가 구동되면, 상기 줌 광학계는 상기 제2 배율로 구동된다.A camera device according to an embodiment of the present invention includes an optical output unit that radiates an optical signal of a predetermined pattern consisting of a plurality of dots to an object, an optical input unit that receives an optical signal reflected from the object, and the optical signal that the optical input unit receives. a depth information generator that generates depth information of the object using disparity of an optical signal, wherein the optical output unit includes a first optical system that radiates the optical signal at a first angle of view to the object, and A zoom optical system and an image comprising a second optical system that radiates the optical signal of a second angle of view smaller than the first angle of view to the object, wherein the optical input unit is driven at one of a first magnification and a second magnification higher than the first magnification. It includes a sensor, and when the first optical system is driven, the zoom optical system is driven at the first magnification, and when the second optical system is driven, the zoom optical system is driven at the second magnification.

상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 더 포함하고, 상기 제1 광학계는 제1 광원, 그리고 상기 제1 광원에 의해 출력된 광을 상기 제1 화각으로 확산시키는 제1 회절 광학 소자(Diffractive Optical Element, DOE)를 포함하고, 상기 제2 광학계는 제2 광원, 그리고 상기 제2 광원에 의해 출력된 광을 상기 제2 화각으로 확산시키는 제2 회절 광학 소자를 포함할 수 있다.It further includes a control unit that controls the optical output unit, the optical input unit, and the depth information generator, wherein the first optical system includes a first light source, and a second light source that diffuses the light output by the first light source to the first angle of view. 1 includes a diffractive optical element (DOE), and the second optical system may include a second light source and a second diffractive optical element that diffuses the light output by the second light source to the second angle of view. You can.

상기 제1 광원이 턴온되면, 상기 제어부는 상기 줌 광학계가 상기 제1 배율로 구동되도록 제어하고, 상기 제2 광원이 턴온되면, 상기 제어부는 상기 줌 광학계가 상기 제2 배율로 구동되도록 제어할 수 있다.When the first light source is turned on, the control unit may control the zoom optical system to be driven at the first magnification, and when the second light source is turned on, the control unit may control the zoom optical system to be driven at the second magnification. there is.

상기 제1 광원 및 상기 제2 광원은 동일한 패턴의 광을 출력하고, 상기 제1 광원에 의해 출력된 광은 상기 제1 회절 광학 소자에 의하여 n*n배로 복사되어 상기 객체에 조사되며, 상기 제2 광원에 의해 출력된 광은 상기 제2 회절 광학 소자에 의하여 n*n배로 복사되어 상기 객체에 조사되고, 상기 n은 2 이상의 정수일 수 있다.The first light source and the second light source output light of the same pattern, and the light output by the first light source is radiated n*n times by the first diffractive optical element and irradiated to the object. 2 The light output by the light source is radiated n*n times by the second diffractive optical element and irradiated to the object, where n may be an integer of 2 or more.

상기 줌 광학계는 줌 렌즈, 그리고 상기 줌 렌즈를 상기 제1 배율 및 상기 제2 배율 중 하나로 구동시키는 액추에이터를 포함할 수 있다.The zoom optical system may include a zoom lens and an actuator that drives the zoom lens to one of the first magnification and the second magnification.

상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 더 포함하고, 상기 제어부는 상기 제1 광학계 및 상기 제2 광학계 중 하나가 선택적으로 구동되도록 제어할 수 있다.It further includes a control unit that controls the optical output unit, the optical input unit, and the depth information generator, and the control unit can control one of the first optical system and the second optical system to be selectively driven.

상기 광출력부는, 상기 생성된 깊이 정보가 미리 설정된 거리 이하이면 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하고, 상기 생성된 깊이 정보가 상기 미리 설정된 거리를 초과하면 상기 제2 화각의 상기 광 신호를 상기 객체에 조사할 수 있다.The optical output unit irradiates the light signal of the first angle of view to the object if the generated depth information is less than the preset distance, and if the generated depth information exceeds the preset distance, the light signal of the second angle of view is irradiated to the object. An optical signal may be irradiated to the object.

본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법은 광출력부가 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사하는 단계, 상기 광출력부와 광입력부를 연동시키는 단계, 상기 광입력부가 상기 객체로부터 반사된 광 신호를 수신하는 단계, 그리고 상기 광입력부가 수신하는 광 신호의 디스패리티(disparity)를 이용하여 상기 객체의 깊이 정보를 생성하는 단계를 포함하며, 상기 광 신호를 조사하는 단계는 상기 광출력부가 제1 화각의 상기 광 신호 및 상기 제1 화각보다 작은 제2 화각의 상기 광 신호 중 하나를 상기 객체에 조사하는 것을 포함하고, 상기 광출력부와 상기 광입력부를 연동시키는 단계는 상기 광출력부가 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하면, 상기 광입력부의 줌 렌즈가 제1 배율로 구동되고, 상기 광출력부가 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하면, 상기 광입력부의 줌 렌즈가 상기 제1 배율보다 높은 제2 배율로 구동되는 것을 포함한다.A method of generating depth information in a camera device according to an embodiment of the present invention includes the steps of an optical output unit irradiating an optical signal of a predetermined pattern consisting of a plurality of points to an object, linking the optical output unit and the optical input unit, and An input unit receiving an optical signal reflected from the object, and generating depth information of the object using disparity of the optical signal received by the optical input unit, and irradiating the optical signal. The step includes the optical output unit irradiating one of the optical signal at a first angle of view and the optical signal at a second angle of view smaller than the first angle of view to the object, and linking the optical output unit and the optical input unit. The step of irradiating the optical signal of the first angle of view to the object, the zoom lens of the optical input unit is driven at a first magnification, and the optical output unit transmits the optical signal of the second angle of view to the object. When irradiating an object, the zoom lens of the optical input unit is driven at a second magnification higher than the first magnification.

상기 광 신호를 상기 객체에 조사하는 단계는 상기 생성된 깊이 정보에 따라 상기 광출력부가 선택적으로 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하거나, 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하는 것을 포함할 수 있다.The step of irradiating the optical signal to the object may include the light output unit selectively irradiating the optical signal of the first angle of view to the object or the optical signal of the second angle of view to the object according to the generated depth information. It may include investigating.

상기 광 신호를 상기 객체에 조사하는 단계는 상기 생성된 깊이 정보가 미리 설정된 거리 이하이면 상기 광출력부가 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하고, 상기 생성된 깊이 정보가 상기 미리 설정된 거리를 초과하면 상기 광출력부가 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하는 것을 포함할 수 있다.The step of irradiating the optical signal to the object includes, if the generated depth information is less than a preset distance, the optical output unit irradiates the optical signal of the first angle of view to the object, and the generated depth information is the preset distance. When the distance is exceeded, the light output unit may irradiate the light signal of the second angle of view to the object.

본 발명의 실시예에 따르면, 깊이 정보 획득을 위한 카메라 장치가 제공될 수 있다. 특히, 본 발명의 실시예에 따르면, 구조광 방식을 이용하여 단거리뿐만 아니라 중거리 이상에서도 높은 정확도로 깊이 정보를 획득할 수 있다. 또한, 본 발명의 실시예에 따르면 고화소 이미지 센서를 이용하지 않음으로써 카메라 장치의 전체 소비 전력량 및 연산량이 감소될 수 있다.According to an embodiment of the present invention, a camera device for acquiring depth information may be provided. In particular, according to an embodiment of the present invention, depth information can be obtained with high accuracy not only at short distances but also at medium or longer distances using the structured light method. Additionally, according to an embodiment of the present invention, the overall power consumption and computation amount of the camera device can be reduced by not using a high-pixel image sensor.

도 1은 본 발명의 실시예에 따른 카메라 장치의 블록도이다.
도 2는 본 발명의 실시예에 따른 카메라 장치의 개략적인 단면도이다.
도 3은 소정 패턴의 광 신호의 한 예이다.
도 4는 구조광을 이용하여 깊이 정보를 생성하는 원리를 설명하는 도면이다.
도 5는 기준 거리와 객체의 거리 차에 따른 디스패리티 변화를 설명하는 그래프이다.
도 6은 이미지 센서의 화소 수에 따른 디스패리티 측정 성능을 나타낸다.
도 7은 본 발명의 한 실시예에 따른 카메라 장치의 블록도이다.
도 8은 본 발명의 한 실시예에 따른 카메라 장치의 개념도이다.
도 9는 본 발명의 실시예에 따른 줌 광학계의 블록도이다.
도 10은 본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법을 나타내는 순서도이다.
도 11은 도 10의 깊이 정보 생성 방법 중 제어부가 광출력부와 광입력부를 연동하는 단계를 나타내는 순서도이다.
도 12는 본 발명의 실시예에 따른 카메라 장치의 제어 방법을 나타내는 순서도이다.
도 13은 본 발명의 실시예에 따라 광입력부가 줌 렌즈를 포함하는 경우, 디스패리티 측정 성능이 향상되는 예를 나타낸다.
1 is a block diagram of a camera device according to an embodiment of the present invention.
Figure 2 is a schematic cross-sectional view of a camera device according to an embodiment of the present invention.
Figure 3 is an example of an optical signal with a predetermined pattern.
Figure 4 is a diagram explaining the principle of generating depth information using structured light.
Figure 5 is a graph explaining the change in disparity according to the difference between the reference distance and the distance between the object.
Figure 6 shows disparity measurement performance according to the number of pixels of the image sensor.
Figure 7 is a block diagram of a camera device according to an embodiment of the present invention.
Figure 8 is a conceptual diagram of a camera device according to an embodiment of the present invention.
Figure 9 is a block diagram of a zoom optical system according to an embodiment of the present invention.
Figure 10 is a flowchart showing a method for generating depth information in a camera device according to an embodiment of the present invention.
FIG. 11 is a flowchart showing steps in which the control unit links the optical output unit and the optical input unit in the depth information generation method of FIG. 10.
Figure 12 is a flowchart showing a method of controlling a camera device according to an embodiment of the present invention.
Figure 13 shows an example in which disparity measurement performance is improved when the optical input unit includes a zoom lens according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.

또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless explicitly specifically defined and described, are generally understood by those skilled in the art to which the present invention pertains. It can be interpreted as meaning, and the meaning of commonly used terms, such as terms defined in a dictionary, can be interpreted by considering the contextual meaning of the related technology.

또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Additionally, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular may also include the plural unless specifically stated in the phrase, and when described as "at least one (or more than one) of A and B and C", it is combined with A, B, and C. It can contain one or more of all possible combinations.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Additionally, when describing the components of an embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used.

이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and are not limited to the essence, sequence, or order of the component.

그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.And, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to that other component, but also is connected to that component. It can also include cases where other components are 'connected', 'combined', or 'connected' due to another component between them.

또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.Additionally, when described as being formed or disposed "above" or "below" each component, "above" or "below" refers not only to cases where two components are in direct contact with each other, but also to one This also includes cases where another component described above is formed or placed between two components. In addition, when expressed as "top (above) or bottom (bottom)", it may include not only the upward direction but also the downward direction based on one component.

본 발명의 실시예에 따른 카메라 장치는 구조광 방식을 이용하여 깊이 정보를 추출하는 카메라를 의미할 수 있다. 따라서, 카메라 장치는 깊이 정보 추출 장치, 3차원 정보 추출 장치 등과 혼용될 수 있다.A camera device according to an embodiment of the present invention may refer to a camera that extracts depth information using a structured light method. Therefore, the camera device can be used interchangeably with a depth information extraction device, a 3D information extraction device, etc.

도 1은 본 발명의 실시예에 따른 카메라 장치의 블록도이고, 도 2는 본 발명의 실시예에 따른 카메라 장치의 개략적인 단면도이다. FIG. 1 is a block diagram of a camera device according to an embodiment of the present invention, and FIG. 2 is a schematic cross-sectional view of a camera device according to an embodiment of the present invention.

도 1 내지 도 3을 참조하면, 본 발명의 실시예에 따른 카메라 장치(1)는 광출력부(10), 광입력부(20), 깊이 정보 생성부(30) 및 제어부(40)를 포함한다. 1 to 3, the camera device 1 according to an embodiment of the present invention includes an optical output unit 10, an optical input unit 20, a depth information generator 30, and a control unit 40. .

광출력부(10)는 출력광 신호를 생성한 후 객체에 조사한다. 이때, 광출력부(10)는 소정 패턴의 광 신호를 출력할 수 있다. 도 3은 소정 패턴의 광 신호의 한 예이다. 도 3을 참조하면, 소정 패턴의 광 신호는 복수의 점으로 이루어질 수 있으며, 구조광이라 지칭될 수 있다. 여기서, 소정 패턴은 유니크한 패턴일 수 있으며, 미리 설계된 알고리즘에 의하여 생성될 수 있다. 소정 패턴의 광 신호는 IR(Infrared) 광 신호일 수 있다. 본 명세서에서, 출력광은 광출력부(10)로부터 출력되어 객체에 입사되는 광을 의미하고, 입력광은 광출력부(10)로부터 출력되어 객체에 도달한 후 객체로부터 반사되어 광입력부(20)로 입력되는 광을 의미할 수 있다. 객체의 입장에서 출력광은 입사광이 될 수 있고, 입력광은 반사광이 될 수 있다.The optical output unit 10 generates an output optical signal and then radiates it to the object. At this time, the optical output unit 10 may output an optical signal of a predetermined pattern. Figure 3 is an example of an optical signal with a predetermined pattern. Referring to FIG. 3, an optical signal with a predetermined pattern may be composed of a plurality of dots and may be referred to as structured light. Here, the predetermined pattern may be a unique pattern and may be generated using a pre-designed algorithm. The optical signal with a predetermined pattern may be an IR (Infrared) optical signal. In this specification, output light refers to light output from the light output unit 10 and incident on an object, and input light is output from the light output unit 10, reaches the object, and then is reflected from the object to the light input unit 20. ) may refer to light input. From the object's perspective, output light can be incident light, and input light can be reflected light.

광출력부(10)는 광원(100) 및 렌즈 어셈블리(110)를 포함할 수 있다. The light output unit 10 may include a light source 100 and a lens assembly 110.

우선, 광원(100)은 빛을 생성한다. 광원(100)이 생성하는 빛은 파장이 770 내지 3000nm인 적외선일 수 있으며, 파장이 380 내지 770 nm인 가시광선 일 수도 있다. 광원(100)은 발광 다이오드(Light Emitting Diode, LED)를 이용할 수 있으며, 복수의 발광 다이오드가 일정한 패턴에 따라 배열된 형태를 가질 수 있다. 뿐만 아니라, 광원(100)은 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수도 있다. 또는, 광원(100)은 VCSEL(Vertical Cavity Surface Emitting Laser)일 수도 있다. VCSEL은 전기 신호를 광 신호로 바꾸어 주는 레이저 다이오드 중 하나이며, 약 800 내지 1000nm인 파장, 예를 들어 약 850nm 또는 약 940nm 파장을 출력할 수 있다. 하나의 VCSEL은 복수의 이미터(emitter), 예를 들어 수백 개의 이미터를 가질 수 있으며, 각 이미터에 의한 점으로 이루어진 패턴이 출력될 수 있다. 즉, 수백 개의 이미터에 의해 소정의 패턴을 갖는 구조광이 출력될 수 있다. 광원(100)은 일정 시간 간격으로 점멸(on/off)을 반복할 수 있으며, 일정 시간 간격은 출력광 신호의 주파수일 수 있다.First, the light source 100 generates light. The light generated by the light source 100 may be infrared light with a wavelength of 770 to 3000 nm, or visible light with a wavelength of 380 to 770 nm. The light source 100 may use a light emitting diode (LED), and may have a plurality of light emitting diodes arranged according to a certain pattern. In addition, the light source 100 may include an organic light emitting diode (OLED) or a laser diode (LD). Alternatively, the light source 100 may be a Vertical Cavity Surface Emitting Laser (VCSEL). VCSEL is one of the laser diodes that converts electrical signals into optical signals, and can output a wavelength of about 800 to 1000 nm, for example, about 850 nm or about 940 nm. One VCSEL may have a plurality of emitters, for example, hundreds of emitters, and a pattern consisting of dots may be output by each emitter. That is, structured light with a predetermined pattern can be output by hundreds of emitters. The light source 100 may repeat blinking (on/off) at regular time intervals, and the regular time interval may be the frequency of the output light signal.

렌즈 어셈블리(110)는 광원(100)으로부터 출력된 빛을 집광하고, 집광된 빛을 외부로 출력할 수 있다. 렌즈 어셈블리(110)는 광원(100)의 상부에서 광원(100)과 이격되어 배치될 수 있다. 여기서, 광원(100)의 상부란 광원(100)으로부터 빛이 출력되는 측을 의미할 수 있다. 렌즈 어셈블리(110)는 적어도 1매의 렌즈를 포함할 수 있다. 렌즈 어셈블리(110)가 복수 매의 렌즈를 포함하는 경우, 각 렌즈들은 중심축을 기준으로 정렬하여 광학계를 형성할 수 있다. 여기서, 중심축은 광학계의 광축(Optical axis)와 동일할 수 있다. The lens assembly 110 may converge light output from the light source 100 and output the condensed light to the outside. The lens assembly 110 may be disposed on top of the light source 100 and spaced apart from the light source 100 . Here, the upper part of the light source 100 may refer to the side where light is output from the light source 100. The lens assembly 110 may include at least one lens. When the lens assembly 110 includes a plurality of lenses, each lens may be aligned with respect to the central axis to form an optical system. Here, the central axis may be the same as the optical axis of the optical system.

렌즈 어셈블리(110)는 하우징(120)에 수용 또는 지지될 수 있다. 한 실시예에 따르면, 하우징(120)은 구동 모듈(미도시)과 결합될 수 있으며, 렌즈 어셈블리(110)는 구동 모듈(미도시)에 의해 광축 방향 또는 광축에 수직하는 방향으로 이동할 수 있다. The lens assembly 110 may be accommodated or supported in the housing 120 . According to one embodiment, the housing 120 may be combined with a driving module (not shown), and the lens assembly 110 may be moved in the direction of the optical axis or in a direction perpendicular to the optical axis by the driving module (not shown).

한편, 광입력부(20)는 객체로부터 반사된 빛을 수신한다. 이를 위하여, 광입력부(20)는 객체로부터 반사된 입력광을 집광하는 렌즈 어셈블리(130), 필터(미도시) 및 렌즈 어셈블리(130)를 통과한 입력광을 전기신호로 변환하는 이미지 센서(140)를 포함할 수 있으며, 렌즈 어셈블리(130), 필터(미도시) 및 이미지 센서(140)는 하우징(150)에 수용 또는 지지될 수 있다. 광출력부(10) 측의 하우징(120)과 광입력부(20) 측의 하우징(150)이 서로 이격된 것으로 도시되어 있으나, 이로 제한되는 것은 아니며, 광출력부(10) 측의 하우징(120)과 광입력부(20) 측의 하우징(150)은 일체의 하우징일 수도 있다. Meanwhile, the optical input unit 20 receives light reflected from an object. To this end, the optical input unit 20 includes a lens assembly 130 that focuses input light reflected from an object, a filter (not shown), and an image sensor 140 that converts the input light passing through the lens assembly 130 into an electrical signal. ) may be included, and the lens assembly 130, filter (not shown), and image sensor 140 may be accommodated or supported in the housing 150. The housing 120 on the optical output unit 10 side and the housing 150 on the optical input unit 20 side are shown as spaced apart from each other, but are not limited thereto, and the housing 120 on the optical output unit 10 side ) and the housing 150 on the optical input unit 20 side may be a single housing.

렌즈 어셈블리(130)의 광축은 이미지 센서(140)의 광축과 얼라인(align)될 수 있다. 필터(미도시)는 렌즈 어셈블리(130)와 이미지 센서(140) 사이에 배치되며, 소정 파장 범위를 갖는 빛을 필터링할 수 있다. 예를 들어, 필터(미도시)는 광출력부(10)가 출력하는 출력광의 파장 대역에서 빛을 통과시킬 수 있다. The optical axis of the lens assembly 130 may be aligned with the optical axis of the image sensor 140. A filter (not shown) is disposed between the lens assembly 130 and the image sensor 140 and can filter light having a predetermined wavelength range. For example, a filter (not shown) may pass light in the wavelength band of the output light output from the optical output unit 10.

이미지 센서(140)는 광원(100)의 점멸 주기에 따라 입력광 신호를 수신할 수 있다. 이미지 센서(140)는 복수의 픽셀이 그리드 형태로 배열된 구조로 구성될 수 있다. 이미지 센서(140)는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서일 수 있으며, CCD(Charge Coupled Device) 이미지 센서일 수도 있다.The image sensor 140 may receive an input light signal according to the blinking cycle of the light source 100. The image sensor 140 may be configured with a structure in which a plurality of pixels are arranged in a grid shape. The image sensor 140 may be a Complementary Metal Oxide Semiconductor (CMOS) image sensor or a Charge Coupled Device (CCD) image sensor.

광입력부(20)는 광출력부(10)와 나란히 배치될 수 있다. 광입력부(20)는 광출력부(10) 옆에 배치될 수 있다. 광입력부(20)는 광출력부(10)와 같은 방향으로 배치될 수 있다.The optical input unit 20 may be arranged side by side with the optical output unit 10. The optical input unit 20 may be placed next to the optical output unit 10. The optical input unit 20 may be arranged in the same direction as the optical output unit 10.

깊이 정보 생성부(30)는 광입력부(20)에 입력된 입력광 신호를 이용하여 객체의 깊이 정보를 생성할 수 있다. 본 발명의 실시예에 따르면, 깊이 정보 생성부(30)는 광 신호의 디스패리티(disparity)를 이용하여 객체의 깊이 정보를 생성할 수 있다.The depth information generator 30 may generate depth information of an object using an input light signal input to the light input unit 20. According to an embodiment of the present invention, the depth information generator 30 may generate depth information of an object using disparity of an optical signal.

제어부(40)는 광출력부(10), 광입력부(20) 및 깊이 정보 생성부(30)의 구동을 제어한다. 깊이 정보 생성부(30) 및 제어부(40)는 광출력부(10) 및 광입력부(20)가 탑재된 PCB(printed circuit board, 50)의 형태로 구현될 수 있다. 즉, 깊이 정보 생성부(30) 또는 제어부(40)는 PCB(50) 상에 배치된 회로 패턴 또는 IC 칩에 의하여 구현될 수 있다. 또는, PCB(50)는 FPCB(미도시)를 통해 커넥터와 연결될 수 있다. 또는, PCB와 FPCB는 RFPCB(Rigid Flexible PCB)로 구현될 수도 있다. 또한, 깊이 정보 생성부(30) 및 제어부(40)는 다른 구성의 형태로 구현될 수도 있다. The control unit 40 controls the operation of the optical output unit 10, the optical input unit 20, and the depth information generator 30. The depth information generator 30 and the control unit 40 may be implemented in the form of a printed circuit board (PCB) 50 on which the optical output unit 10 and the optical input unit 20 are mounted. That is, the depth information generator 30 or the control unit 40 may be implemented by a circuit pattern or IC chip disposed on the PCB 50. Alternatively, the PCB 50 may be connected to the connector through an FPCB (not shown). Alternatively, the PCB and FPCB may be implemented as RFPCB (Rigid Flexible PCB). Additionally, the depth information generator 30 and the control unit 40 may be implemented in other configurations.

광출력부(10)의 광원(100)은 PCB(50) 상에 배치되며, PCB(50) 상의 회로 패턴과 전기적으로 연결될 수 있다. 또는, 제어부(40)는 본 발명의 실시예에 따른 카메라 장치(1)가 배치된 전자기기 내에 포함될 수도 있다. 예를 들어, 제어부(40)는 본 발명의 실시예에 따른 카메라 장치(1)가 탑재된 전자기기의 어플리케이션 프로세서(Application Processor, AP)의 형태로 구현될 수 있다.The light source 100 of the optical output unit 10 is disposed on the PCB 50 and may be electrically connected to a circuit pattern on the PCB 50. Alternatively, the control unit 40 may be included in an electronic device in which the camera device 1 according to an embodiment of the present invention is disposed. For example, the control unit 40 may be implemented in the form of an application processor (AP) of an electronic device on which the camera device 1 according to an embodiment of the present invention is mounted.

도 4는 구조광을 이용하여 깊이 정보를 생성하는 원리를 설명하는 도면이다. 전술한 바와 같이, 본 명세서에서, 구조광은 복수의 점으로 이루어진 소정 패턴의 광 신호를 의미한다. 도 4를 참조하면, 카메라 장치(1)와 객체 간 거리(object distance, h')는 구조광을 이루는 점의 디스패리티(disparity, Δx)에 따라 달라질 수 있다. 즉, 구조광 방식에 따르면, 거리 변화에 의해 생기는 디스패리티 정도에 따라 깊이 정보를 추출할 수 있다. 이에 따라, 디스패리티의 정확도는 깊이 정보의 정확도에 영향을 미칠 수 있다. Figure 4 is a diagram explaining the principle of generating depth information using structured light. As described above, in this specification, structured light refers to an optical signal with a predetermined pattern consisting of a plurality of dots. Referring to FIG. 4, the distance (object distance, h') between the camera device 1 and the object may vary depending on the disparity (Δx) of the points forming the structured light. In other words, according to the structured light method, depth information can be extracted according to the degree of disparity caused by distance change. Accordingly, the accuracy of disparity may affect the accuracy of depth information.

더욱 구체적으로, 구조광을 이용한 깊이 정보의 추출은 다음의 수학식에 따를 수 있다. More specifically, extraction of depth information using structured light can follow the following equation.

여기서, h는 기준 거리(reference distance)이고, h'는 객체 거리이며, b는 베이스라인(baseline)의 길이이고, Δx는 디스패리티이다. Here, h is the reference distance, h' is the object distance, b is the length of the baseline, and Δx is the disparity.

수학식 1 내지 3을 참조하면, 베이스라인의 길이(b)는 디스패리티에 영향을 미치며, 객체 거리(h')의 단위 길이당 디스패리티는 FOV(field of view)가 작을수록, 그리고 베이스라인이 클수록 커지는 것을 알 수 있다. 객체의 사이즈가 베이스라인의 절반보다 작은 경우, 소정 패턴 내의 점은 디스패리티에 의하여 인접 점을 추월할 수 있으며, 객체 거리가 멀어질수록 디스패리티가 줄어들 수 있다. 이에 따라, 정확한 깊이 정보 계산을 위하여, 점의 센터를 기준으로 디스패리티를 추출할 필요가 있다. Referring to Equations 1 to 3, the length of the baseline (b) affects the disparity, and the disparity per unit length of the object distance (h') increases as the FOV (field of view) becomes smaller, and the baseline You can see that the bigger it gets, the bigger it gets. If the size of the object is smaller than half the baseline, points within a certain pattern may overtake adjacent points due to disparity, and as the object distance increases, disparity may decrease. Accordingly, in order to calculate accurate depth information, it is necessary to extract disparity based on the center of the point.

구조광 방식에 따른 깊이 정보 추출의 성능은 점의 중심의 측정 정확도 수준과 디스패리티의 측정 해상도에 따라 달라질 수 있다. The performance of depth information extraction according to the structured light method may vary depending on the measurement accuracy level of the center of the point and the measurement resolution of the disparity.

도 5는 기준 거리와 객체의 거리 차에 따른 디스패리티 변화를 설명하는 그래프이다. 여기서, 기준 거리는 300nm인 것으로 예를 들어 설정하였다.Figure 5 is a graph explaining the change in disparity according to the difference between the reference distance and the distance between the object. Here, the reference distance was set to 300 nm as an example.

도 5를 참조하면, 객체 거리가 증가할수록 디스패리티의 변화율이 작아짐을 알 수 있다. 예를 들어, 객체 거리가 900mm 이하인 경우, 그래프의 기울기, 즉 거리의 변화량에 대한 디스패리티의 변화량이 크지만, 객체 거리가 900mm 초과인 경우, 그래프의 기울기는 현저히 작아짐을 알 수 있다. 특히, 객체 거리가 커질수록 그래프의 기울기는 더욱 작아짐을 알 수 있다.Referring to FIG. 5, it can be seen that as the object distance increases, the rate of change in disparity decreases. For example, when the object distance is 900 mm or less, the slope of the graph, that is, the amount of change in disparity relative to the change in distance, is large, but when the object distance is greater than 900 mm, the slope of the graph is significantly small. In particular, it can be seen that as the object distance increases, the slope of the graph becomes smaller.

이로부터, 기준 거리와 객체의 거리 차가 증가할수록 디스패리티의 측정 정확도가 떨어짐을 알 수 있다.From this, it can be seen that as the difference between the reference distance and the object distance increases, the disparity measurement accuracy decreases.

이러한 문제를 해결하기 위하여, 이미지 센서의 화소 수를 늘릴 수 있다.To solve this problem, the number of pixels in the image sensor can be increased.

도 6은 이미지 센서의 화소 수에 따른 디스패리티 측정 성능을 나타낸다. Figure 6 shows disparity measurement performance according to the number of pixels of the image sensor.

도 6을 참조하면, 도 6(a) 및 도 6(b)는 9*9의 화소 수를 가지는 이미지 센서에서의 픽셀 값을 나타내고, 도 6(c) 및 도 6(d)는 각각 도 6(a) 및 도 6(b)와 동일한 객체에 대하여 3*3의 화소 수를 가지는 이미지 센서를 이용하여 픽셀 값을 나타낸 결과이다.Referring to FIG. 6, FIG. 6(a) and FIG. 6(b) show pixel values in an image sensor having a pixel number of 9*9, and FIG. 6(c) and FIG. 6(d) show pixel values in FIG. 6, respectively. This is the result of showing pixel values using an image sensor with a number of pixels of 3*3 for the same object as in (a) and FIG. 6(b).

도 6(a) 및 도 6(b)를 참조하면, 9*9의 화소 수를 가지는 고화소 이미지 센서를 이용할 경우, 도 6(a) 및 도 6(b)의 값이 구분되지만, 도 6(c) 및 도 6(d)를 참조하면, 3*3의 화소 수를 가지는 저화소 이미지 센서를 이용할 경우, 도 6(c) 및 도 6(d)의 값이 구분되지 않음을 알 수 있다.Referring to FIGS. 6(a) and 6(b), when using a high-pixel image sensor with a number of pixels of 9*9, the values of FIGS. 6(a) and 6(b) are differentiated, but Referring to c) and FIG. 6(d), it can be seen that when using a low-pixel image sensor with the number of pixels of 3*3, the values of FIG. 6(c) and FIG. 6(d) are not distinguished.

그러나, 고화소 이미지 센서를 이용할 경우, 카메라 장치의 전체 소비 전력량 및 연산량을 증가시키며, 카메라 장치의 비용이 크게 증가되는 문제가 있다.However, when using a high-pixel image sensor, the overall power consumption and computation amount of the camera device increases, and the cost of the camera device significantly increases.

본 발명의 실시예에서는, 고화소 이미지 센서를 이용하지 않고도 장거리에서의 디스패리티의 측정 정확도를 개선하고자 한다.In an embodiment of the present invention, an attempt is made to improve the measurement accuracy of disparity at long distances without using a high-pixel image sensor.

도 7은 본 발명의 한 실시예에 따른 카메라 장치의 블록도이고, 도 8은 본 발명의 한 실시예에 따른 카메라 장치의 개념도이다.FIG. 7 is a block diagram of a camera device according to an embodiment of the present invention, and FIG. 8 is a conceptual diagram of a camera device according to an embodiment of the present invention.

도 7 내지 도 8을 참조하면, 본 발명의 한 실시예에 따른 카메라 장치(700)는 광출력부(710), 광입력부(720), 깊이 정보 생성부(730) 및 제어부(740)를 포함한다. 광출력부(710), 광입력부(720), 깊이 정보 생성부(730) 및 제어부(740)는 각각 도 1 내지 4를 참조하여 설명한 광출력부(10), 광입력부(20), 깊이 정보 생성부(30) 및 제어부(40)에 대응하는 구성이며, 설명의 편의를 위하여, 도 1 내지 4를 참조하여 설명한 카메라 장치(1)에 관한 설명과 동일한 내용에 대해서는 중복된 설명을 생략한다.Referring to Figures 7 and 8, the camera device 700 according to an embodiment of the present invention includes an optical output unit 710, an optical input unit 720, a depth information generator 730, and a control unit 740. do. The optical output unit 710, the optical input unit 720, the depth information generator 730, and the control unit 740 are the optical output unit 10, the optical input unit 20, and the depth information described with reference to FIGS. 1 to 4, respectively. It is a configuration corresponding to the generator 30 and the control unit 40, and for convenience of explanation, duplicate descriptions of content that is the same as the description of the camera device 1 described with reference to FIGS. 1 to 4 will be omitted.

광출력부(710)는 출력광 신호를 생성한 후 객체에 조사한다. 이때, 광출력부(710)는 소정 패턴의 광 신호를 출력할 수 있다.The optical output unit 710 generates an output optical signal and then radiates it to the object. At this time, the optical output unit 710 may output an optical signal of a predetermined pattern.

본 발명의 실시예에 따르면, 광출력부(710)는 제1 화각(field of illumination, FOI)의 광 신호를 객체에 조사하는 제1 광학계(712) 및 제1 화각보다 작은 제2 화각의 광 신호를 객체에 조사하는 제2 광학계(714)를 포함한다. According to an embodiment of the present invention, the optical output unit 710 includes a first optical system 712 that irradiates an optical signal of a first field of illumination (FOI) to an object and light of a second angle of view smaller than the first angle of view. It includes a second optical system 714 that radiates signals to the object.

더욱 구체적으로 설명하면, 도 8에 도시된 바와 같이 광출력부(710)의 제1 광학계(712)가 구동되면, 제1 광학계(712)는 제1 화각으로 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사한다. 그리고, 광출력부(710)의 제2 광학계(714)가 구동되면, 제2 광학계(714)는 제1 화각보다 작은 제2 화각으로 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사한다.To be more specific, when the first optical system 712 of the optical output unit 710 is driven as shown in FIG. 8, the first optical system 712 transmits light of a predetermined pattern consisting of a plurality of dots at a first angle of view. Examine the signal to the object. Then, when the second optical system 714 of the optical output unit 710 is driven, the second optical system 714 radiates an optical signal of a predetermined pattern consisting of a plurality of dots to the object at a second angle of view that is smaller than the first angle of view. .

이에 따르면, 제1 광학계(712) 및 제2 광학계(714)가 동일한 패턴의 광 신호를 출력하는 경우, 동일한 거리에 대하여 제1 광학계(712)를 통해 출력된 광 신호의 점 밀도는 제2 광학계(714)를 통해 출력된 광 신호의 점 밀도보다 낮을 수 있다. 즉, 제1 광학계(712) 및 제2 광학계(714)가 동일한 패턴의 광 신호를 출력하는 경우, 동일한 점 밀도에 대하여 제2 광학계(714)를 통해 출력된 광 신호가 도달하는 거리는 제1 광학계(712)를 통해 출력된 광 신호가 도달하는 거리보다 길 수 있다. 여기서, 점 밀도는 단위 면적 당 점의 개수를 의미할 수 있다.According to this, when the first optical system 712 and the second optical system 714 output optical signals of the same pattern, the dot density of the optical signal output through the first optical system 712 for the same distance is the same as that of the second optical system 714. It may be lower than the dot density of the optical signal output through 714. That is, when the first optical system 712 and the second optical system 714 output optical signals of the same pattern, the distance that the optical signal output through the second optical system 714 reaches for the same dot density is the distance reached by the first optical system 714. It may be longer than the distance that the optical signal output through 712 reaches. Here, point density may mean the number of points per unit area.

이에 따라, 제1 화각의 광 신호를 객체에 조사하는 제1 광학계(712)는 근거리에서의 깊이 정보 생성에 이용되고, 제1 화각보다 작은 제2 화각의 광 신호를 객체에 조사하는 제2 광학계(714)는 제1 광학계(712)가 측정하는 거리보다 장거리에서의 깊이 정보 생성에 이용될 수 있다. 예를 들어, 제1 광학계(712)는 객체 거리가 900mm 이하에서의 깊이 정보 생성에 이용되고, 제2 광학계(714)는 객체 거가 900mm 초과에서의 깊이 정보 생성에 이용될 수 있다.Accordingly, the first optical system 712, which radiates an optical signal of a first angle of view to the object, is used to generate depth information at a short distance, and the second optical system 712, which irradiates an optical signal of a second angle of view smaller than the first angle of view to the object 714 can be used to generate depth information at a longer distance than the distance measured by the first optical system 712. For example, the first optical system 712 may be used to generate depth information when the object distance is less than 900 mm, and the second optical system 714 may be used to generate depth information when the object distance is approximately greater than 900 mm.

이를 위하여, 제1 광학계(712)는 제1 광원(800) 및 제1 광원(800)에 의해 출력된 광을 제1 화각으로 확산시키는 제1 회절 광학 소자(Diffractive Optical Element, DOE, 802)를 포함하고, 제2 광학계(714)는 제2 광원(810) 및 제2 광원(810)에 의해 출력된 광을 제2 화각으로 확산시키는 제2 회절 광학 소자(812)를 포함할 수 있다. 이때, 제1 광원(800) 및 제2 광원(810)은 동일한 패턴의 광을 출력하며, 제1 광원(800)에 의해 출력된 광은 제1 회절 광학 소자(802)에 의하여 n*n배로 복사되어 객체에 조사되고, 제2 광원(810)에 의해 출력된 광은 제2 회절 광학 소자(812)에 의하여 n*n배로 복사되어 객체에 조사될 수 있다. 이때, n은 2 이상의 정수일 수 있다. 이를 위하여, 제1 회절 광학 소자(802) 및 제2 회절 광학 소자(812)는 동일한 형상을 가지되, 제1 회절 광학 소자(802)를 통과한 광이 퍼져 나가는 각도가 제2 회절 광학 소자(812)를 통과한 광이 퍼져 나가는 각도보다 크도록 설계될 수 있다.To this end, the first optical system 712 includes a first light source 800 and a first diffractive optical element (DOE, 802) that diffuses the light output by the first light source 800 to a first angle of view. The second optical system 714 may include a second light source 810 and a second diffractive optical element 812 that diffuses the light output by the second light source 810 to a second angle of view. At this time, the first light source 800 and the second light source 810 output light of the same pattern, and the light output by the first light source 800 is divided by n*n times by the first diffractive optical element 802. The light output by the second light source 810 may be copied n*n times by the second diffractive optical element 812 and irradiated to the object. At this time, n may be an integer of 2 or more. To this end, the first diffractive optical element 802 and the second diffractive optical element 812 have the same shape, but the angle at which the light passing through the first diffractive optical element 802 spreads is the second diffractive optical element ( 812) can be designed to be larger than the angle at which the light passing through spreads out.

이에 따르면, 제1 광학계(712)를 통하여 객체에 조사된 광 신호의 패턴 형상과 제2 광학계(714)를 통하여 객체에 조사된 광 신호의 패턴 형상은 동일할 수 있다. 제1 광학계(712)를 통하여 객체에 조사된 광 신호의 패턴 형상과 제2 광학계(714)를 통하여 객체에 조사된 광 신호의 패턴 형상이 동일하면, 깊이 정보 생성부(730)가 제1 광학계(712)를 통하여 객체에 조사된 후 입력된 광 신호와 제2 광학계(714)를 통하여 객체에 조사된 후 입력된 광 신호에 대하여 동일한 연산을 적용할 수 있으므로, 깊이 정보 생성부(730)의 연산 복잡도를 줄일 수 있다.According to this, the pattern shape of the light signal irradiated to the object through the first optical system 712 and the pattern shape of the light signal irradiated to the object through the second optical system 714 may be the same. If the pattern shape of the light signal irradiated to the object through the first optical system 712 and the pattern shape of the light signal irradiated to the object through the second optical system 714 are the same, the depth information generator 730 Since the same operation can be applied to the optical signal input after being irradiated to the object through 712 and the optical signal input after being irradiated to the object through the second optical system 714, the depth information generator 730 The computational complexity can be reduced.

한편, 본 발명의 실시예에 따르면, 제1 광학계(712)는 제1 콜리메이터 렌즈(804)를 더 포함하고, 제2 광학계(714)는 제2 콜리메이터 렌즈(814)를 더 포함할 수 있다. 콜리메이터 렌즈는 광원으로부터 출력된 광을 집광시키는 렌즈를 의미한다.Meanwhile, according to an embodiment of the present invention, the first optical system 712 may further include a first collimator lens 804, and the second optical system 714 may further include a second collimator lens 814. A collimator lens refers to a lens that condenses light output from a light source.

제1 콜리메이터 렌즈(804)는 제1 광원(800)과 제1 회절 광학 소자(802) 사이에 배치되며, 제1 광원(800)에 의해 출력된 광을 제1 회절 광학 소자(802)로 집광시킬 수 있다. 제2 콜리메이터 렌즈(814)는 제2 광원(810)과 제2 회절 광학 소자(812) 사이에 배치되며, 제2 광원(810)에 의해 출력된 광을 제2 회절 광학 소자(812)로 집광시킬 수 있다.The first collimator lens 804 is disposed between the first light source 800 and the first diffractive optical element 802, and focuses the light output by the first light source 800 into the first diffractive optical element 802. You can do it. The second collimator lens 814 is disposed between the second light source 810 and the second diffractive optical element 812, and focuses the light output by the second light source 810 into the second diffractive optical element 812. You can do it.

여기서, 제1 광학계(712)가 제1 광원(800)을 포함하고, 제2 광학계(714)가 제2 광원(810)을 포함하는 것으로 설명하고 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 도시되지 않았으나, 제1 광학계(712) 및 제2 광학계(714)는 공통의 광원을 포함하며, 제1 콜리메이터 렌즈(804) 및 제2 콜리메이터 렌즈(814)의 정렬 또는 이동에 의해 광원으로부터 출력된 광이 제1 회절 광학 소자(802)를 지향하도록 정렬되거나, 제2 회절 광학 소자(812)를 지향하도록 정렬될 수도 있다. Here, the first optical system 712 is described as including the first light source 800, and the second optical system 714 is described as including the second light source 810, but the embodiment of the present invention is not limited thereto. . Although not shown, the first optical system 712 and the second optical system 714 include a common light source, and the light output from the light source is generated by aligning or moving the first collimator lens 804 and the second collimator lens 814. The light may be aligned to be directed toward the first diffractive optical element 802 or may be aligned to be directed toward the second diffractive optical element 812.

여기서 설명한 제1 회절 광학 소자(802), 제1 콜리메이터 렌즈(804), 제2 회절 광학 소자(812) 및 제2 콜리메이터 렌즈(814)는 도 1 내지 도 2를 참조하여 설명한 광출력부(10)의 렌즈 어셈블리(110)의 일부일 수 있다.The first diffractive optical element 802, the first collimator lens 804, the second diffractive optical element 812, and the second collimator lens 814 described herein are the optical output unit 10 described with reference to FIGS. 1 and 2. ) may be part of the lens assembly 110.

본 발명의 실시예에 따르면, 광입력부(720)는 제1 배율 또는 제1 배율보다 높은 제2 배율로 구동되는 줌 광학계(722) 및 이미지 센서(724)를 포함한다. 도 8을 참조하면, 줌 광학계(722) 및 이미지 센서(724) 사이에는 IR 광을 통과시키는 IR 밴드패스 필터(726)가 더 배치될 수 있다. According to an embodiment of the present invention, the optical input unit 720 includes a zoom optical system 722 and an image sensor 724 driven at a first magnification or a second magnification higher than the first magnification. Referring to FIG. 8, an IR bandpass filter 726 that passes IR light may be further disposed between the zoom optical system 722 and the image sensor 724.

도 9는 본 발명의 실시예에 따른 줌 광학계의 블록도이다. 도 9를 참조하면, 줌 광학계(722)는 줌 렌즈(900) 및 줌 렌즈(900)를 제1 배율 또는 제1 배율보다 높은 제2 배율로 구동시키는 액추에이터(902)를 포함할 수 있다. 줌 렌즈(900)는 1매 이상의 렌즈를 포함하며, 액추에이터(902)에 의해 이동할 수 있다. 줌 렌즈(900)는 복수 매의 렌즈를 포함하며, 복수 매의 렌즈 중 일부는 고정군이고, 다른 일부는 이동군일 수 있다. 줌 렌즈(900)의 이동에 의하여 줌 렌즈(900)와 이미지 센서(724) 간의 간격이 바뀌며, 이에 따라 배율이 조절될 수 있다.Figure 9 is a block diagram of a zoom optical system according to an embodiment of the present invention. Referring to FIG. 9 , the zoom optical system 722 may include a zoom lens 900 and an actuator 902 that drives the zoom lens 900 at a first magnification or a second magnification higher than the first magnification. The zoom lens 900 includes one or more lenses and can be moved by an actuator 902. The zoom lens 900 includes a plurality of lenses, and some of the plurality of lenses may be a fixed group and others may be a movable group. As the zoom lens 900 moves, the distance between the zoom lens 900 and the image sensor 724 changes, and the magnification can be adjusted accordingly.

예를 들어, 제1 배율은 1배일 수 있고, 제2 배율은 3배일 수 있으나, 이로 제한되는 것은 아니며, 제2 배율은 2배, 3배, 4배, 5배, 6배, 7배 중 적어도 하나일 수 있다. 또는, 줌 광학계(722)는 1배 내지 7배의 배율 중 어느 값으로도 조절될 수 있는 연속 줌 광학계일 수도 있다. 또는, 줌 광학계(722)는 폴디드 렌즈(folded lens)를 포함할 수도 있다. 이에 따르면, 광입력부(720) 내 줌 광학계(722)가 차지하는 부피를 최소화할 수 있다.For example, the first magnification may be 1x, and the second magnification may be 3x, but are not limited thereto, and the second magnification may be 2x, 3x, 4x, 5x, 6x, or 7x. There could be at least one. Alternatively, the zoom optical system 722 may be a continuous zoom optical system that can be adjusted to any magnification of 1 to 7 times. Alternatively, the zoom optical system 722 may include a folded lens. According to this, the volume occupied by the zoom optical system 722 within the optical input unit 720 can be minimized.

이와 같이, 광입력부(720)가 줌 광학계(722)를 포함하면, 광입력부(720)로 수신된 광 신호를 확대할 수 있다. 이에 따르면, 광 신호를 이루는 복수의 점 및 이들 간 거리를 확대할 수 있으므로, 점의 센터의 위치와 디스패리티를 더욱 정밀하게 측정할 수 있다.In this way, if the optical input unit 720 includes the zoom optical system 722, the optical signal received through the optical input unit 720 can be enlarged. According to this, since the plurality of points forming the optical signal and the distance between them can be enlarged, the position and disparity of the center of the point can be measured more precisely.

본 발명의 실시예에 따르면, 제어부(740)는 광출력부(710)와 광입력부(720)를 연동시킨다. According to an embodiment of the present invention, the control unit 740 interlocks the optical output unit 710 and the optical input unit 720.

전술한 바와 같이, 제1 광학계(712)보다 좁은 화각을 가지는 제2 광학계(714)는 제1 광학계(712)의 측정 거리보다 장거리의 깊이 정보를 생성하는데 적용될 수 있다. 다만, 도 5를 참조하여 설명한 바와 같이, 객체 거리가 증가할수록 디스패리티의 변화율이 작아지며, 도 6을 참조하여 설명한 바와 같이 이러한 문제를 해결하기 위하여 이미지 센서의 화소 수를 늘릴 수 있으나, 이로 인해 카메라 장치의 소모 전력, 연산 복잡도 및 비용이 높아질 수 있다.As described above, the second optical system 714, which has a narrower viewing angle than the first optical system 712, can be applied to generate depth information over a longer distance than the measurement distance of the first optical system 712. However, as explained with reference to FIG. 5, as the object distance increases, the rate of change in disparity decreases. As explained with reference to FIG. 6, the number of pixels in the image sensor can be increased to solve this problem, but this causes The power consumption, computational complexity, and cost of the camera device may increase.

그러나, 본 발명의 실시예에 따라, 제어부(740)가 광출력부(710)와 광입력부(720)를 연동시킬 경우, 이미지 센서의 화소 수를 늘리지 않고도, 근거리뿐만 아니라 중장거리에서도 정밀한 깊이 정보를 생성할 수 있는 카메라 장치를 얻을 수 있다.However, according to an embodiment of the present invention, when the control unit 740 links the optical output unit 710 and the optical input unit 720, precise depth information is provided not only at short distances but also at mid-to-long distances without increasing the number of pixels of the image sensor. You can obtain a camera device that can create .

즉, 본 발명의 실시예에 따르면, 광출력부(710)의 제1 광학계(712)가 구동되면, 제어부(740)는 줌 광학계(722)가 제1 배율로 구동되도록 제어하고, 광출력부(710)의 제2 광학계(714)가 구동되면, 제어부(740)는 줌 광학계(722)가 제1 배율보다 높은 제2 배율로 구동되도록 제어한다. 예를 들어, 제1 광학계(712)의 제1 광원(800)이 턴온되면, 제어부(740)는 줌 광학계(722)가 제1 배율로 구동되도록 제어하고, 제2 광학계(714)의 제2 광원(810)이 턴온되면, 제어부(740)는 줌 광학계(722)가 제2 배율로 구동되도록 제어할 수 있다. 이와 같이, 제2 광학계(714)의 구동 시 줌 광학계(722)가 제2 배율로 구동되면, 광입력부(720)에 입력되는 광 신호의 점 및 이들 간 거리가 광학계(722)가 제1 배율로 구동될 때의 경우보다 확대되므로, 점의 센터 및 디스패리티를 정밀하게 측정할 수 있다.That is, according to an embodiment of the present invention, when the first optical system 712 of the optical output unit 710 is driven, the control unit 740 controls the zoom optical system 722 to be driven at the first magnification, and the optical output unit 710 When the second optical system 714 of 710 is driven, the control unit 740 controls the zoom optical system 722 to be driven at a second magnification higher than the first magnification. For example, when the first light source 800 of the first optical system 712 is turned on, the control unit 740 controls the zoom optical system 722 to be driven at the first magnification and the second optical system 714 is turned on. When the light source 810 is turned on, the control unit 740 can control the zoom optical system 722 to be driven at the second magnification. In this way, when the zoom optical system 722 is driven at the second magnification when the second optical system 714 is driven, the points of the optical signal input to the optical input unit 720 and the distance between them are adjusted to the first magnification when the optical system 722 is driven. Because it is enlarged compared to when driven with , the center and disparity of the point can be measured precisely.

본 발명의 실시예에 따르면, 제어부(740)는 제1 광학계(712) 및 제2 광학계(714) 중 하나가 선택적으로 구동되도록 제어할 수 있다. 예를 들어, 제어부(740)는 제1 광학계(712)가 구동되도록 제어하며, 이와 연동하여 줌 광학계(722)가 제1 배율로 구동되도록 제어할 수 있다. 또는, 제어부(740)는 제2 광학계(714)가 구동되도록 제어하며, 이와 연동하여 줌 광학계(722)가 제2 배율로 구동되도록 제어할 수 있다. According to an embodiment of the present invention, the control unit 740 can control one of the first optical system 712 and the second optical system 714 to be selectively driven. For example, the control unit 740 may control the first optical system 712 to be driven and, in conjunction with this, control the zoom optical system 722 to be driven at the first magnification. Alternatively, the control unit 740 may control the second optical system 714 to be driven and, in conjunction with this, control the zoom optical system 722 to be driven at the second magnification.

본 발명의 실시예에 따르면, 초기 설정에 의하여 제1 광학계(712)가 우선적으로 구동되도록 설정될 수 있으며, 제어부(740)는 제1 광학계(712)로부터 제2 광학계(714)로 변경 구동되도록 제어할 수 있다. 또는, 초기 설정에 의하여 제2 광학계(714)가 우선적으로 구동되도록 설정될 수 있으며, 제어부(740)는 제2 광학계(714)로부터 제1 광학계(712)로 변경 구동되도록 제어할 수 있다. 여기서, 제어부는(740)는 사용자 인터페이스부를 통하여 입력되는 정보 또는 외부 장치로부터 입력되는 정보에 의해 변경 구동을 제어할 수 있다. 또는, 제어부(740)는 깊이 정보 생성부(730)에 의해 생성된 깊이 정보에 의해 변경 구동을 제어할 수도 있다.According to an embodiment of the present invention, the first optical system 712 may be set to be driven preferentially by initial setting, and the control unit 740 may be changed to drive from the first optical system 712 to the second optical system 714. You can control it. Alternatively, the second optical system 714 may be set to be driven preferentially by initial setting, and the control unit 740 may control the drive to change from the second optical system 714 to the first optical system 712. Here, the control unit 740 can control the change operation based on information input through the user interface unit or information input from an external device. Alternatively, the control unit 740 may control change driving based on depth information generated by the depth information generator 730.

이하, 본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법을 더욱 구체적으로 설명한다.Hereinafter, a method for generating depth information of a camera device according to an embodiment of the present invention will be described in more detail.

도 10은 본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법을 나타내는 순서도이고, 도 11은 도 10의 깊이 정보 생성 방법 중 제어부가 광출력부와 광입력부를 연동하는 단계를 나타내는 순서도이다.FIG. 10 is a flowchart showing a method for generating depth information of a camera device according to an embodiment of the present invention, and FIG. 11 is a flowchart showing steps in which the control unit links the optical output unit and the optical input unit in the depth information generating method of FIG. 10. .

도 10을 참조하면, 광출력부(710)는 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사한다(S1000). 여기서, 광출력부(710)는 제1 화각의 광 신호를 객체에 조사하거나, 제1 화각보다 작은 제2 화각의 광 신호를 객체에 조사한다.Referring to FIG. 10, the optical output unit 710 radiates an optical signal of a predetermined pattern consisting of a plurality of dots to the object (S1000). Here, the optical output unit 710 radiates an optical signal of a first angle of view to the object, or irradiates an optical signal of a second angle of view smaller than the first angle of view to the object.

다음으로, 제어부(740)는 광출력부(710)와 광입력부(720)를 연동시킨다(S1010). 예를 들어, 도 11을 참조하면, 광출력부(710)가 제1 화각의 광 신호를 객체에 조사하면(S1100), 제어부(740)는 광입력부(720)의 줌 렌즈가 제1 배율로 구동되도록 제어한다(S1110). 광출력부(710)가 제1 화각의 광 신호를 객체에 조사하지 않고, 제2 화각의 광 신호를 객체에 조사하면(S1120), 제어부(740)는 광입력부(720)의 줌 렌즈가 제1 배율보다 높은 제2 배율로 구동되도록 제어한다(S1130).Next, the control unit 740 interlocks the optical output unit 710 and the optical input unit 720 (S1010). For example, referring to FIG. 11, when the optical output unit 710 radiates an optical signal of the first angle of view to the object (S1100), the control unit 740 adjusts the zoom lens of the optical input unit 720 to the first magnification. Control it to drive (S1110). When the optical output unit 710 does not irradiate the optical signal of the first angle of view to the object but radiates the optical signal of the second angle of view to the object (S1120), the control unit 740 sets the zoom lens of the optical input unit 720 to the object. It is controlled to be driven at a second magnification higher than 1 magnification (S1130).

다음으로, 다시 도 10을 참조하면, 광입력부(720)는 객체로부터 반사된 후 입력된 광 신호를 수신하고(S1020), 깊이 정보 생성부(730)는 광입력부(720)에 입력된 광 신호의 디스패리티(disparity)를 이용하여 객체의 깊이 정보를 생성한다(S1030).Next, referring again to FIG. 10, the optical input unit 720 receives the optical signal input after reflection from the object (S1020), and the depth information generator 730 receives the optical signal input to the optical input unit 720. Depth information of the object is generated using the disparity (S1030).

한편, 본 발명의 실시예에 따르면, 제어부(740)는 광출력부(710)가 제1 화각의 광 신호를 객체에 조사하거나, 제1 화각보다 작은 제2 화각의 광 신호를 객체에 조사하도록 선택적으로 제어할 수 있다. 예를 들어, 제어부(740)는 사용자 인터페이스를 통하여 입력되는 정보 또는 외부 장치로부터 입력되는 정보에 의하여 광출력부(710)가 제1 화각의 광 신호를 객체에 조사하거나, 제2 화각의 광 신호를 객체에 조사하도록 선택적으로 제어할 수 있다. 또는, 제어부(740)는 객체의 깊이 정보를 생성하는 단계(S1030)에 의하여 생성된 깊이 정보에 따라 광출력부(710)가 제1 화각의 광 신호를 객체에 조사하거나, 제2 화각의 광 신호를 객체에 조사하도록 선택적으로 제어할 수 있다.Meanwhile, according to an embodiment of the present invention, the control unit 740 causes the optical output unit 710 to irradiate an optical signal of a first angle of view to the object or to irradiate an optical signal of a second angle of view smaller than the first angle of view to the object. Can be controlled selectively. For example, the control unit 740 causes the optical output unit 710 to irradiate an optical signal of a first angle of view to an object or an optical signal of a second angle of view based on information input through a user interface or information input from an external device. You can selectively control to interrogate the object. Alternatively, the control unit 740 causes the light output unit 710 to irradiate the light signal of the first angle of view to the object or emit light of the second angle of view according to the depth information generated in the step of generating depth information of the object (S1030). The signal can be selectively controlled to irradiate to the object.

도 12는 본 발명의 실시예에 따른 카메라 장치의 제어 방법을 나타내는 순서도이다. Figure 12 is a flowchart showing a method of controlling a camera device according to an embodiment of the present invention.

도 12를 참조하면, 광출력부(710)는 제1 화각의 광 신호를 객체에 조사하고(S1200), 광입력부(720)는 제1 배율로 광 신호를 수신하며(S1210), 깊이 정보 생성부(730)는 수신한 광 신호를 이용하여 깊이 정보를 생성한다(S1220).Referring to FIG. 12, the optical output unit 710 irradiates an optical signal at a first angle of view to an object (S1200), the optical input unit 720 receives an optical signal at a first magnification (S1210), and generates depth information. Unit 730 generates depth information using the received optical signal (S1220).

이때, 생성된 깊이 정보가 미리 설정된 거리 이하이면(S1230), 제어부(740)는 광출력부(710)가 제1 화각의 광신호를 객체에 조사하고(S1200), 광입력부(720)가 제1 배율로 광신호를 수신하며(S1210), 깊이 정보 생성부(730)가 수신한 광 신호를 이용하여 깊이 정보를 생성(S1220)하도록 제어할 수 있다. 여기서, 미리 설정된 거리는 객체 거리를 의미하며, 예를 들어 900mm일 수 있다.At this time, if the generated depth information is less than the preset distance (S1230), the control unit 740 causes the optical output unit 710 to irradiate the optical signal of the first angle of view to the object (S1200), and the optical input unit 720 radiates the optical signal of the first angle of view to the object. An optical signal is received at a magnification of 1 (S1210), and the depth information generator 730 can be controlled to generate depth information using the received optical signal (S1220). Here, the preset distance refers to the object distance and may be, for example, 900mm.

이에 반해, 생성된 깊이 정보가 미리 설정된 거리를 초과하면, 제어부(740)는 광출력부(710)가 제2 화각의 광 신호를 객체에 조사하고(S1240), 광입력부(720)가 제2 배율로 광 신호를 수신하며(S1250), 깊이 정보 생성부(730)가 수신한 광 신호를 이용하여 깊이 정보를 생성(S1220)하도록 제어할 수 있다.On the other hand, if the generated depth information exceeds the preset distance, the control unit 740 causes the optical output unit 710 to irradiate an optical signal of the second angle of view to the object (S1240), and the optical input unit 720 irradiates the optical signal of the second angle of view to the object. An optical signal is received at a magnification (S1250), and the depth information generator 730 can be controlled to generate depth information using the received optical signal (S1220).

이에 따르면, 광출력부(710)의 제1 광학계(712)가 구동하도록 초기 설정된 상태에서, 객체가 중거리 이상, 예를 들어 900mm 초과의 거리에 있을 경우, 광출력부(710)의 화각 및 광입력부(720)의 배율을 적응적으로 조절할 수 있다.According to this, in a state where the first optical system 712 of the optical output unit 710 is initially set to operate, when an object is at a mid-distance or longer, for example, a distance exceeding 900 mm, the angle of view and light of the optical output unit 710 The magnification of the input unit 720 can be adjusted adaptively.

또한, 광출력부(710)의 제2 광학계(714)가 구동하는 상태에서, 객체가 근거리, 예를 들어 900mm 이하의 거리에 있을 경우, 광출력부(710)의 화각 및 광입력부(720)의 배율을 근거리용으로 적응적으로 조절할 수 있다.In addition, when the second optical system 714 of the optical output unit 710 is driven and an object is at a short distance, for example, a distance of 900 mm or less, the angle of view of the optical output unit 710 and the optical input unit 720 The magnification can be adjusted adaptively for close range use.

이에 따르면, 사용자가 별도로 설정할 필요 없이 근거리 모드에서 장거리 모드로 자동 변환되거나, 장거리 모드에서 근거리 모드로 자동 변환될 수 있으므로, 이동 중인 객체에 대하여 정밀하고 신속하게 깊이 정보를 추출할 수 있다.According to this, the user can automatically convert from short-distance mode to long-distance mode or from long-distance mode to short-distance mode without the user having to set anything separately, so depth information can be extracted precisely and quickly for a moving object.

도 13은 본 발명의 실시예에 따라 광입력부가 줌 렌즈를 포함하는 경우, 디스패리티 측정 성능이 향상되는 예를 나타낸다.Figure 13 shows an example in which disparity measurement performance is improved when the optical input unit includes a zoom lens according to an embodiment of the present invention.

도 13(a)는 광입력부가 줌 렌즈를 포함하지 않는 경우, 이미지 센서의 이미지이고, 도 13(b) 은 본 발명의 실시예에 따라 광입력부가 줌 렌즈를 포함하는 경우, 이미지 센서의 이미지이다. FIG. 13(a) is an image of the image sensor when the optical input unit does not include a zoom lens, and FIG. 13(b) is an image of the image sensor when the optical input unit includes a zoom lens according to an embodiment of the present invention. am.

도 13(a)는 를 참조하면, 점들의 일부가 서로 겹쳐지므로, 점들의 센터 및 디스패리티를 정밀하게 계산하기 어려움을 알 수 있다. Referring to FIG. 13(a), it can be seen that since some of the points overlap each other, it is difficult to precisely calculate the center and disparity of the points.

이에 반해, 도 13(b)를 참조하면, 줌 렌즈를 이용하여 이미지를 5배 확대한 경우, 점들의 센터 및 디스패리티를 보다 정밀하게 계산할 수 있다.On the other hand, referring to FIG. 13(b), when the image is enlarged 5 times using a zoom lens, the center and disparity of the points can be calculated more precisely.

이에 따라, 본 발명의 실시예에 따르면, 장거리로 갈수록 디스패리티의 민감도가 떨어지는 문제를 해결할 수 있으며, 근거리뿐만 아니라 중장거리에서의 깊이 정보 생성에도 구조광 방식의 카메라 장치가 이용될 수 있다.Accordingly, according to an embodiment of the present invention, the problem that the sensitivity of disparity decreases over a long distance can be solved, and a structured light camera device can be used to generate depth information not only at a short distance but also at a mid-to-long distance.

본 명세서에서, 줌 광학계가 제1 배율 또는 제1 배율보다 높은 제2 배율로 구동되는 예를 중심으로 설명하고 있으나, 이로 제한되는 것은 아니다. 줌 광학계는 2 이상의 배율로 구동될 수 있다. 예를 들어, 줌 광학계는 제1 배율, 제1 배율보다 높은 제2 배율 또는 제2 배율보다 높은 제3 배율로 구동될 수도 있다. 또는, 줌 광학계는 배율이 연속적으로 변하는 연속 줌 광학계일 수도 있다.In this specification, the description is centered on an example in which the zoom optical system is driven at a first magnification or a second magnification higher than the first magnification, but is not limited thereto. The zoom optical system can be driven at a magnification of 2 or more. For example, the zoom optical system may be driven at a first magnification, a second magnification higher than the first magnification, or a third magnification higher than the second magnification. Alternatively, the zoom optical system may be a continuous zoom optical system in which magnification continuously changes.

본 발명의 실시예에 따른 카메라 장치는 자동차에 실장되어, 자동차와 물체 간의 거리를 측정하는 카메라 장치를 의미할 수 있으나, 이로 제한되는 것은 아니다. 예를 들어, 본 발명의 실시예에 따른 카메라 장치는 LIDAR(Light Detection and Ranging) 카메라일 수 있다.The camera device according to an embodiment of the present invention may refer to a camera device mounted on a car and measures the distance between the car and an object, but is not limited thereto. For example, a camera device according to an embodiment of the present invention may be a LIDAR (Light Detection and Ranging) camera.

이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. Although the above description focuses on the examples, this is only an example and does not limit the present invention, and those skilled in the art will be able to You will see that various variations and applications are possible. For example, each component specifically shown in the examples can be modified and implemented. And these variations and differences in application should be construed as being included in the scope of the present invention as defined in the appended claims.

1, 700: 카메라 장치
10, 710: 광출력부
20, 720: 광입력부
30, 730: 깊이 정보 생성부
40, 740: 제어부
712: 제1 광학계
714: 제2 광학계
722: 줌 광학계
724: 이미지 센서
726: IR 밴드패스 필터
800: 제1 광원
802: 제1 회절 광학 소자
804: 제1 콜리메이터 렌즈
810: 제2 광원
812: 제2 회절 광학 소자
814: 제2 콜리메이터 렌즈
1, 700: camera device
10, 710: Optical output unit
20, 720: Optical input unit
30, 730: Depth information generation unit
40, 740: control unit
712: First optical system
714: Second optical system
722: Zoom optics
724: Image sensor
726: IR bandpass filter
800: first light source
802: First diffractive optical element
804: first collimator lens
810: second light source
812: second diffractive optical element
814: second collimator lens

Claims (10)

복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사하는 광출력부,
상기 객체로부터 반사된 광 신호를 수신하는 광입력부, 그리고
상기 광입력부가 수신하는 상기 광 신호의 디스패리티(disparity)를 이용하여 상기 객체의 깊이 정보를 생성하는 깊이 정보 생성부를 포함하고,
상기 광출력부는,
제1 화각의 상기 광 신호를 상기 객체에 조사하는 제1 광학계, 및 상기 제1 화각보다 작은 제2 화각의 상기 광 신호를 상기 객체에 조사하는 제2 광학계를 포함하며,
상기 광입력부는 제1 배율 및 상기 제1 배율보다 높은 제2 배율 중 하나로 구동되는 줌 광학계 및 이미지 센서를 포함하고,
상기 제1 광학계가 구동되면, 상기 줌 광학계는 상기 제1 배율로 구동되고,
상기 제2 광학계가 구동되면, 상기 줌 광학계는 상기 제2 배율로 구동되는 카메라 장치.
An optical output unit that radiates an optical signal of a predetermined pattern consisting of a plurality of dots to an object,
An optical input unit that receives an optical signal reflected from the object, and
A depth information generator that generates depth information of the object using disparity of the optical signal received by the optical input unit,
The optical output unit,
A first optical system for irradiating the light signal of a first angle of view to the object, and a second optical system for irradiating the light signal of a second angle of view smaller than the first angle of view to the object,
The optical input unit includes a zoom optical system and an image sensor driven at one of a first magnification and a second magnification higher than the first magnification,
When the first optical system is driven, the zoom optical system is driven at the first magnification,
When the second optical system is driven, the zoom optical system is driven at the second magnification.
제1항에 있어서,
상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 더 포함하고,
상기 제1 광학계는 제1 광원, 그리고 상기 제1 광원에 의해 출력된 광을 상기 제1 화각으로 확산시키는 제1 회절 광학 소자(Diffractive Optical Element, DOE)를 포함하고,
상기 제2 광학계는 제2 광원, 그리고 상기 제2 광원에 의해 출력된 광을 상기 제2 화각으로 확산시키는 제2 회절 광학 소자를 포함하는 카메라 장치.
According to paragraph 1,
Further comprising a control unit that controls the optical output unit, the optical input unit, and the depth information generator,
The first optical system includes a first light source and a first diffractive optical element (DOE) that diffuses the light output by the first light source to the first angle of view,
The second optical system includes a second light source and a second diffractive optical element that diffuses the light output by the second light source to the second angle of view.
제2항에 있어서,
상기 제1 광원이 턴온되면, 상기 제어부는 상기 줌 광학계가 상기 제1 배율로 구동되도록 제어하고,
상기 제2 광원이 턴온되면, 상기 제어부는 상기 줌 광학계가 상기 제2 배율로 구동되도록 제어하는 카메라 장치.
According to paragraph 2,
When the first light source is turned on, the control unit controls the zoom optical system to be driven at the first magnification,
When the second light source is turned on, the control unit controls the zoom optical system to be driven at the second magnification.
제3항에 있어서,
상기 제1 광원 및 상기 제2 광원은 동일한 패턴의 광을 출력하고,
상기 제1 광원에 의해 출력된 광은 상기 제1 회절 광학 소자에 의하여 n*n배로 복사되어 상기 객체에 조사되며,
상기 제2 광원에 의해 출력된 광은 상기 제2 회절 광학 소자에 의하여 n*n배로 복사되어 상기 객체에 조사되고,
상기 n은 2 이상의 정수인 카메라 장치.
According to paragraph 3,
The first light source and the second light source output light of the same pattern,
The light output by the first light source is radiated n*n times by the first diffractive optical element and irradiated to the object,
The light output by the second light source is radiated n*n times by the second diffractive optical element and irradiated to the object,
A camera device where n is an integer of 2 or more.
제1항에 있어서,
상기 줌 광학계는 줌 렌즈, 그리고 상기 줌 렌즈를 상기 제1 배율 및 상기 제2 배율 중 하나로 구동시키는 액추에이터를 포함하는 카메라 장치.
According to paragraph 1,
The zoom optical system is a camera device including a zoom lens and an actuator that drives the zoom lens to one of the first magnification and the second magnification.
제1항에 있어서,
상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 더 포함하고,
상기 제어부는 상기 제1 광학계 및 상기 제2 광학계 중 하나가 선택적으로 구동되도록 제어하는 카메라 장치.
According to paragraph 1,
Further comprising a control unit that controls the optical output unit, the optical input unit, and the depth information generator,
The control unit controls one of the first optical system and the second optical system to be selectively driven.
제1항에 있어서,
상기 광출력부는,
상기 생성된 깊이 정보가 미리 설정된 거리 이하이면 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하고,
상기 생성된 깊이 정보가 상기 미리 설정된 거리를 초과하면 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하는 카메라 장치.
According to paragraph 1,
The optical output unit,
If the generated depth information is less than a preset distance, radiating the light signal of the first angle of view to the object,
A camera device that irradiates the light signal of the second angle of view to the object when the generated depth information exceeds the preset distance.
카메라 장치의 깊이 정보 생성 방법에 있어서,
광출력부가 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사하는 단계,
상기 광출력부와 광입력부를 연동시키는 단계,
상기 광입력부가 상기 객체로부터 반사된 광 신호를 수신하는 단계, 그리고
상기 광입력부가 수신하는 광 신호의 디스패리티(disparity)를 이용하여 상기 객체의 깊이 정보를 생성하는 단계를 포함하며,
상기 광 신호를 조사하는 단계는 상기 광출력부가 제1 화각의 상기 광 신호 및 상기 제1 화각보다 작은 제2 화각의 상기 광 신호 중 하나를 상기 객체에 조사하는 것을 포함하고,
상기 광출력부와 상기 광입력부를 연동시키는 단계는 상기 광출력부가 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하면, 상기 광입력부의 줌 렌즈가 제1 배율로 구동되고, 상기 광출력부가 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하면, 상기 광입력부의 줌 렌즈가 상기 제1 배율보다 높은 제2 배율로 구동되는 것을 포함하는,
깊이 정보 생성 방법.
In a method of generating depth information of a camera device,
A step where the optical output unit radiates an optical signal of a predetermined pattern consisting of a plurality of dots to the object,
Linking the optical output unit and the optical input unit,
the optical input unit receiving an optical signal reflected from the object, and
Generating depth information of the object using disparity of the optical signal received by the optical input unit,
The step of irradiating the optical signal includes the optical output unit irradiating one of the optical signal at a first angle of view and the optical signal at a second angle of view smaller than the first angle of view to the object,
The step of linking the optical output unit and the optical input unit includes: when the optical output unit irradiates the optical signal of the first angle of view to the object, the zoom lens of the optical input unit is driven at a first magnification, and the optical output unit When the optical signal of the second angle of view is irradiated to the object, the zoom lens of the optical input unit is driven at a second magnification higher than the first magnification,
How to generate depth information.
제8항에 있어서,
상기 광 신호를 상기 객체에 조사하는 단계는 상기 생성된 깊이 정보에 따라 상기 광출력부가 선택적으로 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하거나, 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하는 것을 포함하는 깊이 정보 생성 방법.
According to clause 8,
The step of irradiating the optical signal to the object may include the light output unit selectively irradiating the optical signal of the first angle of view to the object or the optical signal of the second angle of view to the object according to the generated depth information. A method of generating depth information that includes examining .
제9항에 있어서,
상기 광 신호를 상기 객체에 조사하는 단계는 상기 생성된 깊이 정보가 미리 설정된 거리 이하이면 상기 광출력부가 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하고, 상기 생성된 깊이 정보가 상기 미리 설정된 거리를 초과하면 상기 광출력부가 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하는 것을 포함하는 깊이 정보 생성 방법.
According to clause 9,
The step of irradiating the optical signal to the object includes, if the generated depth information is less than a preset distance, the optical output unit irradiates the optical signal of the first angle of view to the object, and the generated depth information is the preset distance. When the distance is exceeded, the light output unit irradiates the light signal of the second angle of view to the object.
KR1020220060296A 2022-05-11 2022-05-17 Camera apparatus KR20230160598A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220060296A KR20230160598A (en) 2022-05-17 2022-05-17 Camera apparatus
PCT/KR2023/006413 WO2023219440A1 (en) 2022-05-11 2023-05-11 Camera apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220060296A KR20230160598A (en) 2022-05-17 2022-05-17 Camera apparatus

Publications (1)

Publication Number Publication Date
KR20230160598A true KR20230160598A (en) 2023-11-24

Family

ID=88972354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220060296A KR20230160598A (en) 2022-05-11 2022-05-17 Camera apparatus

Country Status (1)

Country Link
KR (1) KR20230160598A (en)

Similar Documents

Publication Publication Date Title
US9553423B2 (en) Miniature structured light illuminator
US9870068B2 (en) Depth mapping with a head mounted display using stereo cameras and structured light
US6619547B2 (en) Image-based graphical code reader device with multi-functional optical element and converging laser targeting
EP4056947A1 (en) Light projection apparatus
JP6580578B2 (en) Camera device
US20130002859A1 (en) Information acquiring device and object detecting device
CN113196284B (en) Image pickup apparatus
KR20150089673A (en) Camera apparatus
CN108333858A (en) Laser emitter, optoelectronic device, depth camera and electronic device
KR20230160598A (en) Camera apparatus
CN220171253U (en) 3D module and electronic equipment
KR20200113438A (en) Camera module
KR102561533B1 (en) Camera device
US20240056669A1 (en) Camera module
KR102647377B1 (en) Camera apparatus
KR20230046736A (en) Camera module
KR102710469B1 (en) Camera module
KR20240124017A (en) Light output device and camera device comprising the same
EP4412194A1 (en) Camera device
KR20240022227A (en) Light output device and information generating device comprising the same
KR20240040461A (en) Camera device
KR20240040462A (en) Lidar apparatus and information generating method of the same
KR20240022226A (en) Camera apparatus
KR102427440B1 (en) Device for varying laser emission angle and device for acquiring 3-dimensional image
KR20240048280A (en) 3d sensing device