KR20230160598A - Camera apparatus - Google Patents
Camera apparatus Download PDFInfo
- Publication number
- KR20230160598A KR20230160598A KR1020220060296A KR20220060296A KR20230160598A KR 20230160598 A KR20230160598 A KR 20230160598A KR 1020220060296 A KR1020220060296 A KR 1020220060296A KR 20220060296 A KR20220060296 A KR 20220060296A KR 20230160598 A KR20230160598 A KR 20230160598A
- Authority
- KR
- South Korea
- Prior art keywords
- optical
- angle
- optical system
- depth information
- view
- Prior art date
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 364
- 238000000034 method Methods 0.000 claims description 21
- 230000001678 irradiating effect Effects 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 230000007423 decrease Effects 0.000 description 6
- VLLVVZDKBSYMCG-UHFFFAOYSA-N 1,3,5-trichloro-2-(2-chlorophenyl)benzene Chemical compound ClC1=CC(Cl)=CC(Cl)=C1C1=CC=CC=C1Cl VLLVVZDKBSYMCG-UHFFFAOYSA-N 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 101001045744 Sus scrofa Hepatocyte nuclear factor 1-beta Proteins 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/236—Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Studio Devices (AREA)
Abstract
본 발명의 실시예에 따른 카메라 장치는 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사하는 광출력부, 상기 객체로부터 반사된 광 신호를 수신하는 광입력부, 그리고 상기 광입력부가 수신하는 상기 광 신호의 디스패리티(disparity)를 이용하여 상기 객체의 깊이 정보를 생성하는 깊이 정보 생성부를 포함하고, 상기 광출력부는, 제1 화각의 상기 광 신호를 상기 객체에 조사하는 제1 광학계, 및 상기 제1 화각보다 작은 제2 화각의 상기 광 신호를 상기 객체에 조사하는 제2 광학계를 포함하며, 상기 광입력부는 제1 배율 및 상기 제1 배율보다 높은 제2 배율 중 하나로 구동되는 줌 광학계 및 이미지 센서를 포함하고, 상기 제1 광학계가 구동되면, 상기 줌 광학계는 상기 제1 배율로 구동되고, 상기 제2 광학계가 구동되면, 상기 줌 광학계는 상기 제2 배율로 구동된다.A camera device according to an embodiment of the present invention includes an optical output unit that radiates an optical signal of a predetermined pattern consisting of a plurality of dots to an object, an optical input unit that receives an optical signal reflected from the object, and the optical signal that the optical input unit receives. a depth information generator that generates depth information of the object using disparity of an optical signal, wherein the optical output unit includes a first optical system that radiates the optical signal at a first angle of view to the object, and A zoom optical system and an image comprising a second optical system that radiates the optical signal of a second angle of view smaller than the first angle of view to the object, wherein the optical input unit is driven at one of a first magnification and a second magnification higher than the first magnification. It includes a sensor, and when the first optical system is driven, the zoom optical system is driven at the first magnification, and when the second optical system is driven, the zoom optical system is driven at the second magnification.
Description
본 발명은 카메라 장치에 관한 것이다.The present invention relates to a camera device.
3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 깊이 정보를 획득하는 방법으로, 구조광 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다.3D content is applied in many fields such as education, manufacturing, and autonomous driving as well as games and culture, and depth information (Depth Map) is required to obtain 3D content. Depth information is information representing distance in space, and represents perspective information of another point with respect to one point in a two-dimensional image. Methods for acquiring depth information include structured light methods, stereo camera methods, and TOF (Time of Flight) methods.
이 중에서, 구조광 방식에 따르면, 주변 조명과 구별되는 소정 패턴의 IR(Infrared) 구조광을 객체에 조사하고, 객체로부터 반사된 광 신호를 수신하여 왜곡을 분석함으로써 거리를 계산한다.Among these, according to the structured light method, a predetermined pattern of IR (Infrared) structured light, which is distinct from surrounding lighting, is irradiated to the object, and the distance is calculated by receiving the light signal reflected from the object and analyzing the distortion.
IR 구조광을 객체에 투사하는 방식은 다른 방식에 비하여 근거리에서 상대적으로 높은 정확도를 가지지만, 거리가 멀어질수록 정확도가 현저히 낮아지므로, 구동 가능 거리가 짧은 한계를 가진다.The method of projecting IR structured light onto an object has relatively high accuracy at close range compared to other methods, but the accuracy decreases significantly as the distance increases, so the drivable distance is limited to a short range.
본 발명이 이루고자 하는 기술적 과제는 깊이 정보 획득을 위한 카메라 장치를 제공하는 것이다. The technical problem to be achieved by the present invention is to provide a camera device for acquiring depth information.
본 발명의 실시예에 따른 카메라 장치는 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사하는 광출력부, 상기 객체로부터 반사된 광 신호를 수신하는 광입력부, 그리고 상기 광입력부가 수신하는 상기 광 신호의 디스패리티(disparity)를 이용하여 상기 객체의 깊이 정보를 생성하는 깊이 정보 생성부를 포함하고, 상기 광출력부는, 제1 화각의 상기 광 신호를 상기 객체에 조사하는 제1 광학계, 및 상기 제1 화각보다 작은 제2 화각의 상기 광 신호를 상기 객체에 조사하는 제2 광학계를 포함하며, 상기 광입력부는 제1 배율 및 상기 제1 배율보다 높은 제2 배율 중 하나로 구동되는 줌 광학계 및 이미지 센서를 포함하고, 상기 제1 광학계가 구동되면, 상기 줌 광학계는 상기 제1 배율로 구동되고, 상기 제2 광학계가 구동되면, 상기 줌 광학계는 상기 제2 배율로 구동된다.A camera device according to an embodiment of the present invention includes an optical output unit that radiates an optical signal of a predetermined pattern consisting of a plurality of dots to an object, an optical input unit that receives an optical signal reflected from the object, and the optical signal that the optical input unit receives. a depth information generator that generates depth information of the object using disparity of an optical signal, wherein the optical output unit includes a first optical system that radiates the optical signal at a first angle of view to the object, and A zoom optical system and an image comprising a second optical system that radiates the optical signal of a second angle of view smaller than the first angle of view to the object, wherein the optical input unit is driven at one of a first magnification and a second magnification higher than the first magnification. It includes a sensor, and when the first optical system is driven, the zoom optical system is driven at the first magnification, and when the second optical system is driven, the zoom optical system is driven at the second magnification.
상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 더 포함하고, 상기 제1 광학계는 제1 광원, 그리고 상기 제1 광원에 의해 출력된 광을 상기 제1 화각으로 확산시키는 제1 회절 광학 소자(Diffractive Optical Element, DOE)를 포함하고, 상기 제2 광학계는 제2 광원, 그리고 상기 제2 광원에 의해 출력된 광을 상기 제2 화각으로 확산시키는 제2 회절 광학 소자를 포함할 수 있다.It further includes a control unit that controls the optical output unit, the optical input unit, and the depth information generator, wherein the first optical system includes a first light source, and a second light source that diffuses the light output by the first light source to the first angle of view. 1 includes a diffractive optical element (DOE), and the second optical system may include a second light source and a second diffractive optical element that diffuses the light output by the second light source to the second angle of view. You can.
상기 제1 광원이 턴온되면, 상기 제어부는 상기 줌 광학계가 상기 제1 배율로 구동되도록 제어하고, 상기 제2 광원이 턴온되면, 상기 제어부는 상기 줌 광학계가 상기 제2 배율로 구동되도록 제어할 수 있다.When the first light source is turned on, the control unit may control the zoom optical system to be driven at the first magnification, and when the second light source is turned on, the control unit may control the zoom optical system to be driven at the second magnification. there is.
상기 제1 광원 및 상기 제2 광원은 동일한 패턴의 광을 출력하고, 상기 제1 광원에 의해 출력된 광은 상기 제1 회절 광학 소자에 의하여 n*n배로 복사되어 상기 객체에 조사되며, 상기 제2 광원에 의해 출력된 광은 상기 제2 회절 광학 소자에 의하여 n*n배로 복사되어 상기 객체에 조사되고, 상기 n은 2 이상의 정수일 수 있다.The first light source and the second light source output light of the same pattern, and the light output by the first light source is radiated n*n times by the first diffractive optical element and irradiated to the object. 2 The light output by the light source is radiated n*n times by the second diffractive optical element and irradiated to the object, where n may be an integer of 2 or more.
상기 줌 광학계는 줌 렌즈, 그리고 상기 줌 렌즈를 상기 제1 배율 및 상기 제2 배율 중 하나로 구동시키는 액추에이터를 포함할 수 있다.The zoom optical system may include a zoom lens and an actuator that drives the zoom lens to one of the first magnification and the second magnification.
상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 더 포함하고, 상기 제어부는 상기 제1 광학계 및 상기 제2 광학계 중 하나가 선택적으로 구동되도록 제어할 수 있다.It further includes a control unit that controls the optical output unit, the optical input unit, and the depth information generator, and the control unit can control one of the first optical system and the second optical system to be selectively driven.
상기 광출력부는, 상기 생성된 깊이 정보가 미리 설정된 거리 이하이면 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하고, 상기 생성된 깊이 정보가 상기 미리 설정된 거리를 초과하면 상기 제2 화각의 상기 광 신호를 상기 객체에 조사할 수 있다.The optical output unit irradiates the light signal of the first angle of view to the object if the generated depth information is less than the preset distance, and if the generated depth information exceeds the preset distance, the light signal of the second angle of view is irradiated to the object. An optical signal may be irradiated to the object.
본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법은 광출력부가 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사하는 단계, 상기 광출력부와 광입력부를 연동시키는 단계, 상기 광입력부가 상기 객체로부터 반사된 광 신호를 수신하는 단계, 그리고 상기 광입력부가 수신하는 광 신호의 디스패리티(disparity)를 이용하여 상기 객체의 깊이 정보를 생성하는 단계를 포함하며, 상기 광 신호를 조사하는 단계는 상기 광출력부가 제1 화각의 상기 광 신호 및 상기 제1 화각보다 작은 제2 화각의 상기 광 신호 중 하나를 상기 객체에 조사하는 것을 포함하고, 상기 광출력부와 상기 광입력부를 연동시키는 단계는 상기 광출력부가 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하면, 상기 광입력부의 줌 렌즈가 제1 배율로 구동되고, 상기 광출력부가 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하면, 상기 광입력부의 줌 렌즈가 상기 제1 배율보다 높은 제2 배율로 구동되는 것을 포함한다.A method of generating depth information in a camera device according to an embodiment of the present invention includes the steps of an optical output unit irradiating an optical signal of a predetermined pattern consisting of a plurality of points to an object, linking the optical output unit and the optical input unit, and An input unit receiving an optical signal reflected from the object, and generating depth information of the object using disparity of the optical signal received by the optical input unit, and irradiating the optical signal. The step includes the optical output unit irradiating one of the optical signal at a first angle of view and the optical signal at a second angle of view smaller than the first angle of view to the object, and linking the optical output unit and the optical input unit. The step of irradiating the optical signal of the first angle of view to the object, the zoom lens of the optical input unit is driven at a first magnification, and the optical output unit transmits the optical signal of the second angle of view to the object. When irradiating an object, the zoom lens of the optical input unit is driven at a second magnification higher than the first magnification.
상기 광 신호를 상기 객체에 조사하는 단계는 상기 생성된 깊이 정보에 따라 상기 광출력부가 선택적으로 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하거나, 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하는 것을 포함할 수 있다.The step of irradiating the optical signal to the object may include the light output unit selectively irradiating the optical signal of the first angle of view to the object or the optical signal of the second angle of view to the object according to the generated depth information. It may include investigating.
상기 광 신호를 상기 객체에 조사하는 단계는 상기 생성된 깊이 정보가 미리 설정된 거리 이하이면 상기 광출력부가 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하고, 상기 생성된 깊이 정보가 상기 미리 설정된 거리를 초과하면 상기 광출력부가 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하는 것을 포함할 수 있다.The step of irradiating the optical signal to the object includes, if the generated depth information is less than a preset distance, the optical output unit irradiates the optical signal of the first angle of view to the object, and the generated depth information is the preset distance. When the distance is exceeded, the light output unit may irradiate the light signal of the second angle of view to the object.
본 발명의 실시예에 따르면, 깊이 정보 획득을 위한 카메라 장치가 제공될 수 있다. 특히, 본 발명의 실시예에 따르면, 구조광 방식을 이용하여 단거리뿐만 아니라 중거리 이상에서도 높은 정확도로 깊이 정보를 획득할 수 있다. 또한, 본 발명의 실시예에 따르면 고화소 이미지 센서를 이용하지 않음으로써 카메라 장치의 전체 소비 전력량 및 연산량이 감소될 수 있다.According to an embodiment of the present invention, a camera device for acquiring depth information may be provided. In particular, according to an embodiment of the present invention, depth information can be obtained with high accuracy not only at short distances but also at medium or longer distances using the structured light method. Additionally, according to an embodiment of the present invention, the overall power consumption and computation amount of the camera device can be reduced by not using a high-pixel image sensor.
도 1은 본 발명의 실시예에 따른 카메라 장치의 블록도이다.
도 2는 본 발명의 실시예에 따른 카메라 장치의 개략적인 단면도이다.
도 3은 소정 패턴의 광 신호의 한 예이다.
도 4는 구조광을 이용하여 깊이 정보를 생성하는 원리를 설명하는 도면이다.
도 5는 기준 거리와 객체의 거리 차에 따른 디스패리티 변화를 설명하는 그래프이다.
도 6은 이미지 센서의 화소 수에 따른 디스패리티 측정 성능을 나타낸다.
도 7은 본 발명의 한 실시예에 따른 카메라 장치의 블록도이다.
도 8은 본 발명의 한 실시예에 따른 카메라 장치의 개념도이다.
도 9는 본 발명의 실시예에 따른 줌 광학계의 블록도이다.
도 10은 본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법을 나타내는 순서도이다.
도 11은 도 10의 깊이 정보 생성 방법 중 제어부가 광출력부와 광입력부를 연동하는 단계를 나타내는 순서도이다.
도 12는 본 발명의 실시예에 따른 카메라 장치의 제어 방법을 나타내는 순서도이다.
도 13은 본 발명의 실시예에 따라 광입력부가 줌 렌즈를 포함하는 경우, 디스패리티 측정 성능이 향상되는 예를 나타낸다.1 is a block diagram of a camera device according to an embodiment of the present invention.
Figure 2 is a schematic cross-sectional view of a camera device according to an embodiment of the present invention.
Figure 3 is an example of an optical signal with a predetermined pattern.
Figure 4 is a diagram explaining the principle of generating depth information using structured light.
Figure 5 is a graph explaining the change in disparity according to the difference between the reference distance and the distance between the object.
Figure 6 shows disparity measurement performance according to the number of pixels of the image sensor.
Figure 7 is a block diagram of a camera device according to an embodiment of the present invention.
Figure 8 is a conceptual diagram of a camera device according to an embodiment of the present invention.
Figure 9 is a block diagram of a zoom optical system according to an embodiment of the present invention.
Figure 10 is a flowchart showing a method for generating depth information in a camera device according to an embodiment of the present invention.
FIG. 11 is a flowchart showing steps in which the control unit links the optical output unit and the optical input unit in the depth information generation method of FIG. 10.
Figure 12 is a flowchart showing a method of controlling a camera device according to an embodiment of the present invention.
Figure 13 shows an example in which disparity measurement performance is improved when the optical input unit includes a zoom lens according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless explicitly specifically defined and described, are generally understood by those skilled in the art to which the present invention pertains. It can be interpreted as meaning, and the meaning of commonly used terms, such as terms defined in a dictionary, can be interpreted by considering the contextual meaning of the related technology.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Additionally, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular may also include the plural unless specifically stated in the phrase, and when described as "at least one (or more than one) of A and B and C", it is combined with A, B, and C. It can contain one or more of all possible combinations.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Additionally, when describing the components of an embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and are not limited to the essence, sequence, or order of the component.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.And, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to that other component, but also is connected to that component. It can also include cases where other components are 'connected', 'combined', or 'connected' due to another component between them.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.Additionally, when described as being formed or disposed "above" or "below" each component, "above" or "below" refers not only to cases where two components are in direct contact with each other, but also to one This also includes cases where another component described above is formed or placed between two components. In addition, when expressed as "top (above) or bottom (bottom)", it may include not only the upward direction but also the downward direction based on one component.
본 발명의 실시예에 따른 카메라 장치는 구조광 방식을 이용하여 깊이 정보를 추출하는 카메라를 의미할 수 있다. 따라서, 카메라 장치는 깊이 정보 추출 장치, 3차원 정보 추출 장치 등과 혼용될 수 있다.A camera device according to an embodiment of the present invention may refer to a camera that extracts depth information using a structured light method. Therefore, the camera device can be used interchangeably with a depth information extraction device, a 3D information extraction device, etc.
도 1은 본 발명의 실시예에 따른 카메라 장치의 블록도이고, 도 2는 본 발명의 실시예에 따른 카메라 장치의 개략적인 단면도이다. FIG. 1 is a block diagram of a camera device according to an embodiment of the present invention, and FIG. 2 is a schematic cross-sectional view of a camera device according to an embodiment of the present invention.
도 1 내지 도 3을 참조하면, 본 발명의 실시예에 따른 카메라 장치(1)는 광출력부(10), 광입력부(20), 깊이 정보 생성부(30) 및 제어부(40)를 포함한다. 1 to 3, the
광출력부(10)는 출력광 신호를 생성한 후 객체에 조사한다. 이때, 광출력부(10)는 소정 패턴의 광 신호를 출력할 수 있다. 도 3은 소정 패턴의 광 신호의 한 예이다. 도 3을 참조하면, 소정 패턴의 광 신호는 복수의 점으로 이루어질 수 있으며, 구조광이라 지칭될 수 있다. 여기서, 소정 패턴은 유니크한 패턴일 수 있으며, 미리 설계된 알고리즘에 의하여 생성될 수 있다. 소정 패턴의 광 신호는 IR(Infrared) 광 신호일 수 있다. 본 명세서에서, 출력광은 광출력부(10)로부터 출력되어 객체에 입사되는 광을 의미하고, 입력광은 광출력부(10)로부터 출력되어 객체에 도달한 후 객체로부터 반사되어 광입력부(20)로 입력되는 광을 의미할 수 있다. 객체의 입장에서 출력광은 입사광이 될 수 있고, 입력광은 반사광이 될 수 있다.The
광출력부(10)는 광원(100) 및 렌즈 어셈블리(110)를 포함할 수 있다. The
우선, 광원(100)은 빛을 생성한다. 광원(100)이 생성하는 빛은 파장이 770 내지 3000nm인 적외선일 수 있으며, 파장이 380 내지 770 nm인 가시광선 일 수도 있다. 광원(100)은 발광 다이오드(Light Emitting Diode, LED)를 이용할 수 있으며, 복수의 발광 다이오드가 일정한 패턴에 따라 배열된 형태를 가질 수 있다. 뿐만 아니라, 광원(100)은 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수도 있다. 또는, 광원(100)은 VCSEL(Vertical Cavity Surface Emitting Laser)일 수도 있다. VCSEL은 전기 신호를 광 신호로 바꾸어 주는 레이저 다이오드 중 하나이며, 약 800 내지 1000nm인 파장, 예를 들어 약 850nm 또는 약 940nm 파장을 출력할 수 있다. 하나의 VCSEL은 복수의 이미터(emitter), 예를 들어 수백 개의 이미터를 가질 수 있으며, 각 이미터에 의한 점으로 이루어진 패턴이 출력될 수 있다. 즉, 수백 개의 이미터에 의해 소정의 패턴을 갖는 구조광이 출력될 수 있다. 광원(100)은 일정 시간 간격으로 점멸(on/off)을 반복할 수 있으며, 일정 시간 간격은 출력광 신호의 주파수일 수 있다.First, the
렌즈 어셈블리(110)는 광원(100)으로부터 출력된 빛을 집광하고, 집광된 빛을 외부로 출력할 수 있다. 렌즈 어셈블리(110)는 광원(100)의 상부에서 광원(100)과 이격되어 배치될 수 있다. 여기서, 광원(100)의 상부란 광원(100)으로부터 빛이 출력되는 측을 의미할 수 있다. 렌즈 어셈블리(110)는 적어도 1매의 렌즈를 포함할 수 있다. 렌즈 어셈블리(110)가 복수 매의 렌즈를 포함하는 경우, 각 렌즈들은 중심축을 기준으로 정렬하여 광학계를 형성할 수 있다. 여기서, 중심축은 광학계의 광축(Optical axis)와 동일할 수 있다. The
렌즈 어셈블리(110)는 하우징(120)에 수용 또는 지지될 수 있다. 한 실시예에 따르면, 하우징(120)은 구동 모듈(미도시)과 결합될 수 있으며, 렌즈 어셈블리(110)는 구동 모듈(미도시)에 의해 광축 방향 또는 광축에 수직하는 방향으로 이동할 수 있다. The
한편, 광입력부(20)는 객체로부터 반사된 빛을 수신한다. 이를 위하여, 광입력부(20)는 객체로부터 반사된 입력광을 집광하는 렌즈 어셈블리(130), 필터(미도시) 및 렌즈 어셈블리(130)를 통과한 입력광을 전기신호로 변환하는 이미지 센서(140)를 포함할 수 있으며, 렌즈 어셈블리(130), 필터(미도시) 및 이미지 센서(140)는 하우징(150)에 수용 또는 지지될 수 있다. 광출력부(10) 측의 하우징(120)과 광입력부(20) 측의 하우징(150)이 서로 이격된 것으로 도시되어 있으나, 이로 제한되는 것은 아니며, 광출력부(10) 측의 하우징(120)과 광입력부(20) 측의 하우징(150)은 일체의 하우징일 수도 있다. Meanwhile, the
렌즈 어셈블리(130)의 광축은 이미지 센서(140)의 광축과 얼라인(align)될 수 있다. 필터(미도시)는 렌즈 어셈블리(130)와 이미지 센서(140) 사이에 배치되며, 소정 파장 범위를 갖는 빛을 필터링할 수 있다. 예를 들어, 필터(미도시)는 광출력부(10)가 출력하는 출력광의 파장 대역에서 빛을 통과시킬 수 있다. The optical axis of the
이미지 센서(140)는 광원(100)의 점멸 주기에 따라 입력광 신호를 수신할 수 있다. 이미지 센서(140)는 복수의 픽셀이 그리드 형태로 배열된 구조로 구성될 수 있다. 이미지 센서(140)는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서일 수 있으며, CCD(Charge Coupled Device) 이미지 센서일 수도 있다.The
광입력부(20)는 광출력부(10)와 나란히 배치될 수 있다. 광입력부(20)는 광출력부(10) 옆에 배치될 수 있다. 광입력부(20)는 광출력부(10)와 같은 방향으로 배치될 수 있다.The
깊이 정보 생성부(30)는 광입력부(20)에 입력된 입력광 신호를 이용하여 객체의 깊이 정보를 생성할 수 있다. 본 발명의 실시예에 따르면, 깊이 정보 생성부(30)는 광 신호의 디스패리티(disparity)를 이용하여 객체의 깊이 정보를 생성할 수 있다.The
제어부(40)는 광출력부(10), 광입력부(20) 및 깊이 정보 생성부(30)의 구동을 제어한다. 깊이 정보 생성부(30) 및 제어부(40)는 광출력부(10) 및 광입력부(20)가 탑재된 PCB(printed circuit board, 50)의 형태로 구현될 수 있다. 즉, 깊이 정보 생성부(30) 또는 제어부(40)는 PCB(50) 상에 배치된 회로 패턴 또는 IC 칩에 의하여 구현될 수 있다. 또는, PCB(50)는 FPCB(미도시)를 통해 커넥터와 연결될 수 있다. 또는, PCB와 FPCB는 RFPCB(Rigid Flexible PCB)로 구현될 수도 있다. 또한, 깊이 정보 생성부(30) 및 제어부(40)는 다른 구성의 형태로 구현될 수도 있다. The
광출력부(10)의 광원(100)은 PCB(50) 상에 배치되며, PCB(50) 상의 회로 패턴과 전기적으로 연결될 수 있다. 또는, 제어부(40)는 본 발명의 실시예에 따른 카메라 장치(1)가 배치된 전자기기 내에 포함될 수도 있다. 예를 들어, 제어부(40)는 본 발명의 실시예에 따른 카메라 장치(1)가 탑재된 전자기기의 어플리케이션 프로세서(Application Processor, AP)의 형태로 구현될 수 있다.The
도 4는 구조광을 이용하여 깊이 정보를 생성하는 원리를 설명하는 도면이다. 전술한 바와 같이, 본 명세서에서, 구조광은 복수의 점으로 이루어진 소정 패턴의 광 신호를 의미한다. 도 4를 참조하면, 카메라 장치(1)와 객체 간 거리(object distance, h')는 구조광을 이루는 점의 디스패리티(disparity, Δx)에 따라 달라질 수 있다. 즉, 구조광 방식에 따르면, 거리 변화에 의해 생기는 디스패리티 정도에 따라 깊이 정보를 추출할 수 있다. 이에 따라, 디스패리티의 정확도는 깊이 정보의 정확도에 영향을 미칠 수 있다. Figure 4 is a diagram explaining the principle of generating depth information using structured light. As described above, in this specification, structured light refers to an optical signal with a predetermined pattern consisting of a plurality of dots. Referring to FIG. 4, the distance (object distance, h') between the
더욱 구체적으로, 구조광을 이용한 깊이 정보의 추출은 다음의 수학식에 따를 수 있다. More specifically, extraction of depth information using structured light can follow the following equation.
여기서, h는 기준 거리(reference distance)이고, h'는 객체 거리이며, b는 베이스라인(baseline)의 길이이고, Δx는 디스패리티이다. Here, h is the reference distance, h' is the object distance, b is the length of the baseline, and Δx is the disparity.
수학식 1 내지 3을 참조하면, 베이스라인의 길이(b)는 디스패리티에 영향을 미치며, 객체 거리(h')의 단위 길이당 디스패리티는 FOV(field of view)가 작을수록, 그리고 베이스라인이 클수록 커지는 것을 알 수 있다. 객체의 사이즈가 베이스라인의 절반보다 작은 경우, 소정 패턴 내의 점은 디스패리티에 의하여 인접 점을 추월할 수 있으며, 객체 거리가 멀어질수록 디스패리티가 줄어들 수 있다. 이에 따라, 정확한 깊이 정보 계산을 위하여, 점의 센터를 기준으로 디스패리티를 추출할 필요가 있다. Referring to
구조광 방식에 따른 깊이 정보 추출의 성능은 점의 중심의 측정 정확도 수준과 디스패리티의 측정 해상도에 따라 달라질 수 있다. The performance of depth information extraction according to the structured light method may vary depending on the measurement accuracy level of the center of the point and the measurement resolution of the disparity.
도 5는 기준 거리와 객체의 거리 차에 따른 디스패리티 변화를 설명하는 그래프이다. 여기서, 기준 거리는 300nm인 것으로 예를 들어 설정하였다.Figure 5 is a graph explaining the change in disparity according to the difference between the reference distance and the distance between the object. Here, the reference distance was set to 300 nm as an example.
도 5를 참조하면, 객체 거리가 증가할수록 디스패리티의 변화율이 작아짐을 알 수 있다. 예를 들어, 객체 거리가 900mm 이하인 경우, 그래프의 기울기, 즉 거리의 변화량에 대한 디스패리티의 변화량이 크지만, 객체 거리가 900mm 초과인 경우, 그래프의 기울기는 현저히 작아짐을 알 수 있다. 특히, 객체 거리가 커질수록 그래프의 기울기는 더욱 작아짐을 알 수 있다.Referring to FIG. 5, it can be seen that as the object distance increases, the rate of change in disparity decreases. For example, when the object distance is 900 mm or less, the slope of the graph, that is, the amount of change in disparity relative to the change in distance, is large, but when the object distance is greater than 900 mm, the slope of the graph is significantly small. In particular, it can be seen that as the object distance increases, the slope of the graph becomes smaller.
이로부터, 기준 거리와 객체의 거리 차가 증가할수록 디스패리티의 측정 정확도가 떨어짐을 알 수 있다.From this, it can be seen that as the difference between the reference distance and the object distance increases, the disparity measurement accuracy decreases.
이러한 문제를 해결하기 위하여, 이미지 센서의 화소 수를 늘릴 수 있다.To solve this problem, the number of pixels in the image sensor can be increased.
도 6은 이미지 센서의 화소 수에 따른 디스패리티 측정 성능을 나타낸다. Figure 6 shows disparity measurement performance according to the number of pixels of the image sensor.
도 6을 참조하면, 도 6(a) 및 도 6(b)는 9*9의 화소 수를 가지는 이미지 센서에서의 픽셀 값을 나타내고, 도 6(c) 및 도 6(d)는 각각 도 6(a) 및 도 6(b)와 동일한 객체에 대하여 3*3의 화소 수를 가지는 이미지 센서를 이용하여 픽셀 값을 나타낸 결과이다.Referring to FIG. 6, FIG. 6(a) and FIG. 6(b) show pixel values in an image sensor having a pixel number of 9*9, and FIG. 6(c) and FIG. 6(d) show pixel values in FIG. 6, respectively. This is the result of showing pixel values using an image sensor with a number of pixels of 3*3 for the same object as in (a) and FIG. 6(b).
도 6(a) 및 도 6(b)를 참조하면, 9*9의 화소 수를 가지는 고화소 이미지 센서를 이용할 경우, 도 6(a) 및 도 6(b)의 값이 구분되지만, 도 6(c) 및 도 6(d)를 참조하면, 3*3의 화소 수를 가지는 저화소 이미지 센서를 이용할 경우, 도 6(c) 및 도 6(d)의 값이 구분되지 않음을 알 수 있다.Referring to FIGS. 6(a) and 6(b), when using a high-pixel image sensor with a number of pixels of 9*9, the values of FIGS. 6(a) and 6(b) are differentiated, but Referring to c) and FIG. 6(d), it can be seen that when using a low-pixel image sensor with the number of pixels of 3*3, the values of FIG. 6(c) and FIG. 6(d) are not distinguished.
그러나, 고화소 이미지 센서를 이용할 경우, 카메라 장치의 전체 소비 전력량 및 연산량을 증가시키며, 카메라 장치의 비용이 크게 증가되는 문제가 있다.However, when using a high-pixel image sensor, the overall power consumption and computation amount of the camera device increases, and the cost of the camera device significantly increases.
본 발명의 실시예에서는, 고화소 이미지 센서를 이용하지 않고도 장거리에서의 디스패리티의 측정 정확도를 개선하고자 한다.In an embodiment of the present invention, an attempt is made to improve the measurement accuracy of disparity at long distances without using a high-pixel image sensor.
도 7은 본 발명의 한 실시예에 따른 카메라 장치의 블록도이고, 도 8은 본 발명의 한 실시예에 따른 카메라 장치의 개념도이다.FIG. 7 is a block diagram of a camera device according to an embodiment of the present invention, and FIG. 8 is a conceptual diagram of a camera device according to an embodiment of the present invention.
도 7 내지 도 8을 참조하면, 본 발명의 한 실시예에 따른 카메라 장치(700)는 광출력부(710), 광입력부(720), 깊이 정보 생성부(730) 및 제어부(740)를 포함한다. 광출력부(710), 광입력부(720), 깊이 정보 생성부(730) 및 제어부(740)는 각각 도 1 내지 4를 참조하여 설명한 광출력부(10), 광입력부(20), 깊이 정보 생성부(30) 및 제어부(40)에 대응하는 구성이며, 설명의 편의를 위하여, 도 1 내지 4를 참조하여 설명한 카메라 장치(1)에 관한 설명과 동일한 내용에 대해서는 중복된 설명을 생략한다.Referring to Figures 7 and 8, the
광출력부(710)는 출력광 신호를 생성한 후 객체에 조사한다. 이때, 광출력부(710)는 소정 패턴의 광 신호를 출력할 수 있다.The
본 발명의 실시예에 따르면, 광출력부(710)는 제1 화각(field of illumination, FOI)의 광 신호를 객체에 조사하는 제1 광학계(712) 및 제1 화각보다 작은 제2 화각의 광 신호를 객체에 조사하는 제2 광학계(714)를 포함한다. According to an embodiment of the present invention, the
더욱 구체적으로 설명하면, 도 8에 도시된 바와 같이 광출력부(710)의 제1 광학계(712)가 구동되면, 제1 광학계(712)는 제1 화각으로 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사한다. 그리고, 광출력부(710)의 제2 광학계(714)가 구동되면, 제2 광학계(714)는 제1 화각보다 작은 제2 화각으로 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사한다.To be more specific, when the first
이에 따르면, 제1 광학계(712) 및 제2 광학계(714)가 동일한 패턴의 광 신호를 출력하는 경우, 동일한 거리에 대하여 제1 광학계(712)를 통해 출력된 광 신호의 점 밀도는 제2 광학계(714)를 통해 출력된 광 신호의 점 밀도보다 낮을 수 있다. 즉, 제1 광학계(712) 및 제2 광학계(714)가 동일한 패턴의 광 신호를 출력하는 경우, 동일한 점 밀도에 대하여 제2 광학계(714)를 통해 출력된 광 신호가 도달하는 거리는 제1 광학계(712)를 통해 출력된 광 신호가 도달하는 거리보다 길 수 있다. 여기서, 점 밀도는 단위 면적 당 점의 개수를 의미할 수 있다.According to this, when the first
이에 따라, 제1 화각의 광 신호를 객체에 조사하는 제1 광학계(712)는 근거리에서의 깊이 정보 생성에 이용되고, 제1 화각보다 작은 제2 화각의 광 신호를 객체에 조사하는 제2 광학계(714)는 제1 광학계(712)가 측정하는 거리보다 장거리에서의 깊이 정보 생성에 이용될 수 있다. 예를 들어, 제1 광학계(712)는 객체 거리가 900mm 이하에서의 깊이 정보 생성에 이용되고, 제2 광학계(714)는 객체 거가 900mm 초과에서의 깊이 정보 생성에 이용될 수 있다.Accordingly, the first
이를 위하여, 제1 광학계(712)는 제1 광원(800) 및 제1 광원(800)에 의해 출력된 광을 제1 화각으로 확산시키는 제1 회절 광학 소자(Diffractive Optical Element, DOE, 802)를 포함하고, 제2 광학계(714)는 제2 광원(810) 및 제2 광원(810)에 의해 출력된 광을 제2 화각으로 확산시키는 제2 회절 광학 소자(812)를 포함할 수 있다. 이때, 제1 광원(800) 및 제2 광원(810)은 동일한 패턴의 광을 출력하며, 제1 광원(800)에 의해 출력된 광은 제1 회절 광학 소자(802)에 의하여 n*n배로 복사되어 객체에 조사되고, 제2 광원(810)에 의해 출력된 광은 제2 회절 광학 소자(812)에 의하여 n*n배로 복사되어 객체에 조사될 수 있다. 이때, n은 2 이상의 정수일 수 있다. 이를 위하여, 제1 회절 광학 소자(802) 및 제2 회절 광학 소자(812)는 동일한 형상을 가지되, 제1 회절 광학 소자(802)를 통과한 광이 퍼져 나가는 각도가 제2 회절 광학 소자(812)를 통과한 광이 퍼져 나가는 각도보다 크도록 설계될 수 있다.To this end, the first
이에 따르면, 제1 광학계(712)를 통하여 객체에 조사된 광 신호의 패턴 형상과 제2 광학계(714)를 통하여 객체에 조사된 광 신호의 패턴 형상은 동일할 수 있다. 제1 광학계(712)를 통하여 객체에 조사된 광 신호의 패턴 형상과 제2 광학계(714)를 통하여 객체에 조사된 광 신호의 패턴 형상이 동일하면, 깊이 정보 생성부(730)가 제1 광학계(712)를 통하여 객체에 조사된 후 입력된 광 신호와 제2 광학계(714)를 통하여 객체에 조사된 후 입력된 광 신호에 대하여 동일한 연산을 적용할 수 있으므로, 깊이 정보 생성부(730)의 연산 복잡도를 줄일 수 있다.According to this, the pattern shape of the light signal irradiated to the object through the first
한편, 본 발명의 실시예에 따르면, 제1 광학계(712)는 제1 콜리메이터 렌즈(804)를 더 포함하고, 제2 광학계(714)는 제2 콜리메이터 렌즈(814)를 더 포함할 수 있다. 콜리메이터 렌즈는 광원으로부터 출력된 광을 집광시키는 렌즈를 의미한다.Meanwhile, according to an embodiment of the present invention, the first
제1 콜리메이터 렌즈(804)는 제1 광원(800)과 제1 회절 광학 소자(802) 사이에 배치되며, 제1 광원(800)에 의해 출력된 광을 제1 회절 광학 소자(802)로 집광시킬 수 있다. 제2 콜리메이터 렌즈(814)는 제2 광원(810)과 제2 회절 광학 소자(812) 사이에 배치되며, 제2 광원(810)에 의해 출력된 광을 제2 회절 광학 소자(812)로 집광시킬 수 있다.The
여기서, 제1 광학계(712)가 제1 광원(800)을 포함하고, 제2 광학계(714)가 제2 광원(810)을 포함하는 것으로 설명하고 있으나, 본 발명의 실시예가 이로 제한되는 것은 아니다. 도시되지 않았으나, 제1 광학계(712) 및 제2 광학계(714)는 공통의 광원을 포함하며, 제1 콜리메이터 렌즈(804) 및 제2 콜리메이터 렌즈(814)의 정렬 또는 이동에 의해 광원으로부터 출력된 광이 제1 회절 광학 소자(802)를 지향하도록 정렬되거나, 제2 회절 광학 소자(812)를 지향하도록 정렬될 수도 있다. Here, the first
여기서 설명한 제1 회절 광학 소자(802), 제1 콜리메이터 렌즈(804), 제2 회절 광학 소자(812) 및 제2 콜리메이터 렌즈(814)는 도 1 내지 도 2를 참조하여 설명한 광출력부(10)의 렌즈 어셈블리(110)의 일부일 수 있다.The first diffractive
본 발명의 실시예에 따르면, 광입력부(720)는 제1 배율 또는 제1 배율보다 높은 제2 배율로 구동되는 줌 광학계(722) 및 이미지 센서(724)를 포함한다. 도 8을 참조하면, 줌 광학계(722) 및 이미지 센서(724) 사이에는 IR 광을 통과시키는 IR 밴드패스 필터(726)가 더 배치될 수 있다. According to an embodiment of the present invention, the
도 9는 본 발명의 실시예에 따른 줌 광학계의 블록도이다. 도 9를 참조하면, 줌 광학계(722)는 줌 렌즈(900) 및 줌 렌즈(900)를 제1 배율 또는 제1 배율보다 높은 제2 배율로 구동시키는 액추에이터(902)를 포함할 수 있다. 줌 렌즈(900)는 1매 이상의 렌즈를 포함하며, 액추에이터(902)에 의해 이동할 수 있다. 줌 렌즈(900)는 복수 매의 렌즈를 포함하며, 복수 매의 렌즈 중 일부는 고정군이고, 다른 일부는 이동군일 수 있다. 줌 렌즈(900)의 이동에 의하여 줌 렌즈(900)와 이미지 센서(724) 간의 간격이 바뀌며, 이에 따라 배율이 조절될 수 있다.Figure 9 is a block diagram of a zoom optical system according to an embodiment of the present invention. Referring to FIG. 9 , the zoom
예를 들어, 제1 배율은 1배일 수 있고, 제2 배율은 3배일 수 있으나, 이로 제한되는 것은 아니며, 제2 배율은 2배, 3배, 4배, 5배, 6배, 7배 중 적어도 하나일 수 있다. 또는, 줌 광학계(722)는 1배 내지 7배의 배율 중 어느 값으로도 조절될 수 있는 연속 줌 광학계일 수도 있다. 또는, 줌 광학계(722)는 폴디드 렌즈(folded lens)를 포함할 수도 있다. 이에 따르면, 광입력부(720) 내 줌 광학계(722)가 차지하는 부피를 최소화할 수 있다.For example, the first magnification may be 1x, and the second magnification may be 3x, but are not limited thereto, and the second magnification may be 2x, 3x, 4x, 5x, 6x, or 7x. There could be at least one. Alternatively, the zoom
이와 같이, 광입력부(720)가 줌 광학계(722)를 포함하면, 광입력부(720)로 수신된 광 신호를 확대할 수 있다. 이에 따르면, 광 신호를 이루는 복수의 점 및 이들 간 거리를 확대할 수 있으므로, 점의 센터의 위치와 디스패리티를 더욱 정밀하게 측정할 수 있다.In this way, if the
본 발명의 실시예에 따르면, 제어부(740)는 광출력부(710)와 광입력부(720)를 연동시킨다. According to an embodiment of the present invention, the
전술한 바와 같이, 제1 광학계(712)보다 좁은 화각을 가지는 제2 광학계(714)는 제1 광학계(712)의 측정 거리보다 장거리의 깊이 정보를 생성하는데 적용될 수 있다. 다만, 도 5를 참조하여 설명한 바와 같이, 객체 거리가 증가할수록 디스패리티의 변화율이 작아지며, 도 6을 참조하여 설명한 바와 같이 이러한 문제를 해결하기 위하여 이미지 센서의 화소 수를 늘릴 수 있으나, 이로 인해 카메라 장치의 소모 전력, 연산 복잡도 및 비용이 높아질 수 있다.As described above, the second
그러나, 본 발명의 실시예에 따라, 제어부(740)가 광출력부(710)와 광입력부(720)를 연동시킬 경우, 이미지 센서의 화소 수를 늘리지 않고도, 근거리뿐만 아니라 중장거리에서도 정밀한 깊이 정보를 생성할 수 있는 카메라 장치를 얻을 수 있다.However, according to an embodiment of the present invention, when the
즉, 본 발명의 실시예에 따르면, 광출력부(710)의 제1 광학계(712)가 구동되면, 제어부(740)는 줌 광학계(722)가 제1 배율로 구동되도록 제어하고, 광출력부(710)의 제2 광학계(714)가 구동되면, 제어부(740)는 줌 광학계(722)가 제1 배율보다 높은 제2 배율로 구동되도록 제어한다. 예를 들어, 제1 광학계(712)의 제1 광원(800)이 턴온되면, 제어부(740)는 줌 광학계(722)가 제1 배율로 구동되도록 제어하고, 제2 광학계(714)의 제2 광원(810)이 턴온되면, 제어부(740)는 줌 광학계(722)가 제2 배율로 구동되도록 제어할 수 있다. 이와 같이, 제2 광학계(714)의 구동 시 줌 광학계(722)가 제2 배율로 구동되면, 광입력부(720)에 입력되는 광 신호의 점 및 이들 간 거리가 광학계(722)가 제1 배율로 구동될 때의 경우보다 확대되므로, 점의 센터 및 디스패리티를 정밀하게 측정할 수 있다.That is, according to an embodiment of the present invention, when the first
본 발명의 실시예에 따르면, 제어부(740)는 제1 광학계(712) 및 제2 광학계(714) 중 하나가 선택적으로 구동되도록 제어할 수 있다. 예를 들어, 제어부(740)는 제1 광학계(712)가 구동되도록 제어하며, 이와 연동하여 줌 광학계(722)가 제1 배율로 구동되도록 제어할 수 있다. 또는, 제어부(740)는 제2 광학계(714)가 구동되도록 제어하며, 이와 연동하여 줌 광학계(722)가 제2 배율로 구동되도록 제어할 수 있다. According to an embodiment of the present invention, the
본 발명의 실시예에 따르면, 초기 설정에 의하여 제1 광학계(712)가 우선적으로 구동되도록 설정될 수 있으며, 제어부(740)는 제1 광학계(712)로부터 제2 광학계(714)로 변경 구동되도록 제어할 수 있다. 또는, 초기 설정에 의하여 제2 광학계(714)가 우선적으로 구동되도록 설정될 수 있으며, 제어부(740)는 제2 광학계(714)로부터 제1 광학계(712)로 변경 구동되도록 제어할 수 있다. 여기서, 제어부는(740)는 사용자 인터페이스부를 통하여 입력되는 정보 또는 외부 장치로부터 입력되는 정보에 의해 변경 구동을 제어할 수 있다. 또는, 제어부(740)는 깊이 정보 생성부(730)에 의해 생성된 깊이 정보에 의해 변경 구동을 제어할 수도 있다.According to an embodiment of the present invention, the first
이하, 본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법을 더욱 구체적으로 설명한다.Hereinafter, a method for generating depth information of a camera device according to an embodiment of the present invention will be described in more detail.
도 10은 본 발명의 한 실시예에 따른 카메라 장치의 깊이 정보 생성 방법을 나타내는 순서도이고, 도 11은 도 10의 깊이 정보 생성 방법 중 제어부가 광출력부와 광입력부를 연동하는 단계를 나타내는 순서도이다.FIG. 10 is a flowchart showing a method for generating depth information of a camera device according to an embodiment of the present invention, and FIG. 11 is a flowchart showing steps in which the control unit links the optical output unit and the optical input unit in the depth information generating method of FIG. 10. .
도 10을 참조하면, 광출력부(710)는 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사한다(S1000). 여기서, 광출력부(710)는 제1 화각의 광 신호를 객체에 조사하거나, 제1 화각보다 작은 제2 화각의 광 신호를 객체에 조사한다.Referring to FIG. 10, the
다음으로, 제어부(740)는 광출력부(710)와 광입력부(720)를 연동시킨다(S1010). 예를 들어, 도 11을 참조하면, 광출력부(710)가 제1 화각의 광 신호를 객체에 조사하면(S1100), 제어부(740)는 광입력부(720)의 줌 렌즈가 제1 배율로 구동되도록 제어한다(S1110). 광출력부(710)가 제1 화각의 광 신호를 객체에 조사하지 않고, 제2 화각의 광 신호를 객체에 조사하면(S1120), 제어부(740)는 광입력부(720)의 줌 렌즈가 제1 배율보다 높은 제2 배율로 구동되도록 제어한다(S1130).Next, the
다음으로, 다시 도 10을 참조하면, 광입력부(720)는 객체로부터 반사된 후 입력된 광 신호를 수신하고(S1020), 깊이 정보 생성부(730)는 광입력부(720)에 입력된 광 신호의 디스패리티(disparity)를 이용하여 객체의 깊이 정보를 생성한다(S1030).Next, referring again to FIG. 10, the
한편, 본 발명의 실시예에 따르면, 제어부(740)는 광출력부(710)가 제1 화각의 광 신호를 객체에 조사하거나, 제1 화각보다 작은 제2 화각의 광 신호를 객체에 조사하도록 선택적으로 제어할 수 있다. 예를 들어, 제어부(740)는 사용자 인터페이스를 통하여 입력되는 정보 또는 외부 장치로부터 입력되는 정보에 의하여 광출력부(710)가 제1 화각의 광 신호를 객체에 조사하거나, 제2 화각의 광 신호를 객체에 조사하도록 선택적으로 제어할 수 있다. 또는, 제어부(740)는 객체의 깊이 정보를 생성하는 단계(S1030)에 의하여 생성된 깊이 정보에 따라 광출력부(710)가 제1 화각의 광 신호를 객체에 조사하거나, 제2 화각의 광 신호를 객체에 조사하도록 선택적으로 제어할 수 있다.Meanwhile, according to an embodiment of the present invention, the
도 12는 본 발명의 실시예에 따른 카메라 장치의 제어 방법을 나타내는 순서도이다. Figure 12 is a flowchart showing a method of controlling a camera device according to an embodiment of the present invention.
도 12를 참조하면, 광출력부(710)는 제1 화각의 광 신호를 객체에 조사하고(S1200), 광입력부(720)는 제1 배율로 광 신호를 수신하며(S1210), 깊이 정보 생성부(730)는 수신한 광 신호를 이용하여 깊이 정보를 생성한다(S1220).Referring to FIG. 12, the
이때, 생성된 깊이 정보가 미리 설정된 거리 이하이면(S1230), 제어부(740)는 광출력부(710)가 제1 화각의 광신호를 객체에 조사하고(S1200), 광입력부(720)가 제1 배율로 광신호를 수신하며(S1210), 깊이 정보 생성부(730)가 수신한 광 신호를 이용하여 깊이 정보를 생성(S1220)하도록 제어할 수 있다. 여기서, 미리 설정된 거리는 객체 거리를 의미하며, 예를 들어 900mm일 수 있다.At this time, if the generated depth information is less than the preset distance (S1230), the
이에 반해, 생성된 깊이 정보가 미리 설정된 거리를 초과하면, 제어부(740)는 광출력부(710)가 제2 화각의 광 신호를 객체에 조사하고(S1240), 광입력부(720)가 제2 배율로 광 신호를 수신하며(S1250), 깊이 정보 생성부(730)가 수신한 광 신호를 이용하여 깊이 정보를 생성(S1220)하도록 제어할 수 있다.On the other hand, if the generated depth information exceeds the preset distance, the
이에 따르면, 광출력부(710)의 제1 광학계(712)가 구동하도록 초기 설정된 상태에서, 객체가 중거리 이상, 예를 들어 900mm 초과의 거리에 있을 경우, 광출력부(710)의 화각 및 광입력부(720)의 배율을 적응적으로 조절할 수 있다.According to this, in a state where the first
또한, 광출력부(710)의 제2 광학계(714)가 구동하는 상태에서, 객체가 근거리, 예를 들어 900mm 이하의 거리에 있을 경우, 광출력부(710)의 화각 및 광입력부(720)의 배율을 근거리용으로 적응적으로 조절할 수 있다.In addition, when the second
이에 따르면, 사용자가 별도로 설정할 필요 없이 근거리 모드에서 장거리 모드로 자동 변환되거나, 장거리 모드에서 근거리 모드로 자동 변환될 수 있으므로, 이동 중인 객체에 대하여 정밀하고 신속하게 깊이 정보를 추출할 수 있다.According to this, the user can automatically convert from short-distance mode to long-distance mode or from long-distance mode to short-distance mode without the user having to set anything separately, so depth information can be extracted precisely and quickly for a moving object.
도 13은 본 발명의 실시예에 따라 광입력부가 줌 렌즈를 포함하는 경우, 디스패리티 측정 성능이 향상되는 예를 나타낸다.Figure 13 shows an example in which disparity measurement performance is improved when the optical input unit includes a zoom lens according to an embodiment of the present invention.
도 13(a)는 광입력부가 줌 렌즈를 포함하지 않는 경우, 이미지 센서의 이미지이고, 도 13(b) 은 본 발명의 실시예에 따라 광입력부가 줌 렌즈를 포함하는 경우, 이미지 센서의 이미지이다. FIG. 13(a) is an image of the image sensor when the optical input unit does not include a zoom lens, and FIG. 13(b) is an image of the image sensor when the optical input unit includes a zoom lens according to an embodiment of the present invention. am.
도 13(a)는 를 참조하면, 점들의 일부가 서로 겹쳐지므로, 점들의 센터 및 디스패리티를 정밀하게 계산하기 어려움을 알 수 있다. Referring to FIG. 13(a), it can be seen that since some of the points overlap each other, it is difficult to precisely calculate the center and disparity of the points.
이에 반해, 도 13(b)를 참조하면, 줌 렌즈를 이용하여 이미지를 5배 확대한 경우, 점들의 센터 및 디스패리티를 보다 정밀하게 계산할 수 있다.On the other hand, referring to FIG. 13(b), when the image is enlarged 5 times using a zoom lens, the center and disparity of the points can be calculated more precisely.
이에 따라, 본 발명의 실시예에 따르면, 장거리로 갈수록 디스패리티의 민감도가 떨어지는 문제를 해결할 수 있으며, 근거리뿐만 아니라 중장거리에서의 깊이 정보 생성에도 구조광 방식의 카메라 장치가 이용될 수 있다.Accordingly, according to an embodiment of the present invention, the problem that the sensitivity of disparity decreases over a long distance can be solved, and a structured light camera device can be used to generate depth information not only at a short distance but also at a mid-to-long distance.
본 명세서에서, 줌 광학계가 제1 배율 또는 제1 배율보다 높은 제2 배율로 구동되는 예를 중심으로 설명하고 있으나, 이로 제한되는 것은 아니다. 줌 광학계는 2 이상의 배율로 구동될 수 있다. 예를 들어, 줌 광학계는 제1 배율, 제1 배율보다 높은 제2 배율 또는 제2 배율보다 높은 제3 배율로 구동될 수도 있다. 또는, 줌 광학계는 배율이 연속적으로 변하는 연속 줌 광학계일 수도 있다.In this specification, the description is centered on an example in which the zoom optical system is driven at a first magnification or a second magnification higher than the first magnification, but is not limited thereto. The zoom optical system can be driven at a magnification of 2 or more. For example, the zoom optical system may be driven at a first magnification, a second magnification higher than the first magnification, or a third magnification higher than the second magnification. Alternatively, the zoom optical system may be a continuous zoom optical system in which magnification continuously changes.
본 발명의 실시예에 따른 카메라 장치는 자동차에 실장되어, 자동차와 물체 간의 거리를 측정하는 카메라 장치를 의미할 수 있으나, 이로 제한되는 것은 아니다. 예를 들어, 본 발명의 실시예에 따른 카메라 장치는 LIDAR(Light Detection and Ranging) 카메라일 수 있다.The camera device according to an embodiment of the present invention may refer to a camera device mounted on a car and measures the distance between the car and an object, but is not limited thereto. For example, a camera device according to an embodiment of the present invention may be a LIDAR (Light Detection and Ranging) camera.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. Although the above description focuses on the examples, this is only an example and does not limit the present invention, and those skilled in the art will be able to You will see that various variations and applications are possible. For example, each component specifically shown in the examples can be modified and implemented. And these variations and differences in application should be construed as being included in the scope of the present invention as defined in the appended claims.
1, 700: 카메라 장치
10, 710: 광출력부
20, 720: 광입력부
30, 730: 깊이 정보 생성부
40, 740: 제어부
712: 제1 광학계
714: 제2 광학계
722: 줌 광학계
724: 이미지 센서
726: IR 밴드패스 필터
800: 제1 광원
802: 제1 회절 광학 소자
804: 제1 콜리메이터 렌즈
810: 제2 광원
812: 제2 회절 광학 소자
814: 제2 콜리메이터 렌즈1, 700: camera device
10, 710: Optical output unit
20, 720: Optical input unit
30, 730: Depth information generation unit
40, 740: control unit
712: First optical system
714: Second optical system
722: Zoom optics
724: Image sensor
726: IR bandpass filter
800: first light source
802: First diffractive optical element
804: first collimator lens
810: second light source
812: second diffractive optical element
814: second collimator lens
Claims (10)
상기 객체로부터 반사된 광 신호를 수신하는 광입력부, 그리고
상기 광입력부가 수신하는 상기 광 신호의 디스패리티(disparity)를 이용하여 상기 객체의 깊이 정보를 생성하는 깊이 정보 생성부를 포함하고,
상기 광출력부는,
제1 화각의 상기 광 신호를 상기 객체에 조사하는 제1 광학계, 및 상기 제1 화각보다 작은 제2 화각의 상기 광 신호를 상기 객체에 조사하는 제2 광학계를 포함하며,
상기 광입력부는 제1 배율 및 상기 제1 배율보다 높은 제2 배율 중 하나로 구동되는 줌 광학계 및 이미지 센서를 포함하고,
상기 제1 광학계가 구동되면, 상기 줌 광학계는 상기 제1 배율로 구동되고,
상기 제2 광학계가 구동되면, 상기 줌 광학계는 상기 제2 배율로 구동되는 카메라 장치.An optical output unit that radiates an optical signal of a predetermined pattern consisting of a plurality of dots to an object,
An optical input unit that receives an optical signal reflected from the object, and
A depth information generator that generates depth information of the object using disparity of the optical signal received by the optical input unit,
The optical output unit,
A first optical system for irradiating the light signal of a first angle of view to the object, and a second optical system for irradiating the light signal of a second angle of view smaller than the first angle of view to the object,
The optical input unit includes a zoom optical system and an image sensor driven at one of a first magnification and a second magnification higher than the first magnification,
When the first optical system is driven, the zoom optical system is driven at the first magnification,
When the second optical system is driven, the zoom optical system is driven at the second magnification.
상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 더 포함하고,
상기 제1 광학계는 제1 광원, 그리고 상기 제1 광원에 의해 출력된 광을 상기 제1 화각으로 확산시키는 제1 회절 광학 소자(Diffractive Optical Element, DOE)를 포함하고,
상기 제2 광학계는 제2 광원, 그리고 상기 제2 광원에 의해 출력된 광을 상기 제2 화각으로 확산시키는 제2 회절 광학 소자를 포함하는 카메라 장치.According to paragraph 1,
Further comprising a control unit that controls the optical output unit, the optical input unit, and the depth information generator,
The first optical system includes a first light source and a first diffractive optical element (DOE) that diffuses the light output by the first light source to the first angle of view,
The second optical system includes a second light source and a second diffractive optical element that diffuses the light output by the second light source to the second angle of view.
상기 제1 광원이 턴온되면, 상기 제어부는 상기 줌 광학계가 상기 제1 배율로 구동되도록 제어하고,
상기 제2 광원이 턴온되면, 상기 제어부는 상기 줌 광학계가 상기 제2 배율로 구동되도록 제어하는 카메라 장치.According to paragraph 2,
When the first light source is turned on, the control unit controls the zoom optical system to be driven at the first magnification,
When the second light source is turned on, the control unit controls the zoom optical system to be driven at the second magnification.
상기 제1 광원 및 상기 제2 광원은 동일한 패턴의 광을 출력하고,
상기 제1 광원에 의해 출력된 광은 상기 제1 회절 광학 소자에 의하여 n*n배로 복사되어 상기 객체에 조사되며,
상기 제2 광원에 의해 출력된 광은 상기 제2 회절 광학 소자에 의하여 n*n배로 복사되어 상기 객체에 조사되고,
상기 n은 2 이상의 정수인 카메라 장치.According to paragraph 3,
The first light source and the second light source output light of the same pattern,
The light output by the first light source is radiated n*n times by the first diffractive optical element and irradiated to the object,
The light output by the second light source is radiated n*n times by the second diffractive optical element and irradiated to the object,
A camera device where n is an integer of 2 or more.
상기 줌 광학계는 줌 렌즈, 그리고 상기 줌 렌즈를 상기 제1 배율 및 상기 제2 배율 중 하나로 구동시키는 액추에이터를 포함하는 카메라 장치.According to paragraph 1,
The zoom optical system is a camera device including a zoom lens and an actuator that drives the zoom lens to one of the first magnification and the second magnification.
상기 광출력부, 상기 광입력부 및 상기 깊이 정보 생성부를 제어하는 제어부를 더 포함하고,
상기 제어부는 상기 제1 광학계 및 상기 제2 광학계 중 하나가 선택적으로 구동되도록 제어하는 카메라 장치.According to paragraph 1,
Further comprising a control unit that controls the optical output unit, the optical input unit, and the depth information generator,
The control unit controls one of the first optical system and the second optical system to be selectively driven.
상기 광출력부는,
상기 생성된 깊이 정보가 미리 설정된 거리 이하이면 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하고,
상기 생성된 깊이 정보가 상기 미리 설정된 거리를 초과하면 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하는 카메라 장치.According to paragraph 1,
The optical output unit,
If the generated depth information is less than a preset distance, radiating the light signal of the first angle of view to the object,
A camera device that irradiates the light signal of the second angle of view to the object when the generated depth information exceeds the preset distance.
광출력부가 복수의 점으로 이루어진 소정 패턴의 광 신호를 객체에 조사하는 단계,
상기 광출력부와 광입력부를 연동시키는 단계,
상기 광입력부가 상기 객체로부터 반사된 광 신호를 수신하는 단계, 그리고
상기 광입력부가 수신하는 광 신호의 디스패리티(disparity)를 이용하여 상기 객체의 깊이 정보를 생성하는 단계를 포함하며,
상기 광 신호를 조사하는 단계는 상기 광출력부가 제1 화각의 상기 광 신호 및 상기 제1 화각보다 작은 제2 화각의 상기 광 신호 중 하나를 상기 객체에 조사하는 것을 포함하고,
상기 광출력부와 상기 광입력부를 연동시키는 단계는 상기 광출력부가 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하면, 상기 광입력부의 줌 렌즈가 제1 배율로 구동되고, 상기 광출력부가 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하면, 상기 광입력부의 줌 렌즈가 상기 제1 배율보다 높은 제2 배율로 구동되는 것을 포함하는,
깊이 정보 생성 방법.In a method of generating depth information of a camera device,
A step where the optical output unit radiates an optical signal of a predetermined pattern consisting of a plurality of dots to the object,
Linking the optical output unit and the optical input unit,
the optical input unit receiving an optical signal reflected from the object, and
Generating depth information of the object using disparity of the optical signal received by the optical input unit,
The step of irradiating the optical signal includes the optical output unit irradiating one of the optical signal at a first angle of view and the optical signal at a second angle of view smaller than the first angle of view to the object,
The step of linking the optical output unit and the optical input unit includes: when the optical output unit irradiates the optical signal of the first angle of view to the object, the zoom lens of the optical input unit is driven at a first magnification, and the optical output unit When the optical signal of the second angle of view is irradiated to the object, the zoom lens of the optical input unit is driven at a second magnification higher than the first magnification,
How to generate depth information.
상기 광 신호를 상기 객체에 조사하는 단계는 상기 생성된 깊이 정보에 따라 상기 광출력부가 선택적으로 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하거나, 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하는 것을 포함하는 깊이 정보 생성 방법.According to clause 8,
The step of irradiating the optical signal to the object may include the light output unit selectively irradiating the optical signal of the first angle of view to the object or the optical signal of the second angle of view to the object according to the generated depth information. A method of generating depth information that includes examining .
상기 광 신호를 상기 객체에 조사하는 단계는 상기 생성된 깊이 정보가 미리 설정된 거리 이하이면 상기 광출력부가 상기 제1 화각의 상기 광 신호를 상기 객체에 조사하고, 상기 생성된 깊이 정보가 상기 미리 설정된 거리를 초과하면 상기 광출력부가 상기 제2 화각의 상기 광 신호를 상기 객체에 조사하는 것을 포함하는 깊이 정보 생성 방법.According to clause 9,
The step of irradiating the optical signal to the object includes, if the generated depth information is less than a preset distance, the optical output unit irradiates the optical signal of the first angle of view to the object, and the generated depth information is the preset distance. When the distance is exceeded, the light output unit irradiates the light signal of the second angle of view to the object.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220060296A KR20230160598A (en) | 2022-05-17 | 2022-05-17 | Camera apparatus |
PCT/KR2023/006413 WO2023219440A1 (en) | 2022-05-11 | 2023-05-11 | Camera apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220060296A KR20230160598A (en) | 2022-05-17 | 2022-05-17 | Camera apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230160598A true KR20230160598A (en) | 2023-11-24 |
Family
ID=88972354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220060296A KR20230160598A (en) | 2022-05-11 | 2022-05-17 | Camera apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230160598A (en) |
-
2022
- 2022-05-17 KR KR1020220060296A patent/KR20230160598A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9553423B2 (en) | Miniature structured light illuminator | |
US9870068B2 (en) | Depth mapping with a head mounted display using stereo cameras and structured light | |
US6619547B2 (en) | Image-based graphical code reader device with multi-functional optical element and converging laser targeting | |
EP4056947A1 (en) | Light projection apparatus | |
JP6580578B2 (en) | Camera device | |
US20130002859A1 (en) | Information acquiring device and object detecting device | |
CN113196284B (en) | Image pickup apparatus | |
KR20150089673A (en) | Camera apparatus | |
CN108333858A (en) | Laser emitter, optoelectronic device, depth camera and electronic device | |
KR20230160598A (en) | Camera apparatus | |
CN220171253U (en) | 3D module and electronic equipment | |
KR20200113438A (en) | Camera module | |
KR102561533B1 (en) | Camera device | |
US20240056669A1 (en) | Camera module | |
KR102647377B1 (en) | Camera apparatus | |
KR20230046736A (en) | Camera module | |
KR102710469B1 (en) | Camera module | |
KR20240124017A (en) | Light output device and camera device comprising the same | |
EP4412194A1 (en) | Camera device | |
KR20240022227A (en) | Light output device and information generating device comprising the same | |
KR20240040461A (en) | Camera device | |
KR20240040462A (en) | Lidar apparatus and information generating method of the same | |
KR20240022226A (en) | Camera apparatus | |
KR102427440B1 (en) | Device for varying laser emission angle and device for acquiring 3-dimensional image | |
KR20240048280A (en) | 3d sensing device |