KR102094214B1 - Device and method of obtaining image - Google Patents

Device and method of obtaining image Download PDF

Info

Publication number
KR102094214B1
KR102094214B1 KR1020130051013A KR20130051013A KR102094214B1 KR 102094214 B1 KR102094214 B1 KR 102094214B1 KR 1020130051013 A KR1020130051013 A KR 1020130051013A KR 20130051013 A KR20130051013 A KR 20130051013A KR 102094214 B1 KR102094214 B1 KR 102094214B1
Authority
KR
South Korea
Prior art keywords
light
light emitting
image acquisition
image
focused
Prior art date
Application number
KR1020130051013A
Other languages
Korean (ko)
Other versions
KR20140132044A (en
Inventor
이창환
양선호
신윤섭
이현준
정용우
조아영
김성민
안성근
권영만
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020130051013A priority Critical patent/KR102094214B1/en
Publication of KR20140132044A publication Critical patent/KR20140132044A/en
Application granted granted Critical
Publication of KR102094214B1 publication Critical patent/KR102094214B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

실시 예에 따른 영상 획득 장치는, 물체에 복수의 광을 출사하는 발광부; 및 상기 발광부를 통해 출사된 복수의 광 중 어느 하나를 이용하여 컬러 영상 및 깊이 정보를 획득하는 수광부를 포함하며, 상기 발광부는, 서로 다른 위치에서 포커싱되는 복수의 광을 출사한다.An image acquiring device according to an embodiment includes a light emitting unit that emits a plurality of light to an object; And a light receiving unit that acquires color image and depth information by using any one of a plurality of light emitted through the light emitting unit, wherein the light emitting unit emits a plurality of light focused at different locations.

Description

영상 획득 장치 및 이의 영상 획득 방법{DEVICE AND METHOD OF OBTAINING IMAGE}Image acquisition device and its acquisition method {DEVICE AND METHOD OF OBTAINING IMAGE}

본 발명은 영상 획득 장치에 관한 것으로, 특히 하나의 카메라를 이용하여 컬러 영상과 깊이 정보를 동시에 획득할 수 있는 영상 획득 장치 및 이의 영상 획득 방법에 관한 것이다.The present invention relates to an image acquisition apparatus, and more particularly, to an image acquisition apparatus and an image acquisition method thereof capable of simultaneously obtaining color images and depth information using one camera.

3D 동작 인식에 사용되는 카메라에는 여러 가지 요소들이 필요하다.Cameras used for 3D motion recognition require several factors.

대표적인 3가지가, 물체의 형태, 색깔 및 깊이 정보이다. 이때, 상기 물체의 형태나 색깔은 일반적인 2D 카메라로부터 획득될 수 있다. 그러나, 상기 깊이 정보는 상기 2D 카메라와는 별도의 적외선 카메라로부터 얻을 수 있다.Three typical types are object shape, color, and depth information. At this time, the shape or color of the object can be obtained from a general 2D camera. However, the depth information can be obtained from an infrared camera separate from the 2D camera.

따라서, 3D 동작 인식에는 기본적으로 물체의 형태나 색깔을 획득하는 제 1 카메라와, 깊이 정보를 획득하는 제 2 카메라와 같은 2개의 카메라가 이용된다.Therefore, two cameras, such as a first camera for acquiring the shape or color of an object and a second camera for acquiring depth information, are basically used for 3D motion recognition.

하지만, 종래 기술에 따른 3D 동작 인식 방법은 상기와 같이 2개의 카메라를 이용함으로써, 2배의 부품 비용 및 카메라 간의 조립 오차로 인한 영상 품질 저하 및 보상 알고리즘을 필요로 하게 된다.However, in the 3D motion recognition method according to the prior art, by using the two cameras as described above, the image quality deterioration and compensation algorithm due to the double component cost and the assembly error between the cameras are required.

이하, 첨부된 도면을 참조하여 종래 기술에 따른 3D 영상 획득 장치에 대해 설명하기로 한다.Hereinafter, a 3D image acquisition device according to the related art will be described with reference to the accompanying drawings.

도 1 및 2는 종래 기술에 따른 3D 영상 획득 장치를 설명하기 위한 도면이다.1 and 2 are views for explaining a 3D image acquisition device according to the prior art.

도 1을 참조하면, 3D 영상 획득 장치는 물체의 형태나 색깔 정보를 획득하는 제 1 카메라(11)와, 깊이 정보를 획득하는 제 2 카메라(12)와, 적외선 광을 발생하는 발광부(13)로 구성된다. Referring to FIG. 1, the 3D image acquisition device includes a first camera 11 for acquiring shape or color information of an object, a second camera 12 for acquiring depth information, and a light emitting unit 13 for generating infrared light ).

도 1에 의한 3D 영상 획득 장치는, 상기와 같이 별도의 독립적인 제 1 카메라(11)와 제 2 카메라(12)로 구성되며, 이를 토대로 3D 동작 인식을 위한 영상을 획득하게 된다.The 3D image acquisition apparatus according to FIG. 1 is composed of separate independent first camera 11 and second camera 12 as described above, and acquires an image for 3D motion recognition based on this.

이때, 상기 제 1 카메라(11)와 제 2 카메라(12)는 도면에서와 동일 축 상에 존재하지 않으며, 일정 거리만큼 이격된 위치에 배치된다.At this time, the first camera 11 and the second camera 12 do not exist on the same axis as in the drawing, and are arranged at positions spaced apart by a predetermined distance.

이에 따라, 상기 제 1 및 2 카메라(11, 12)를 이용하여 동일한 객체에 대한 영상을 획득하여도, 상호 간의 베이스 라인으로 인한 시차가 발생하게 된다. 다시 말해서, 상기와 같이 제 1 및 2 카메라가 일정 거리 떨어진 상태로 배치되기 때문에, 상기 제 1 및 2 카메라는 서로 다른 초점으로 동일한 객체에 대한 정보를 획득하게 된다.Accordingly, even when an image of the same object is acquired using the first and second cameras 11 and 12, parallax due to mutual baselines occurs. In other words, as described above, since the first and second cameras are disposed at a certain distance, the first and second cameras acquire information about the same object with different focuses.

이로 인해, 상기와 같은 문제를 해결하기 위해 위치가 정확히 매칭된 정보를 얻는 과정을 거치게 되는데, 상기 과정은 연산이 복잡할 뿐만 아니라, 연산 과정에서의 오차가 발생하여, 정확한 3D 영상을 획득하는데 한계가 있다.Due to this, in order to solve the above problems, a process of obtaining information with exactly matched positions is performed. In addition, the process is complicated, and an error occurs in the calculation process, thereby limiting an accurate 3D image. There is.

또한, 도 2는 도 1의 3D 영상 획득 장치의 문제점을 해결하기 위해 고안되었다.In addition, FIG. 2 is designed to solve the problem of the 3D image acquisition device of FIG. 1.

즉, 도 2는 도 1에서 발생하는 복수의 카메라 사이의 시차를 극복하기 위해 고안되었다.That is, FIG. 2 is designed to overcome parallax between a plurality of cameras occurring in FIG. 1.

다시 말해서, 도 2는 물체의 형태나 색깔 정보를 획득하는 제 1 카메라(22)와, 깊이 정보를 획득하는 제 2 카메라(23)를 프리즘(21) 혹은 플레이트를 이용하여 동축으로 합침으로써, 도 1에서 나타나는 시차에 대한 문제점을 해결한 구성이다.In other words, FIG. 2 is a view in which a first camera 22 for acquiring shape or color information of an object and a second camera 23 for acquiring depth information are coaxially joined using a prism 21 or plate. This is a configuration that solves the problem of parallax shown in 1.

그러나, 도 2에 도시된 종래 기술도, 단지 제 1 카메라(21)와 제 2 카메라(22)가 동축에 형성될 뿐, 별도의 각각의 렌즈 2개와 센서 2개를 사용하는 시스템은 도 1에서와 같으며, 이에 따라 조립 오차, 제 1 및 2 카메라 간의 서로 다른 시스템(예를 들어, 렌즈 화각, AE, AWB 조건) 등으로 인한 스케일 불일치, AE/AWB 불일치 등의 문제점이 그대로 남아있다.However, in the prior art shown in FIG. 2, only the first camera 21 and the second camera 22 are formed coaxially, and the system using two separate lenses and two sensors is shown in FIG. As such, problems of scale mismatch, AE / AWB mismatch, etc. due to assembly errors, different systems (eg, lens angle of view, AE, AWB conditions) between the first and second cameras remain.

(특허문헌 1) KR 10-2011-0071528 A (Patent Document 1) KR 10-2011-0071528 A

본 발명에 따른 실시 예에서는 하나의 카메라를 이용하여 물체의 형태나 색깔 정보의 획득뿐만 아니라, 깊이 정보도 함께 획득할 수 있는 영상 획득 장치를 제공하도록 한다.In an embodiment according to the present invention, an image acquisition device capable of acquiring not only the shape or color information of an object but also depth information using one camera is provided.

또한, 본 발명에 따른 실시 예에서는 레이저 다이오드를 X축과 Y축의 중간 각도로 회전시켜 이미지 센서에 전달되는 광 점(spot)의 점유 픽셀 수를 증가시킬 수 있는 영상 획득 장치를 제공하도록 한다.In addition, according to an embodiment of the present invention, an image acquisition device capable of increasing the number of pixels occupied by a light spot transmitted to an image sensor by rotating the laser diode at an intermediate angle between the X and Y axes is provided.

또한, 본 발명에 따른 실시 예에서는 하나의 카메라를 이용하여 다양한 거리에 있는 객체에 대한 깊이 정보를 효율적으로 획득할 수 있는 영상 획득 장치를 제공하도록 한다.In addition, according to an embodiment of the present invention, an image acquisition device capable of efficiently acquiring depth information on an object at various distances using a single camera is provided.

제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the proposed embodiment are not limited to the technical problems mentioned above, and other technical problems that are not mentioned are clear to a person having ordinary knowledge in the technical field to which the proposed embodiment belongs from the following description. It can be understood.

실시 예에 따른 영상 획득 장치는, 물체에 복수의 광을 출사하는 발광부; 및 상기 발광부를 통해 출사된 복수의 광 중 어느 하나를 이용하여 컬러 영상 및 깊이 정보를 획득하는 수광부를 포함하며, 상기 발광부는, 서로 다른 위치에서 포커싱되는 복수의 광을 출사한다.An image acquiring device according to an embodiment includes a light emitting unit that emits a plurality of light to an object; And a light receiving unit that acquires color image and depth information by using any one of a plurality of light emitted through the light emitting unit, wherein the light emitting unit emits a plurality of light focused at different locations.

또한, 상기 발광부는, 복수의 발광 소자로 구성되는 표면 광 레이저(Vcsel)와, 상기 복수의 발광 소자를 통해 방사된 광을 각각 회절시키는 회절 광학 소자를 포함한다.In addition, the light emitting unit includes a surface light laser (Vcsel) composed of a plurality of light emitting elements, and a diffraction optical element that diffracts light emitted through the plurality of light emitting elements, respectively.

또한, 상기 회절 광학 소자는, 상기 복수의 발광 소자에 대응되게 복수 개로 구성되어, 해당 발광 소자를 통해 방사된 광이 서로 다른 위치에서 포커싱되도록 한다.In addition, the diffractive optical element is composed of a plurality of pieces corresponding to the plurality of light emitting elements, so that light emitted through the light emitting element is focused at different positions.

또한, 상기 복수의 발광 소자 각각은, 서로 다른 파장을 가지는 광을 발생시키며, 상기 서로 다른 파장을 가지는 광이 발생함에 따라 상기 회절 광학 소자를 통해 회절된 광은 서로 다른 위치에서 포커싱된다.Further, each of the plurality of light emitting elements generates light having different wavelengths, and light diffracted through the diffraction optical element is focused at different positions as the light having different wavelengths is generated.

또한, 상기 표면 광 레이저는, X축과 Y축의 중간 지점에 있는 특정 각도로 회전된 상태에서 상기 광을 발생시킨다.In addition, the surface light laser generates the light while being rotated at a specific angle between the X-axis and the Y-axis.

또한, 상기 수광부는, R, G, B 및 IR 픽셀을 가지는 센서를 포함한다.In addition, the light-receiving unit includes a sensor having R, G, B, and IR pixels.

한편, 실시 예에 따른 영상 획득 장치의 영상 획득 방법은 서로 다른 위치에서 포커싱되는 복수의 광을 발생시키는 단계; 및 상기 발생된 복수의 광 중 어느 하나를 이용하여 컬러 영상 및 깊이 정보를 획득하는 단계를 포함하며, 상기 획득하는 단계는, 상기 복수의 광 중 대상 물체에서 포커싱되는 광을 이용하여 상기 컬러 영상 및 깊이 정보를 획득하는 단계를 포함한다.On the other hand, the image acquisition method of the image acquisition apparatus according to the embodiment includes generating a plurality of light focused at different locations; And acquiring color image and depth information using any one of the plurality of generated light, wherein the acquiring step comprises using the light focused on the target object among the plurality of lights and the color image and And obtaining depth information.

또한, 상기 복수의 광을 발생시키는 단계는 복수의 발광 소자로 구성되는 표면 광 레이저(Vcsel)에서 동일한 특성의 광을 발생시키는 단계와, 상기 발생한 복수의 광이 서로 다른 위치에서 포커싱되도록 서로 다른 조건 내에서 상기 복수의 광을 각각 회절시키는 단계를 포함한다.Further, the generating of the plurality of lights may include generating light having the same characteristics in a surface light laser (Vcsel) composed of a plurality of light emitting elements, and different conditions such that the generated plurality of lights are focused at different locations. And diffracting each of the plurality of lights within.

또한, 상기 복수의 광을 발생시키는 단계는 복수의 발광 소자로 구성되는 표면 광 레이저(Vcsel)에서 서로 다른 파장을 가지는 광을 발생시키는 단계를 포함한다.In addition, the generating of the plurality of lights includes generating light having different wavelengths in a surface light laser Vcsel composed of a plurality of light emitting elements.

본 발명에 따른 실시 예에서는 하나의 카메라를 이용하여 물체의 형태나 색깔 정보의 획득뿐만 아니라, 깊이 정보도 함께 획득함으로써, 부품비용을 절감할 수 있으며, 카메라 간의 조립 오차로 인한 영상 품질 저하 및 보상 알고리즘 적용 등의 문제점을 해결할 수 있다.In an embodiment according to the present invention, not only the shape or color information of an object is acquired by using a single camera, but also depth information can be obtained, thereby reducing the cost of parts and compensating for image quality and compensation due to assembly errors between cameras Problems such as algorithm application can be solved.

또한, 본 발명에 따른 실시 예에서는 레이저 다이오드를 X축과 Y축의 중간 각도로 회전시켜 이미지 센서에 전달되는 광 점을 대각으로 만들어줌으로써, 상기 이미지 센서에 전달되는 광 점(spot)의 점유 픽셀 수를 증가시켜 깊이 인식률을 향상시킬 수 있다.In addition, in an embodiment according to the present invention, by rotating the laser diode at an intermediate angle between the X-axis and the Y-axis, the light point transmitted to the image sensor is made diagonal, so that the number of pixels occupied by the light spot transmitted to the image sensor By increasing the depth recognition rate can be improved.

또한, 본 발명에 따른 실시 예에서는 복수의 표면 광 레이저 어레이를 적용하여 카메라를 구성하고, 상기 각각의 표면 광 레이저가 가지는 포커싱 거리를 서로 다르게 적용함으로써, 물체와의 거리에 따라 최적화된 표면 광 레이저를 이용하여 용이하게 깊이 정보를 획득할 수 있다.In addition, in an embodiment according to the present invention, a plurality of surface light laser arrays are applied to configure a camera, and by applying different focusing distances of the respective surface light lasers, the surface light laser optimized according to the distance to the object Depth information can be easily obtained by using.

도 1 및 2는 종래 기술에 따른 3D 영상 획득 장치를 설명하기 위한 도면이다.
도 3은 본 발명의 실시 예에 따른 영상 획득 장치를 나타낸 도면이다.
도 4는 도 3에 도시된 발광부(110)와 수광부(120)를 나타낸 도면이다.
도 5는 도 3에 도시된 발광부(110)의 상세 구성도이다.
도 6은 본 발명의 다른 실시 예에 따른 발광부를 나타낸 도면이다.
도 7은 도 5 및 6에 도시된 발광 소자(111)를 설명하기 위한 도면이다.
도 8은 본 발명의 제 1 실시 예에 따른 발광부의 광 분포를 설명하기 위한 도면이다.
도 9는 본 발명의 제 2 실시 예에 따른 발광부의 광 분포를 설명하기 위한 도면이다.
도 10은 본 발명의 실시 예에 따른 발광부의 광 분포를 설명하기 위한 도면이다.
도 11은 종래 기술에 따른 카메라에 입사되는 광 점을 나타낸 도면이다.
도 12는 본 발명에 따른 카메라에 입사되는 광 점을 나타낸 도면이다.
도 13은 본 발명의 실시 예에 따른 영상 획득 장치의 영상 획득 방법을 단계별로 설명하기 위한 흐름도이다.
1 and 2 are views for explaining a 3D image acquisition device according to the prior art.
3 is a view showing an image acquisition device according to an embodiment of the present invention.
4 is a view showing the light emitting unit 110 and the light receiving unit 120 shown in FIG. 3.
5 is a detailed configuration diagram of the light emitting unit 110 shown in FIG. 3.
6 is a view showing a light emitting unit according to another embodiment of the present invention.
7 is a view for explaining the light emitting device 111 shown in FIGS. 5 and 6.
8 is a view for explaining the light distribution of the light emitting unit according to the first embodiment of the present invention.
9 is a view for explaining the light distribution of the light emitting unit according to the second embodiment of the present invention.
10 is a view for explaining the light distribution of the light emitting unit according to an embodiment of the present invention.
11 is a view showing a light point incident on the camera according to the prior art.
12 is a view showing a light point incident on the camera according to the present invention.
13 is a flow chart for explaining step-by-step the image acquisition method of the image acquisition device according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, when it is determined that a detailed description of known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition should be made based on the contents throughout this specification.

첨부된 도면의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 도면의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 도면의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 도면의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each block of the accompanying drawings and each step of the flowchart may be performed by computer program instructions. These computer program instructions can be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, so that the instructions executed through the computer or other programmable data processing equipment processor are shown in each block or flow diagram of the drawing. It will create means to perform the functions described in the steps. These computer program instructions can also be stored in computer readable or computer readable memory that can be oriented to a computer or other programmable data processing equipment to implement a function in a particular manner, so that computer readable or computer readable memory The instructions stored in it are also possible to produce an article of manufacture containing instructions means for performing the functions described at each step of each block or flowchart of the drawing. Since computer program instructions may be mounted on a computer or other programmable data processing equipment, a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer to generate a computer or other programmable data. It is also possible for instructions to perform processing equipment to provide steps for performing the functions described in each block of the drawing and in each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be executed substantially simultaneously, or it is also possible that the blocks or steps are sometimes performed in reverse order depending on the corresponding function.

도 3은 본 발명의 실시 예에 따른 영상 획득 장치를 나타낸 도면이다.3 is a view showing an image acquisition device according to an embodiment of the present invention.

도 3을 참조하면, 영상 획득 장치는, 발광부(110), 수광부(120), 영상 처리부(130) 및 인터페이스부(140)를 포함한다.Referring to FIG. 3, the image acquisition device includes a light emitting unit 110, a light receiving unit 120, an image processing unit 130, and an interface unit 140.

발광부(110)는 LD/LED를 사용하는 액티브 발광계이다.The light emitting unit 110 is an active light emitting system using LD / LED.

발광부(110)는 깊이 정보, 즉 IR(적외선) 근접광 정보를 취득하는데 필요한 패턴을 뿌려주는 역할을 한다. 이때, 발광부(110)는 일정한 규칙을 가지는 패턴을 3차원으로 복원하고자 하는 객체에 투사한다. The light emitting unit 110 serves to spray a pattern necessary to acquire depth information, that is, IR (infrared) proximity light information. At this time, the light emitting unit 110 projects a pattern having a certain rule onto an object to be restored in 3D.

즉, 발광부(110)는 공간적으로 규칙 배열을 가지도록 설계된 IR 근접광 패턴을 뿌려주는 역할을 한다.That is, the light emitting unit 110 serves to spray an IR proximity light pattern designed to have a regular spatial arrangement.

수광부(120)는 상기 발광부(110)를 통해 뿌려진 근접광 패턴을 이용하여 컬러 영상과 깊이 정보를 획득한다. 여기에서, 상기 깊이 정보는 IR(적외선) 정보이다.The light receiving unit 120 acquires color images and depth information using the proximity light pattern scattered through the light emitting unit 110. Here, the depth information is IR (infrared) information.

이때, 상기 수광부(120)는 카메라이며, 본 발명에서는 한 대의 카메라만을 이용하여 상기와 같이 컬러 영상과 함께 IR 영상을 획득한다.At this time, the light receiving unit 120 is a camera, and in the present invention, an IR image is obtained together with a color image as described above using only one camera.

이는, 상기 카메라가 가지는 이미지 센서의 픽셀 배열을 변경시킴에 따라 가능하다.This is possible by changing the pixel arrangement of the image sensor of the camera.

다시 말해서, 본 발명에서의 수광부(120)는 R, G, B 및 IR 픽셀을 가지게 된다. 이때, 일반적인 이미지 센서의 픽셀은 하나의 R, G 픽셀 당 2개의 G 픽셀을 가지는데, 본 발명에서는 상기 2개의 G 픽셀 중 하나의 픽셀을 상기 IR 픽셀로 변경함으로써 가능하다.In other words, the light receiving unit 120 in the present invention has R, G, B and IR pixels. At this time, a pixel of a typical image sensor has two G pixels per one R and G pixels. In the present invention, it is possible to change one pixel of the two G pixels to the IR pixel.

그러나, 이는 본 발명의 일 실시 예에 불과할 뿐, 상기 R, G, B 및 IR 픽셀의 배치는 다양하게 변경될 수 있을 것이다.However, this is only an embodiment of the present invention, and the arrangement of the R, G, B and IR pixels may be variously changed.

이에 따라, 상기 수광부(120)는 현재 일반적으로 제공되는 RGB 카메라에서 획득되는 컬러 영상보다 하나의 G 픽셀 정보가 부족한 RGB 영상을 획득하게 된다.Accordingly, the light receiving unit 120 acquires an RGB image that lacks one G pixel information than a color image obtained from a currently provided RGB camera.

또한, 상기 수광부(120)는 IR 영상을 획득하게 된다.In addition, the light receiving unit 120 acquires an IR image.

이를 보다 구체적으로 설명하면, 상기 수광부(120)는 입사된 광을 감지하고, 상기 감지된 광의 양을 전기적인 신호로 변환하여 출력하는 방식으로 광을 검출하는 포토 다이오드가 사용될 수 있으며, 상기 수광부(120)에서 검출되는 광은 서로 다른 복수의 종류의 광을 포함할 수 있다.In more detail, the light receiving unit 120 detects the incident light, and a photodiode that detects light by converting and outputting the amount of the detected light into an electrical signal may be used, and the light receiving unit ( The light detected at 120) may include a plurality of different types of light.

즉, 상기 수광부(120)에서 수광하는 광은 예를 들어, 가시 영역의 특정 영역에 해당하는 광과, 적외 영역에 해당하는 광을 포함한다.That is, the light received by the light receiving unit 120 includes, for example, light corresponding to a specific area of the visible area and light corresponding to the infrared area.

이에 따라, 상기 수광부(120)는 광 스펙트럼의 가시 영역의 특정 영역에 해당하는 빛, 구체적으로는 적색광, 녹색광, 및 청색광에 대한 색 정보를 추출하는 포토 다이오드를 포함할 수 있다.Accordingly, the light receiving unit 120 may include a photodiode that extracts color information for light corresponding to a specific area of the visible region of the light spectrum, specifically red light, green light, and blue light.

여기에서, 상기 색 정보는 RGB 신호 또는 CMY 신호 등이 될 수 있다. 이때, 상기 수광부(120)에는 광에 대한 RGB 신호를 검출하는 RGB 센서가 사용될 수 있으나, 반드시 이에 한정되는 것은 아니며, 이 밖에도 광에 대한 색 정보를 검출할 수 있는 광센서가 다양하게 이용될 수 있다.Here, the color information may be an RGB signal or a CMY signal. At this time, an RGB sensor for detecting an RGB signal for light may be used in the light receiving unit 120, but the present invention is not limited thereto, and various optical sensors capable of detecting color information about light may be used. have.

또한, 상기 수광부(120)는 적외 영역에 해당하는 광(예를 들어, IR 근접광)를 검출하는 포토 다이오드를 더 포함할 수 있다.In addition, the light receiving unit 120 may further include a photo diode that detects light (eg, IR proximity light) corresponding to the infrared region.

결론적으로, 본 발명에 따른 수광부(120)는 적색광, 녹색광, 청색광 및 IR 근접광에 대응하는 광을 각각 검출할 수 있으며, 이에 따른 RGB 영상과, IR 근접광 영상을 출력할 수 있다.In conclusion, the light receiving unit 120 according to the present invention can detect light corresponding to red light, green light, blue light, and IR proximity light, respectively, and output RGB image and IR proximity light image accordingly.

한편, 상기 수광부(120)는 이미지 센서의 전체 해상도의 1/4에 해당하는 IR 근접광 정보를 획득할 수 있다.Meanwhile, the light receiving unit 120 may obtain IR proximity light information corresponding to 1/4 of the total resolution of the image sensor.

영상 처리부(130)는 상기 수광부(120)를 통해 획득된 RGB 영상과, IR 영상을 이용하여 실질적인 컬러 영상을 획득하고, 이를 처리한다.The image processing unit 130 acquires a substantial color image using the RGB image and the IR image obtained through the light receiving unit 120 and processes the RGB image.

이때, 상기 영상 처리부(130)는 demosaicing 기술을 이용하여, 저조도 영상을 개선하기 위한 RGBW 센서를 적용한 기술과 유사하게 상기 G 픽셀이 감소한 정보를 이용하여 컬러 영상을 복원할 수 있다.At this time, the image processing unit 130 may restore a color image by using the information in which the G pixel is reduced, similar to a technique in which an RGBW sensor is applied to improve a low-light image by using a demosaicing technique.

즉, 영상 처리부(130)는 IR 근접광 영상을 이용한 깊이 정보 보간 및 상기 IR 근접광 영상과 RGB 영상을 결합하는 역할을 한다.That is, the image processing unit 130 serves to interpolate depth information using an IR proximity light image and to combine the IR proximity light image and an RGB image.

인터페이스부(140)는 상기 영상 처리부(130)와 다양한 전자기기 사이를 연결한다.The interface unit 140 connects between the image processing unit 130 and various electronic devices.

이하, 첨부된 도면을 참조하여 상기 영상 획득 장치에 대해 보다 구체적으로 설명하기로 한다.Hereinafter, the image acquisition device will be described in more detail with reference to the accompanying drawings.

도 4는 도 3에 도시된 발광부(110)와 수광부(120)를 나타낸 도면이다.4 is a view showing the light emitting unit 110 and the light receiving unit 120 shown in FIG. 3.

도 4에서와 같이, 인쇄회로기판(P) 위에는 다양한 소자들이 부착되어 있으며, 상기 다양한 소자들과 함께 발광부(110)와 수광부(120)가 일정 간격을 두고 배치되어 있다.As shown in FIG. 4, various elements are attached to the printed circuit board P, and the light emitting unit 110 and the light receiving unit 120 are disposed at regular intervals along with the various elements.

이때, 수광부(120)는 종래 기술과는 다르게 하나의 단일 개로 구성되어 있으며, 이를 토대로 RGB 영상과 IR 근접광 영상을 모두 획득하게 된다.At this time, unlike the prior art, the light receiving unit 120 is composed of one single piece, and based on this, both the RGB image and the IR proximity light image are acquired.

도 5는 도 3에 도시된 발광부(110)의 상세 구성도이다.5 is a detailed configuration diagram of the light emitting unit 110 shown in FIG. 3.

도 5를 참조하면, 발광부(110)는 발광 소자(111), 렌즈(112) 및 회절 광학 소자(113)를 포함한다.Referring to FIG. 5, the light emitting unit 110 includes a light emitting device 111, a lens 112, and a diffractive optical device 113.

발광 소자(111)는 레이저 다이오드(LD:Laser Diode)로 구성될 수 있다.The light emitting device 111 may be formed of a laser diode (LD).

이때, 바람직하게 상기 발광 소자(111)는 복수 개의 어레이로 구성될 수 있다. 다시 말해서, 상기 발광 소자(111)는 제 1 발광 소자(1111), 제 2 발광 소자(1112), 제 3 발광 소자(1113), ... , 제 N 발광 소자(111N)를 포함할 수 있다.At this time, preferably, the light emitting element 111 may be configured as a plurality of arrays. In other words, the light emitting device 111 may include a first light emitting device 1111, a second light emitting device 1112, a third light emitting device 1113, ..., Nth light emitting device 111N. .

상기와 같은 제 1 내지 N 발광 소자를 포함하는 발광 소자(111)는 표면에서 수직으로 광을 각각 방사한다.The light emitting devices 111 including the first to N light emitting devices as described above emit light vertically from the surface.

이때, 상기 발광 소자(111)는 표면광레이저(Vcsel)로 구성되는 것이 바람직하다. 상기 표면광레이저는 다수 개의 광점의 2D 어레이로 구성된 레이저를 의미하며, 이에 따라 상기와 같이 제 1 내지 N 발광 소자를 포함하게 된다.At this time, the light emitting element 111 is preferably composed of a surface light laser (Vcsel). The surface light laser means a laser composed of a 2D array of a plurality of light spots, and thus includes first to N light emitting elements as described above.

렌즈(112)는 상기 발광 소자(111)를 통해 방사된 광의 조건을 변경한다. 이때, 렌즈(112)는 콜리메이트 렌즈로 구성될 수 있다. The lens 112 changes conditions of light emitted through the light emitting element 111. At this time, the lens 112 may be composed of a collimated lens.

상기와 같은 렌즈(112)는 후술할 회절 광학 소자(113)와 발광 소자(111) 사이에 형성되며, 그에 따라 상기 광학 소자(113)에서 방사된 광에 대해 상기 회절 광학 소자(113)로 입사하는 광 조건을 평행광으로 만들어준다.The lens 112 as described above is formed between the diffractive optical element 113 and the light emitting element 111 to be described later, thereby incident on the light emitted from the optical element 113 to the diffractive optical element 113 The light condition to be made is made into parallel light.

상기 렌즈(112)는 상기 발광 소자(111)를 구성하는 제 1 내지 N 발광 소자의 각각에 대응하게 제 1 내지 N 렌즈(1121, 1122, 1123, ... , 112N)를 포함할 수 있다.The lens 112 may include first to N lenses 1121, 1122, 1123, ..., 112N corresponding to each of the first to N light emitting elements constituting the light emitting element 111.

한편, 도면상에는 상기 발광 소자(111)와 회절 광학 소자(113) 사이에는 필수적으로 상기 렌즈(112)가 형성된다고 도시하였으나, 실시 예에 따라 상기 렌즈(112) 없이 상기 발광 소자(111)에서 방사된 빛이 상기 회절 광학 소자(113)에 직접 입사되도록 할 수도 있을 것이다.On the other hand, although the drawing shows that the lens 112 is essentially formed between the light emitting element 111 and the diffractive optical element 113, the light is emitted from the light emitting element 111 without the lens 112 according to an embodiment. It is also possible that the light is directly incident on the diffractive optical element 113.

회절 광학 소자(113)는 상기 렌즈(112)를 통해 전달되는 광을 회절시켜 출사한다.The diffraction optical element 113 diffracts and emits light transmitted through the lens 112.

상기 회절 광학 소자(113)도, 상기 발광 소자(111) 및 렌즈(112)에 대응하게, 제 1 내지 N 회절 광학 소자(1131, 1132, 1133, ... , 113N)를 포함할 수 있다.The diffractive optical element 113 may also include first to N diffractive optical elements 1131, 1132, 1133, ..., 113N corresponding to the light emitting element 111 and the lens 112.

다시 말해서, 제 1 발광 소자(1111)를 통해 출사된 광은, 상기 제 1 렌즈(1121)로 입사되며, 상기 제 1 렌즈(1121)를 통해 출사된 광은 상기 제 1 회절 광학 소자(1131)로 입사된다.In other words, light emitted through the first light emitting element 1111 is incident on the first lens 1121, and light emitted through the first lens 1121 is the first diffraction optical element 1131. Is joined.

따라서, 본 발명의 실시 예에 따른 발광부(110)는 광을 발생하는 다수 개의 군으로 이루어져 있으며, 그에 따라 상기 다수 개의 군은 각각 상기 설명한 패턴에 대응하는 광을 각각 방사하게 된다.Accordingly, the light emitting unit 110 according to an embodiment of the present invention is composed of a plurality of groups generating light, and accordingly, the plurality of groups respectively emit light corresponding to the above-described pattern.

상기와 같은 발광 소자(111), 렌즈(112) 및 회절 광학 소자(113)를 통해 출사되는 광의 특징을 살펴보면 다음과 같다.Looking at the characteristics of the light emitted through the light emitting element 111, the lens 112 and the diffractive optical element 113 as described above are as follows.

상기 발광 소자(111)는 X-축 방향으로 크고, Y-축 방향으로는 작은 광을 출사한다. 이에 따라, 상기 발광 소자(111)에서 출사된 광은 X축으로 긴 타원형으로 이루어잔다.The light emitting element 111 emits light that is large in the X-axis direction and small in the Y-axis direction. Accordingly, the light emitted from the light emitting element 111 is formed in an elliptical shape with a long X-axis.

상기 렌즈(112)는 상기 발광 소자(111)를 통해 입사된 광을 평행광으로 변경하는데, 이때, 상기 렌즈(112)를 통해 출사되는 광은 상기 발광 소자(11)에서 출사된 광과 마찬가지로 X축의 광 강도분포가 크게 나타난다. 이때, 실시 예에서는 상기 발광 소자(111)와 렌즈(112) 사이에 미러를 형성하고, 이를 토대로 상기 렌즈(112)로 입사되는 광을 사전에 한번 꺾어줌으로써 전체 모듈 크기를 줄일 수도 있을 것이다.The lens 112 changes the light incident through the light emitting element 111 to parallel light, wherein the light emitted through the lens 112 is the same as the light emitted from the light emitting element 11 X The axial light intensity distribution is large. At this time, in an embodiment, a mirror may be formed between the light emitting element 111 and the lens 112, and based on this, the light incident on the lens 112 may be folded once in advance to reduce the overall module size.

상기 회절 광학 소자(113)에서 출사되는 광은, 상기와 같은 회절에 의해, 입사 광에 대한 광 강도 분포와 다르게 나타난다. 즉, 회절 광학 소자(113)에서 출사되는 광은, 광 강도 분포가 상기 발광 소자(111)나 렌즈(112)에서의 출사 광 강도 분포에 대비하여 X-Y축이 서로 바뀌게 된다.The light emitted from the diffraction optical element 113 appears differently from the light intensity distribution for incident light by the above-described diffraction. That is, in the light emitted from the diffraction optical element 113, the X-Y axis of the light intensity distribution is changed from each other in comparison with the light intensity distribution emitted from the light emitting element 111 or the lens 112.

즉, 상기 회절 광학 소자(113)는 Y축의 광점이 X축보다 길어진 광을 출사한다.That is, the diffraction optical element 113 emits light whose Y-axis light point is longer than the X-axis.

도 6은 본 발명의 다른 실시 예에 따른 발광부를 나타낸 도면이다.6 is a view showing a light emitting unit according to another embodiment of the present invention.

도 6을 참조하면, 본 발명의 다른 실시 예에 따른 발광부는, 도 5에 도시된 발광부와 동일하게 제 1 내지 N 발광 소자(1111, 1112, 1113, ... , 111N)와, 제 1 내지 N 렌즈(1121, 1122, 1123, ..., 112N)를 포함한다.6, the light emitting unit according to another embodiment of the present invention, the first to N light emitting elements (1111, 1112, 1113, ..., 111N) and the first, the same as the light emitting unit shown in Figure 5 To N lenses 1121, 1122, 1123, ..., 112N.

그러나, 회절 광학 소자(210)는 도 5에 도시된 회절 광학 소자와는 달리 상기 다수 개의 렌즈를 통해 출사된 광을 모두 입사할 수 있는 단일 개로 구성된다.However, unlike the diffractive optical element shown in FIG. 5, the diffractive optical element 210 is composed of a single dog capable of injecting all of the light emitted through the plurality of lenses.

즉, 상기 회절 광학 소자(210)는 단일 개로 구성될 수 있으며, 그에 따라 상기 다수 개의 렌즈를 통해 출사되는 광을 입사 받아 이를 각각 회절시킨다. That is, the diffractive optical element 210 may be composed of a single dog, and thus receives light emitted through the plurality of lenses and diffracts them.

한편, 도 6에서도 상기 렌즈가 다수 개로 구성된다고 도시하였으나, 상기 회절 광학 소자(210)와 마찬가지로 단일 개로 구성될 수도 있을 것이다.On the other hand, in FIG. 6, although the lens is shown to be composed of a plurality, the diffractive optical element 210 may be composed of a single piece.

다시 말해서, 상기 발광 소자만이 다수의 어레이로 구성된 근접광레이저를 사용함에 따라 다수 개로 구성될 수 있으며, 상기 렌즈나 회절 광학 소자는 단일 개로 구성될 수 있다.In other words, only the light-emitting element may be composed of a plurality as a proximity light laser composed of a plurality of arrays, and the lens or the diffraction optical element may be composed of a single.

도 7은 도 5 및 6에 도시된 발광 소자(111)를 설명하기 위한 도면이다.7 is a view for explaining the light emitting device 111 shown in FIGS. 5 and 6.

상기와 같이, 발광 소자(111)는 표면광 레이저(VCSEL ; Vertical Cavity Surface Emitting Laser) 어레이 모듈로 구성된다.As described above, the light emitting device 111 is configured with a vertical cavity surface emitting laser (VCSEL) array module.

이에 따라, 도 7에 도시된 바와 같이 발광 소자(111)는 인쇄회로기판(P) 위에 다수 개의 표면광 레이저가 부착되어 있으며, 그에 따라 상기 다수 개의 표면광 레이저 각각에서 광이 출력된다.Accordingly, as illustrated in FIG. 7, a plurality of surface light lasers are attached to the printed circuit board P, and light is output from each of the plurality of surface light lasers.

즉, 기존의 일반적인 레이저는 측면으로 빛을 방사하는 레이저로, X와 Y축의 방사각이 서로 다른 특징을 가진다. 이로 인하여 근접광 방식의 깊이 카메라(IR 카메라)에서 광 점 사이즈의 X-Y 비대칭 광 분포가 발생하게 된다.That is, the conventional general laser is a laser that emits light to the side, and has different characteristics in the X and Y axes. Due to this, the X-Y asymmetric light distribution of the light spot size is generated in the proximity light type depth camera (IR camera).

이에 반하여, 상기 표면광레이저는 표면에서 수직으로 빛을 방사하는 레이저로, X-Y축의 방사각이 서로 대칭인 특징을 가진다. 상기와 같은 표면광 레이저는 여러 개의 광점이 2D 어레이로 구성된 레이저이다.On the other hand, the surface light laser is a laser that vertically radiates light from the surface, and has a feature in which the radiation angles of the X-Y axes are symmetric to each other. The surface light laser as described above is a laser composed of a plurality of light spots in a 2D array.

도 8은 본 발명의 제 1 실시 예에 따른 발광부의 광 분포를 설명하기 위한 도면이다.8 is a view for explaining the light distribution of the light emitting unit according to the first embodiment of the present invention.

제 1 실시 예에 따른 발광부에 의하면, 발광 소자(111), 렌즈(112) 및 회절 광학 소자(113)가 모두 표면광 레이저에 대응하게 복수 개로 구성된다.According to the light emitting unit according to the first embodiment, the light emitting element 111, the lens 112, and the diffractive optical element 113 are all composed of a plurality corresponding to the surface light laser.

이에 따라, 제 1 발광 소자(1111), 제 1 렌즈(1121) 및 제 1 회절 광학 소자(1131)가 제 1 군을 이루고, 제 2 발광 소자(1112), 제 2 렌즈(1122) 및 제 2 회절 광학 소자(1132)가 제 2 군을 이루며, 제 3 발광 소자(1113), 제 3 렌즈(1123) 및 제 3 회절 광학 소자(1133)가 제 3 군을 이룬다.Accordingly, the first light emitting element 1111, the first lens 1121 and the first diffraction optical element 1131 form a first group, and the second light emitting element 1112, the second lens 1122 and the second The diffractive optical element 1132 forms a second group, and the third light emitting element 1113, the third lens 1123, and the third diffractive optical element 1133 form a third group.

이때, 상기 제 1 군에서 출사되는 제 1 광과, 제 2 군에서 출사되는 제 2 광과, 제 3 군에서 출사되는 제 3 광은 서로 다른 특성을 가진다.At this time, the first light emitted from the first group, the second light emitted from the second group, and the third light emitted from the third group have different characteristics.

다시 말해서, 상기 제 1 발광 소자(1111), 제 2 발광 소자(1112) 및 제 3 발광 소자(1113)에서는 모두 동일한 광이 출사된다.In other words, the same light is emitted from the first light emitting element 1111, the second light emitting element 1112, and the third light emitting element 1113.

그러나, 제 1 군에 포함된 렌즈 및 회절 광학 소자와, 제2 군에 포함된 렌즈 및 회절 광학 소자와, 제 3 군에 포함된 렌즈 및 회절 광학 소자의 특성이 각각 다르며, 이에 따라 최종적으로 상기 제 1 광과, 제 2 광과 제 3 광이 서로 다른 특성을 가지며 출사된다. 이때, 상기 특성은 상기 광이 포커싱되는 물체와의 거리이다.However, the characteristics of the lens and the diffractive optical element included in the first group, the lens and the diffractive optical element included in the second group, and the lens and the diffractive optical element included in the third group are different from each other. The first light, the second light, and the third light have different characteristics and are emitted. At this time, the characteristic is the distance from the object to which the light is focused.

다시 말해서, 상기 제 1 군에서 출사된 제 1 광은 상기 제 1 군과 Z1만큼 떨어진 위치에서 포커싱되고, 상기 제 2 군에서 출사된 제 2 광은 상기 제 2 군과 Z2만큼 떨어진 위치에서 포커싱되며, 상기 제 3 군에서 출사된 제 3 광은 상기 제 3군과 Z3만큼 떨어진 위치에서 포커싱된다. 이때, 상기 Z1, Z2 및 Z3는 모두 다른 위치인 것을 특징으로 한다.In other words, the first light emitted from the first group is focused at a position Z1 away from the first group, and the second light emitted from the second group is focused at a position Z2 away from the second group. , The third light emitted from the third group is focused at a position Z3 away from the third group. At this time, the Z1, Z2 and Z3 are all characterized by different positions.

결론적으로, 상기와 같은 광 점 배열 중에 제 1 군은 Z1에 해당하는 위치의 물체에 포커싱되도록 상기 제 1 렌즈(1121)와 제 1 회절 광학 소자(1131)가 설계된다.In conclusion, the first lens 1121 and the first diffractive optical element 1131 are designed such that the first group is focused on the object at the position corresponding to Z1 during the above arrangement of light points.

또한, 상기와 같은 광 점 배열 중에 제 2 군은 Z2에 해당하는 위치의 물체에 포커싱되도록 상기 제 2 렌즈(1122)와 제 2 회절 광학 소자(1132)가 설계된다.In addition, the second lens 1122 and the second diffractive optical element 1132 are designed so that the second group of the above-described array of light points is focused on an object at a position corresponding to Z2.

또한, 상기와 같은 광 점 배열 중에 제 3 군은 Z3에 해당하는 위치의 물체에 포커싱되도록 상기 제 3 렌즈(1123)와 제 3 회절 광학 소자(1133)가 설계된다.In addition, the third lens 1123 and the third diffractive optical element 1133 are designed so that the third group of the above-described light dot array is focused on the object at the position corresponding to Z3.

한편, 상기와 같은 군의 수는 임의 조합이 가능하다.On the other hand, the number of groups as described above can be any combination.

상기와 같은 방법으로, 여러 군의 발광 소자, 렌즈 및 회절 광학 소자의 조합을 통하여 특정 물체 거리에서 포커싱되어 되돌아오는 광 패턴을 확인함으로써 깊이를 인식할 수 있다.In the above-described method, depth can be recognized by confirming a light pattern that is focused and returned at a specific object distance through a combination of several groups of light emitting elements, lenses, and diffractive optical elements.

따라서, Z1 거리에 있는 물체에 대해서는 상기 제 1 광을 이용하여 IR 근접광 영상을 획득함으로써, 깊이 정보를 획득하도록 하고, Z2 거리에 있는 물체에 대해서는 상기 제 2 광을 이용하여 IR 근접광 영상을 획득함으로써, 깊이 정보를 획득하도록 하고, Z3 거리에 있는 물체에 대해서는 상기 제 3 광을 이용하여 IR 근접광 영상을 획득함으로써, 깊이 정보를 획득하도록 한다.Therefore, for an object at a distance of Z1, the IR proximity light image is acquired by using the first light to obtain depth information, and for an object at a distance of Z2, the IR proximity light image is obtained by using the second light. By acquiring, depth information is obtained, and for an object at a distance of Z3, depth information is acquired by acquiring an IR proximity light image using the third light.

이때, 물체의 거리에 따라 상기 각각의 광에 대한 포커싱 상태가 다르므로, 상기 제 1 내지 3 광의 대한 상태를 확인하여 현재 물체의 거리에 최적화되어 포커싱된 광을 확인하고, 이를 토대로 깊이 정보를 획득할 수 있다. 상기 상태는 에지 검출 방법 등을 통해 화질 상태를 확인함으로써 판단할 수 있다.At this time, since the focusing state for each light is different according to the distance of the object, the state of the first to third lights is checked to determine the focused light optimized for the distance of the current object, and depth information is obtained based on this. can do. The state can be determined by checking the image quality state through an edge detection method or the like.

도 9는 본 발명의 제 2 실시 예에 따른 발광부의 광 분포를 설명하기 위한 도면이다.9 is a view for explaining the light distribution of the light emitting unit according to the second embodiment of the present invention.

제 2 실시 예에 따른 발광부에 의하면, 발광 소자(111), 렌즈(112)가 복수 개로 구성될 수 있으며, 회절 광학 소자(210)는 단일 개로 구성될 수 있다.According to the light emitting unit according to the second embodiment, the light emitting device 111 and the lens 112 may be composed of a plurality, and the diffractive optical element 210 may be configured of a single piece.

이에 따라, 제 1 발광 소자(1111), 제 1 렌즈(1121) 및 회절 광학 소자(210)가 제 1 군을 이루고, 제 2 발광 소자(1112), 제 2 렌즈(1122) 및 회절 광학 소자(210)가 제 2 군을 이루며, 제 3 발광 소자(1113), 제 3 렌즈(1123) 및 회절 광학 소자(210)가 제 3 군을 이룬다.Accordingly, the first light emitting element 1111, the first lens 1121 and the diffractive optical element 210 form a first group, and the second light emitting element 1112, the second lens 1122, and the diffractive optical element ( 210) forms a second group, and the third light emitting element 1113, the third lens 1123, and the diffractive optical element 210 form a third group.

이때, 상기 제 1 군에서 출사되는 제 1 광과, 제 2 군에서 출사되는 제 2 광과, 제 3 군에서 출사되는 제 3 광은 서로 다른 특성을 가진다.At this time, the first light emitted from the first group, the second light emitted from the second group, and the third light emitted from the third group have different characteristics.

다시 말해서, 상기 제 1 발광 소자(1111), 제 2 발광 소자(1112) 및 제 3 발광 소자(1113)는 모두 서로 다른 특성을 가지며, 이로 인해 상기 제 1 내지 3 발광 소자에서는 서로 다른 광이 출사된다. 이때, 상기 특성은 파장(λ)이다.In other words, the first light emitting element 1111, the second light emitting element 1112, and the third light emitting element 1113 all have different characteristics, and thus different light is emitted from the first to third light emitting elements. do. At this time, the characteristic is a wavelength (λ).

즉, 상기 제 1 발광 소자(1111)의 파장은 λ1이고, 상기 제 2 발광 소자(1112)의 파장은 λ2이며, 상기 제 3 발광 소자(1113)의 파장은 λ3이다.That is, the wavelength of the first light emitting element 1111 is λ1, the wavelength of the second light emitting element 1112 is λ2, and the wavelength of the third light emitting element 1113 is λ3.

이에 따라, 제 1 군에 포함된 렌즈 및 회절 광학 소자와, 제2 군에 포함된 렌즈 및 회절 광학 소자와, 제 3 군에 포함된 렌즈 및 회절 광학 소자를 토대로 최종적으로 출사되는 상기 제 1 광과, 제 2 광과 제 3 광이 서로 다른 특성을 가지며 출사된다. 다시 말해서, 상기 제 1 광, 제 2 광 및 제 3 광이 포커싱되는 거리는 서로 다르게 나타난다.Accordingly, the first light finally emitted based on the lenses and diffraction optical elements included in the first group, the lenses and diffraction optical elements included in the second group, and the lenses and diffraction optical elements included in the third group. And, the second light and the third light have different characteristics and are emitted. In other words, the distances at which the first light, the second light and the third light are focused appear differently.

다시 말해서, 상기 제 1 군에서 출사된 제 1 광은 상기 제 1 군과 Z1만큼 떨어진 위치에서 포커싱되고, 상기 제 2 군에서 출사된 제 2 광은 상기 제 2 군과 Z2만큼 떨어진 위치에서 포커싱되며, 상기 제 3 군에서 출사된 제 3 광은 상기 제 3군과 Z3만큼 떨어진 위치에서 포커싱된다. 이때, 상기 Z1, Z2 및 Z3는 모두 다른 위치인 것을 특징으로 한다.In other words, the first light emitted from the first group is focused at a position Z1 away from the first group, and the second light emitted from the second group is focused at a position Z2 away from the second group. , The third light emitted from the third group is focused at a position Z3 away from the third group. At this time, the Z1, Z2 and Z3 are all characterized by different positions.

결론적으로, 상기와 같은 광 점 배열 중에 제 1 군은 Z1에 해당하는 위치의 물체에 포커싱되도록 상기 제 1 발광 소자(1111)가 설계된다.In conclusion, the first light emitting element 1111 is designed such that the first group is focused on the object at the position corresponding to Z1 during the above arrangement of light points.

또한, 상기와 같은 광 점 배열 중에 제 2 군은 Z2에 해당하는 위치의 물체에 포커싱되도록 상기 제 2 발광 소자(1112)가 설계된다.In addition, the second light emitting element 1112 is designed such that the second group is focused on the object at the position corresponding to Z2 during the above arrangement of light points.

또한, 상기와 같은 광 점 배열 중에 제 3 군은 Z3에 해당하는 위치의 물체에 포커싱되도록 상기 제 3 발광 소자(1113)가 설계된다.In addition, the third light emitting element 1113 is designed such that the third group is focused on the object at the position corresponding to Z3 during the above arrangement of light points.

한편, 상기와 같은 군의 수는 임의 조합이 가능하다.On the other hand, the number of groups as described above can be any combination.

이때, 근거리에는 약한 광량이 필요하므로, 상기 발광 소자의 광 점의 수가 적거나, 낮은 파워의 발광 소자를 사용할 수 있으며, 원거리에는 강한 광량이 필요하므로, 상기 발광 소자의 광 점의 수를 많게 하거나, 높은 파워의 발광 소자를 사용할 수도 있다. 또한, 이는 하나의 예시이며, 동일한 개수나 동일한 파워를 가진 발광 소자의 조합도 가능할 것이다.At this time, since a weak light amount is required at a short distance, the number of light points of the light emitting element may be small, or a low power light emitting element may be used, and since a strong light amount is required at a long distance, the number of light points of the light emitting element may be increased. , It is also possible to use a high-power light-emitting element. In addition, this is an example, and a combination of light emitting devices having the same number or the same power may be possible.

상기와 같은 방법으로, 여러 군의 발광 소자, 렌즈 및 회절 광학 소자의 조합을 통하여 특정 물체 거리에서 포커싱되어 되돌아오는 광 패턴을 확인함으로써 깊이를 인식할 수 있다.In the above-described method, depth can be recognized by confirming a light pattern that is focused and returned at a specific object distance through a combination of several groups of light emitting elements, lenses, and diffractive optical elements.

따라서, Z1 거리에 있는 물체에 대해서는 상기 제 1 광을 이용하여 IR 근접광 영상을 획득함으로써, 깊이 정보를 획득하도록 하고, Z2 거리에 있는 물체에 대해서는 상기 제 2 광을 이용하여 IR 근접광 영상을 획득함으로써, 깊이 정보를 획득하도록 하고, Z3 거리에 있는 물체에 대해서는 상기 제 3 광을 이용하여 IR 근접광 영상을 획득함으로써, 깊이 정보를 획득하도록 한다.Therefore, for an object at a distance of Z1, the IR proximity light image is acquired by using the first light to obtain depth information, and for an object at a distance of Z2, the IR proximity light image is obtained by using the second light. By acquiring, depth information is obtained, and for an object at a distance of Z3, depth information is acquired by acquiring an IR proximity light image using the third light.

이때, 물체의 거리에 따라 상기 각각의 광에 대한 포커싱 상태가 다르므로, 상기 제 1 내지 3 광의 대한 상태를 확인하여 현재 물체의 거리에 최적화되어 포커싱된 광을 확인하고, 이를 토대로 깊이 정보를 획득할 수 있다. 상기 상태는 에지 검출 방법 등을 통해 화질 상태를 확인함으로써 판단할 수 있다.At this time, since the focusing state for each light is different according to the distance of the object, the state of the first to third lights is checked to determine the focused light optimized for the distance of the current object, and depth information is obtained based on this. can do. The state can be determined by checking the image quality state through an edge detection method or the like.

도 10은 본 발명의 실시 예에 따른 발광부의 광 분포를 설명하기 위한 도면이다.10 is a view for explaining the light distribution of the light emitting unit according to an embodiment of the present invention.

또한, 도 11은 종래 기술에 따른 카메라에 입사되는 광 점을 나타낸 도면이고, 도 12는 본 발명에 따른 카메라에 입사되는 광 점을 나타낸 도면이다.11 is a view showing a light point incident on the camera according to the prior art, and FIG. 12 is a view showing a light point incident on the camera according to the present invention.

도 10을 참조하면, 발광 소자(111)를 통해 출사되는 광의 방사각은 X축 방향으로 크고, Y축 방향으로 작다. 따라서, 상기 발광 소자(110)를 통해 출사된 광은 X축으로 긴 타원형을 가진다.Referring to FIG. 10, the emission angle of light emitted through the light emitting element 111 is large in the X-axis direction and small in the Y-axis direction. Therefore, the light emitted through the light emitting element 110 has an elliptical shape in the X axis.

또한, 중간의 광소자인 렌즈(112)를 통해 통과한 후의 광 분포는 상기 발광 소자(110)와 동일하게 X축으로 강도가 크게 나타난다. In addition, the light distribution after passing through the lens 112 which is an intermediate optical element has a large intensity in the X axis as in the light emitting element 110.

이때, 상기 회절 광학 소자(113)를 통해 출사되는 광은 상기 발광 소자(111)와 렌즈(112)와는 다르게 Y축으로 강도가 크게 나타난다. 즉, Y축 광 점이 X축보다 길어진다.At this time, the light emitted through the diffractive optical element 113 has a large intensity in the Y axis, unlike the light emitting element 111 and the lens 112. That is, the Y-axis light point is longer than the X-axis.

이러한 광 점이 물체에 맞고 되돌아 상기 수광부(120)에 입사되는데, 일반적으로 수광부(120)의 이미지 센서의 수평 방향과, 상기 발광 소자(111)의 수평 방사각(X축)이 서로 일치하게 배치된다.The light point hits the object and returns to the light receiving unit 120. In general, the horizontal direction of the image sensor of the light receiving unit 120 and the horizontal emission angle (X axis) of the light emitting element 111 are arranged to coincide with each other. .

이때, 이미지 센서의 수평 배치를 상기 발광 소자(111)의 X축 혹은 Y축으로 배치하는 경우, 상기 이미지 센서에 떨어지는 광 점은 한 방향으로 과점되고, 다른 한 방향으로는 적은 픽셀을 점유하게 된다. 이 경우, 광 점이 점유하는 픽셀 수가 낮아져 깊이 정보의 인식률을 떨어뜨리게 된다.At this time, when the horizontal arrangement of the image sensor is arranged on the X-axis or the Y-axis of the light emitting element 111, the light point falling on the image sensor is excessive in one direction and occupies a small number of pixels in the other direction. . In this case, the number of pixels occupied by the light point is lowered, thereby decreasing the recognition rate of depth information.

즉, 도 11에서와 같이, 발광 소자(111)의 X축과 수광부(120, 명확하게는 이미지 센서)의 수평 방향이 일치하는 경우, 상기 광 점은 세로 방향으로 3개의 픽셀에 점유되고, 이와 반대로 상기 발광 소자(111)의 Y축과 수광부(120)의 수평 방향이 일치하는 경우, 상기 광 점은 가로 방향으로 3개의 픽셀에 점유된다.That is, as illustrated in FIG. 11, when the X-axis of the light emitting element 111 and the horizontal direction of the light receiving unit 120 (eg, an image sensor) coincide, the light point is occupied by three pixels in a vertical direction, and Conversely, when the Y-axis of the light-emitting element 111 and the horizontal direction of the light-receiving unit 120 coincide, the light point is occupied by three pixels in the horizontal direction.

따라서, 본 발명에서는 상기 발광 소자(111)를 X축과 Y축의 중간 각도로 회전시킴으로써, 상기 수광부(120)에 점유되는 광 점을 대각으로 만들고, 이에 따라 상기 광 점이 점유하는 센서 픽셀 수를 증가시키도록 한다.Therefore, in the present invention, by rotating the light emitting element 111 at an intermediate angle between the X axis and the Y axis, the light point occupied by the light receiving unit 120 is made diagonal, thereby increasing the number of sensor pixels occupied by the light point. To do.

즉, 도 12에서와 같이, 상기 발광 소자(111)를 X축과 Y축 사이에 존재하는 특정 각도로 회전시키면, 상기 수광부(120)에 점유되는 광 점이 대각으로 변하고 그에 따라, 상기 광 점이 점유하는 픽셀 수도 최소 4개로 증가하게 된다.That is, as shown in FIG. 12, when the light emitting element 111 is rotated at a specific angle existing between the X-axis and the Y-axis, the light point occupied by the light receiving unit 120 changes diagonally, and accordingly, the light point is occupied. The number of pixels to be increased is increased to at least four.

따라서, 상기 광 점이 점유하는 픽셀 수가 증가함으로써, 깊이 인식률을 향상시킬 수 있다.Therefore, the depth recognition rate can be improved by increasing the number of pixels occupied by the light point.

상기와 같은, 본 발명에 따른 실시 예에서는 하나의 카메라를 이용하여 물체의 형태나 색깔 정보의 획득뿐만 아니라, 깊이 정보도 함께 획득함으로써, 부품비용을 절감할 수 있으며, 카메라 간의 조립 오차로 인한 영상 품질 저하 및 보상 알고리즘 적용 등의 문제점을 해결할 수 있다.As described above, in the embodiment according to the present invention, not only the shape or color information of an object is acquired by using one camera, but also depth information can be obtained together, thereby reducing the cost of parts, and image due to assembly error between cameras. Problems such as deterioration of quality and application of compensation algorithms can be solved.

또한, 본 발명에 따른 실시 예에서는 레이저 다이오드를 X축과 Y축의 중간 각도로 회전시켜 이미지 센서에 전달되는 광 점을 대각으로 만들어줌으로써, 상기 이미지 센서에 전달되는 광 점(spot)의 점유 픽셀 수를 증가시켜 깊이 인식률을 향상시킬 수 있다.In addition, in an embodiment according to the present invention, by rotating the laser diode at an intermediate angle between the X-axis and the Y-axis, the light point transmitted to the image sensor is made diagonal, so that the number of pixels occupied by the light spot transmitted to the image sensor By increasing the depth recognition rate can be improved.

또한, 본 발명에 따른 실시 예에서는 복수의 표면 광 레이저 어레이를 적용하여 카메라를 구성하고, 상기 각각의 표면 광 레이저가 가지는 포커싱 거리를 서로 다르게 적용함으로써, 물체와의 거리에 따라 최적화된 표면 광 레이저를 이용하여 용이하게 깊이 정보를 획득할 수 있다.In addition, in an embodiment according to the present invention, a plurality of surface light laser arrays are applied to configure a camera, and by applying different focusing distances of the respective surface light lasers, the surface light laser optimized according to the distance to the object Depth information can be easily obtained by using.

도 13은 본 발명의 실시 예에 따른 영상 획득 장치의 영상 획득 방법을 단계별로 설명하기 위한 흐름도이다.13 is a flow chart for explaining step-by-step the image acquisition method of the image acquisition device according to an embodiment of the present invention.

도 13을 참조하면, 먼저 발광부(110)는 복수의 근접광을 방사한다(101단계). 이때, 상기 방사되는 복수의 구조광은 모두 서로 다른 특성을 가진다. 다시 말해서, 상기 발광부(110)는 서로 다른 위치에서 포커싱되는 복수의 광을 방사한다.Referring to FIG. 13, first, the light emitting unit 110 emits a plurality of proximity lights (step 101). At this time, all of the emitted structural light have different characteristics. In other words, the light emitting unit 110 emits a plurality of lights focused at different positions.

이후, 수광부(120)는 상기 방사되는 복수의 근접광을 수신한다(102단계).Thereafter, the light receiving unit 120 receives the emitted plurality of proximity lights (step 102).

다음으로, 수광부(120)는 상기 수신된 복수의 근접광 각각에 대한 RGB 영상과, IR 근접광 영상을 획득하고 이를 전달한다. 그러면, 영상 처리부(130)는 상기 각각의 근접광에 대응하여 획득된 영상을 이용하여, 물체와의 거리에서 포커싱된 근접광을 선택하고, 이를 토대로 이에 대응하는 영상을 이용하여 입체 영상을 생성한다(103단계).Next, the light receiving unit 120 acquires and transmits an RGB image and an IR proximity light image for each of the received plurality of proximity lights. Then, the image processing unit 130 uses the images obtained in correspondence to the respective proximity lights, selects the proximity lights focused at a distance from the object, and based on this, generates a stereoscopic image using the corresponding images (Step 103).

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. In addition, various modifications can be implemented by those having ordinary knowledge in the course, and these modifications should not be individually understood from the technical idea or prospect of the present invention.

110: 발광부
111: 발광소자 112: 렌즈 113: 회절 광학 소자
120: 수광부
130: 영상 처리부
140: 인터페이스부
110: light emitting unit
111: light emitting element 112: lens 113: diffraction optical element
120: light receiving unit
130: image processing unit
140: interface

Claims (9)

물체에 복수의 광을 출사하는 발광부; 및
상기 발광부를 통해 출사된 복수의 광 중 어느 하나를 이용하여 컬러 영상 및 깊이 정보를 획득하는 수광부를 포함하며,
상기 발광부는, 복수의 광을 출사하고,
복수의 발광 소자로 구성되는 표면 광 레이저(Vcsel)와, 상기 복수의 발광 소자를 통해 방사된 광을 각각 회절시키는 회절 광학 소자를 포함하고,
상기 회절 광학 소자는, 상기 복수의 발광 소자에 대응되게 복수 개로 구성되어, 해당 발광 소자를 통해 방사된 광이 서로 다른 위치에서 포커싱되도록 하는,
영상 획득 장치.
A light emitting unit that emits a plurality of light to the object; And
It includes a light receiving unit for obtaining a color image and depth information using any one of a plurality of light emitted through the light emitting unit,
The light emitting unit emits a plurality of light,
And a surface light laser (Vcsel) composed of a plurality of light emitting elements, and a diffraction optical element that diffracts light emitted through the plurality of light emitting elements, respectively.
The diffraction optical element is composed of a plurality of pieces corresponding to the plurality of light emitting elements, so that light emitted through the light emitting element is focused at different positions,
Image acquisition device.
삭제delete 삭제delete 제 1항에 있어서,
상기 복수의 발광 소자 각각은,
서로 다른 파장을 가지는 광을 발생시키며,
상기 서로 다른 파장을 가지는 광이 발생함에 따라 상기 회절 광학 소자를 통해 회절된 광은 서로 다른 위치에서 포커싱되는
영상 획득 장치.
According to claim 1,
Each of the plurality of light emitting elements,
Generating light having different wavelengths,
As the light having the different wavelengths is generated, light diffracted through the diffraction optical element is focused at different positions.
Image acquisition device.
제 1항에 있어서,
상기 표면 광 레이저는,
X축과 Y축의 중간 지점에 있는 특정 각도로 회전된 상태에서 상기 광을 발생시키는
영상 획득 장치.
According to claim 1,
The surface light laser,
The light is generated while rotated at a specific angle between the X-axis and the Y-axis.
Image acquisition device.
제 1항에 있어서,
상기 수광부는,
R, G, B 및 IR 픽셀을 가지는 센서를 포함하는
영상 획득 장치.
According to claim 1,
The light receiving unit,
Including sensors with R, G, B and IR pixels
Image acquisition device.
서로 다른 위치에서 포커싱되는 복수의 광을 발생시키는 단계; 및
상기 발생된 복수의 광 중 어느 하나를 이용하여 컬러 영상 및 깊이 정보를 획득하는 단계를 포함하며,
상기 복수의 광을 발생시키는 단계는
복수의 발광 소자로 구성되는 표면 광 레이저(Vcsel)가 복수의 광을 출사하는 단계; 상기 복수의 발광소자를 통해 방사된 광 각각이 서로 다른 위치에 포커싱 되도록 회절 광학 소자를 통과시켜 회절시키는 단계;를 포함하고
상기 회절 광학 소자는 상기 복수의 발광 소자에 대응되게 복수 개로 구성되고,상기 획득하는 단계는,
상기 복수의 광 중 대상 물체에서 포커싱되는 광을 이용하여 상기 컬러 영상 및 깊이 정보를 획득하는 단계를 포함하는
영상 획득 장치의 영상 획득 방법.
Generating a plurality of lights that are focused at different positions; And
And obtaining color image and depth information using any one of the generated plurality of lights,
The step of generating the plurality of light
A surface light laser (Vcsel) composed of a plurality of light emitting elements emitting a plurality of lights; And diffracting by passing through the diffractive optical element so that each of the light emitted through the plurality of light emitting elements is focused at a different location.
The diffractive optical element is composed of a plurality of corresponding to the plurality of light emitting elements, the obtaining step,
And acquiring the color image and depth information using light focused from a target object among the plurality of lights.
Image acquisition method of the image acquisition device.
제 7항에 있어서,
상기 복수의 광을 발생시키는 단계는
상기 복수의 발광 소자로 구성되는 표면 광 레이저(Vcsel)에서 동일한 특성의 광을 발생시키는 단계와,
상기 발생한 복수의 광이 서로 다른 위치에서 포커싱되도록 서로 다른 조건 내에서 상기 복수의 광을 각각 회절시키는 단계를 포함하는
영상 획득 장치의 영상 획득 방법.
The method of claim 7,
The step of generating the plurality of light
Generating light having the same characteristics in a surface light laser (Vcsel) composed of the plurality of light emitting elements;
Diffracting each of the plurality of lights within different conditions so that the generated plurality of lights are focused at different positions.
Image acquisition method of the image acquisition device.
제 7항에 있어서,
상기 복수의 광을 발생시키는 단계는
상기 복수의 발광 소자로 구성되는 표면 광 레이저(Vcsel)에서 서로 다른 파장을 가지는 광을 발생시키는 단계를 포함하는
영상 획득 장치의 영상 획득 방법.
The method of claim 7,
The step of generating the plurality of light
And generating light having different wavelengths from the surface light laser (Vcsel) composed of the plurality of light emitting elements.
Image acquisition method of the image acquisition device.
KR1020130051013A 2013-05-07 2013-05-07 Device and method of obtaining image KR102094214B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130051013A KR102094214B1 (en) 2013-05-07 2013-05-07 Device and method of obtaining image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130051013A KR102094214B1 (en) 2013-05-07 2013-05-07 Device and method of obtaining image

Publications (2)

Publication Number Publication Date
KR20140132044A KR20140132044A (en) 2014-11-17
KR102094214B1 true KR102094214B1 (en) 2020-03-27

Family

ID=52453173

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130051013A KR102094214B1 (en) 2013-05-07 2013-05-07 Device and method of obtaining image

Country Status (1)

Country Link
KR (1) KR102094214B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3522732B2 (en) * 1998-05-25 2004-04-26 松下電器産業株式会社 camera

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130027671A (en) * 2011-09-08 2013-03-18 한국전자통신연구원 Apparatus for obtaining depth information and system for obtaining 3-dimensional information comprising the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3522732B2 (en) * 1998-05-25 2004-04-26 松下電器産業株式会社 camera

Also Published As

Publication number Publication date
KR20140132044A (en) 2014-11-17

Similar Documents

Publication Publication Date Title
US11483503B2 (en) Three-dimensional sensor including bandpass filter having multiple passbands
US9781318B2 (en) Camera for measuring depth image and method of measuring depth image using the same
CN106997603B (en) Depth camera based on VCSEL array light source
US10349037B2 (en) Structured-stereo imaging assembly including separate imagers for different wavelengths
US10041787B2 (en) Object detection device
US7646419B2 (en) Multiband camera system
EP3896489A1 (en) Hybrid sensor system and method for providing 3d imaging
US9599463B2 (en) Object detection device
US10408922B2 (en) Optoelectronic module with low- and high-power illumination modes
US20170227352A1 (en) Chromatic confocal sensor and measurement method
US10151629B2 (en) Spectral imaging sensors and methods with time of flight sensing
CN104935790A (en) Imaging system
US8547531B2 (en) Imaging device
JP7389578B2 (en) Distance sensor
US20140132956A1 (en) Object detecting device and information acquiring device
KR102094214B1 (en) Device and method of obtaining image
EP3226024A1 (en) Optical 3-dimensional sensing system and method of operation
KR102135372B1 (en) Structured light system
US11920920B2 (en) Projector for diffuse illumination and structured light
US20170153107A1 (en) Optoelectronic device including event-driven photo-array and method for operating the same
US11223816B2 (en) Multi-image projector and electronic device having multi-image projector
JP2020060377A (en) Multi-image projector and electronic device having multi-image projector
EP3637044B1 (en) Multi-image projector and electronic device having the multi-image projector
EP3958055A1 (en) Interchangeable lens, information processing device, information processing method, and program
WO2023041761A1 (en) Emitter array with two or more independently driven areas

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant