KR101401395B1 - Photosensor for measuring surface and measuring method of 3D depth and surface using thereof - Google Patents

Photosensor for measuring surface and measuring method of 3D depth and surface using thereof Download PDF

Info

Publication number
KR101401395B1
KR101401395B1 KR1020120012362A KR20120012362A KR101401395B1 KR 101401395 B1 KR101401395 B1 KR 101401395B1 KR 1020120012362 A KR1020120012362 A KR 1020120012362A KR 20120012362 A KR20120012362 A KR 20120012362A KR 101401395 B1 KR101401395 B1 KR 101401395B1
Authority
KR
South Korea
Prior art keywords
image
light
illumination
measuring
images
Prior art date
Application number
KR1020120012362A
Other languages
Korean (ko)
Other versions
KR20130091094A (en
Inventor
엄두간
류동석
갈명준
Original Assignee
엄두간
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엄두간 filed Critical 엄두간
Priority to KR1020120012362A priority Critical patent/KR101401395B1/en
Publication of KR20130091094A publication Critical patent/KR20130091094A/en
Application granted granted Critical
Publication of KR101401395B1 publication Critical patent/KR101401395B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F22STEAM GENERATION
    • F22BMETHODS OF STEAM GENERATION; STEAM BOILERS
    • F22B37/00Component parts or details of steam boilers
    • F22B37/02Component parts or details of steam boilers applicable to more than one kind or type of steam boiler
    • F22B37/48Devices for removing water, salt, or sludge from boilers; Arrangements of cleaning apparatus in boilers; Combinations thereof with boilers
    • F22B37/54De-sludging or blow-down devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F22STEAM GENERATION
    • F22BMETHODS OF STEAM GENERATION; STEAM BOILERS
    • F22B37/00Component parts or details of steam boilers
    • F22B37/02Component parts or details of steam boilers applicable to more than one kind or type of steam boiler
    • F22B37/48Devices for removing water, salt, or sludge from boilers; Arrangements of cleaning apparatus in boilers; Combinations thereof with boilers
    • F22B37/486Devices for removing water, salt, or sludge from boilers
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F28HEAT EXCHANGE IN GENERAL
    • F28GCLEANING OF INTERNAL OR EXTERNAL SURFACES OF HEAT-EXCHANGE OR HEAT-TRANSFER CONDUITS, e.g. WATER TUBES OR BOILERS
    • F28G7/00Cleaning by vibration or pressure waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Thermal Sciences (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 감지영역 내에 복수의 측정광을 조사하여 측정 대상 물체를 감지함에 있어서, 각 측정광이 측정물체에 반사되어 돌아온 광량의 비를 분석하여 물체와 측정기와의 거리를 측정하는 경우의 측정광의 특성상 측정이 되지 않는 영역인 특이성을 제거하는 방법에 관한 것이다. 본 발명의 일 실시예에 따른 물체표면거리센서는, 서로 다른 특성의 측정광을 감지영역에 조사하는 복수개의 조명부(100); 감지영역에 대한 이미지를 획득하는 촬상소자(200); 촬상소자로 획득된 이미지 및 이미지들을 영상처리하여 그 결과 이미지를 저장하는 메모리부(300); 조명부의 측정광을 조사하는 발광시간과 촬상소자의 촬영시간을 조절하는 노출제어부(410)와, 조명부의 측정광이 측정대상물체에 반사되어 돌아온 복수개의 이미지로 부터 외부발광체에 의한 외란을 제거하고 특정 조명부의 효과만을 분리하여 개별 이미지로 추출하는 영상처리부(420), 및 각 개별 이미지의 각 픽셀의 광량을 비교하여 이를 측정대상물체의 해당위치를 환산하며, 필요에 따라 각 픽셀의 값을 종합 분석하여 측정대상물체의 표면거리를 추출하는 3차원 형상복원부(430)으로 구성된 제어부(400);를 포함한다.  The present invention relates to a method and apparatus for measuring a distance between an object and a measuring instrument by analyzing a ratio of the amount of light returned by reflecting each measuring light to a measuring object by irradiating a plurality of measuring lights within the sensing area, And a method for removing specificity, which is a region that can not be measured due to its characteristics. An object surface distance sensor according to an embodiment of the present invention includes a plurality of illumination units 100 for irradiating measurement light of different characteristics to a sensing region; An imaging device (200) for acquiring an image of a sensing area; A memory unit 300 for image processing images and images obtained by the image pickup device and storing the resultant images; An exposure control unit 410 for adjusting the light emission time for irradiating the measurement light of the illumination unit and the image pickup time of the image pickup device and the disturbance due to the external light emission from the plurality of images returned by the measurement light of the illumination unit An image processing unit 420 for separating only the effect of the specific illumination unit and extracting an individual image, and comparing the light amount of each pixel of each individual image, converting the light amount into a corresponding position of the measurement object, And a 3D shape restoring unit 430 for analyzing and extracting the surface distance of the object to be measured.

Description

표면각도 측정 광센서 및 이를 이용한 표면각도 및 형상정보 감지방법{Photosensor for measuring surface and measuring method of 3D depth and surface using thereof}TECHNICAL FIELD [0001] The present invention relates to an optical sensor for measuring surface angle and a method for sensing surface angle and shape information using the same,

본 발명은 거리를 측정하는 광센서 및 이를 이용한 감지 방법에 관한 것으로, 더 상세하게는, 감지영역 내에 복수의 측정광을 조사하여 측정 대상 물체를 감지함에 있어서, 각 측정광이 측정물체에 반사되어 돌아온 이미지를 획득하고, 서로 다른 조명에 의해 감지된 대상물체의 이미지를 비교하되, 상기 이미지들의 각 픽셀에 해당하는 대상물체의 측정점에 대하여 광량의 비를 이용함으로써, 측정점에 대한 거리를 도출하는 센서 및 복수개의 측정점에 대한 거리를 분석하여 측정대상물체의 표면형상을 복원하여 추출하는 방법에 있어 서로 다른 조명에 의한 조사광량이 동일하게 분포되는 영역으로 인해 발생하는 특이현상을 제거하는 방법에 관한 것이다.The present invention relates to an optical sensor for measuring a distance and a sensing method using the same. More particularly, the present invention relates to an optical sensor for measuring a distance by irradiating a plurality of measurement lights within a sensing area, A sensor for deriving a distance to the measurement point by using the ratio of the amount of light to the measurement point of the object corresponding to each pixel of the images by comparing the images of the object detected by the different illuminations, And a method for extracting a surface shape of an object to be measured by analyzing a distance to a plurality of measurement points to remove a specific phenomenon caused by an area in which irradiation light amounts by the different illumination are equally distributed .

일반적으로 근거리에 있는 물체 또는 장애물을 측정하기 위한 방법으로써, 감지영역에 측정광을 조사하고 반사광을 측정함으로써 감지영역 내 물체 또는 장애물의 유무를 측정하는 센서가 산업현장에서 널리 사용되고 있다. Generally, as a method for measuring an object or an obstacle at a short distance, a sensor for measuring the presence or absence of an object or an obstacle in the sensing area by irradiating measurement light to the sensing area and measuring reflected light is widely used in the industrial field.

최근에는 이미지 촬상소자를 이용하여 측정광 이미지를 획득함으로써, 서로 상이한 조명광을 이용하여 측정된 광량의 비(상비)를 계산함으로써 측정영역내의 물체의 존재여부 뿐만 아니라 각 픽셀로부터 측정물체까지의 거리를 계산하여 대상물체의 표면형상을 도출하는 기술이 개발되었다. In recent years, by obtaining the measurement light image using the image pickup device, the ratio of the amount of light measured by using different illumination lights is calculated so that the distance from each pixel to the measurement object is determined not only by the presence of the object in the measurement area A technique has been developed to calculate the surface shape of the object.

그러나 종래 기술에 있어서, 상비율에 의한 거리측정시에 2개의 상이한 조명을 대상물체에 조사하더라도 동일한 광량이 분포하는 영역이 존재함으로 인해 측정광량으로 인한 이미지에 변화가 없는 경우가 발생하게 된다. 이러한 경우, 동일한 측정값으로 인해 상비가 ‘1’이 됨으로써 이를 거리 측정에 이용할 경우 측정이 불가능한 영역이 존재하게 되는데 이를 상비율에 의한 거리측정시의 특이성이라 정의한다. 예를 들면, 도 1에서 도시한 바와 같이, 측정광이 대상물체의 표면에서 조사될 경우 난반사되는 광량이 일치함으로 인해 거리측정의 특이성이 그림과 같이 발생하게 되는데 이를 특이성 곡선(10)이라 정의한다.However, according to the related art, even when two different lights are irradiated to a target object at the time of measuring the distance by the phase ratio, there is a case where there is no change in the image due to the measured light amount because the same light amount is distributed. In this case, when the distance is measured using the same measurement value, the ratio is set to '1'. In this case, there is an area that can not be measured. This is defined as the specificity in the distance measurement by the phase ratio. For example, as shown in FIG. 1, when the measurement light is irradiated from the surface of the object, diffracted light amounts are coincident with each other, so that the specificity of the distance measurement occurs as shown in the figure. This is defined as the specificity curve 10 .

특이성 곡선(10)은 일반적으로 거리에 따라 측정카메라로 부터 멀어지는 특성을 띄게 되는데, 이러한 특성을 반대로 이용하면 조사광의 위치를 적절히 조절하여 특이성곡선을 카메라의 유효 시각밖으로 발생하도록 설정할 수가 있다. 이를 위해서는 2개의 상이한 조명이 카메라를 기준으로 좌측이나 우측중 한쪽으로만 존재하도록 설치가 되어야 하는데 이로인해 조명이 설치되지 않은 쪽은 광량부족으로 인해 거리측정이 불가능하게 된다. The specificity curve 10 generally has a characteristic of moving away from the measurement camera depending on the distance. If this characteristic is reversed, it is possible to appropriately adjust the position of the irradiation light so that the specificity curve is generated outside the effective viewing angle of the camera. To do this, two different lights must be installed on either the left or the right side of the camera, which makes it impossible to measure the distance due to lack of light.

이를 보정하기 위해 카메라를 기준으로 양쪽에 상이한 조명이 설치되어야 하는데 도 1과 같이 4개의 LED(30) 조명을 사용함으로써 이 문제를 해결할 수 있다. 즉, 카메라(40)의 좌측에 있는 2개의 LED(30) 조명으로 좌반구에 있는 물체에 대한 거리를 측정할 수 있고 우측에 있는 2개의 LED(30) 조명으로 우반구에 있는 물체에 대한 거리를 측정할 수 있다. In order to compensate for this, different illuminations must be installed on both sides of the camera. This problem can be solved by using four LEDs 30 illumination as shown in FIG. That is, the distance to the object in the left hemisphere can be measured by the illumination of the two LEDs 30 on the left side of the camera 40, and the distance to the object in the right hemisphere is measured with the illumination of the two LEDs 30 on the right side can do.

미국특허 제 6,219,461호U.S. Patent No. 6,219,461 미국특허 제 4,873,651호U.S. Patent No. 4,873,651

일반적으로 근거리에 있는 물체 또는 장애물을 측정하기 위한 방법으로써, 감지영역에 측정광을 조사하고 반사광을 카메라로 측정함으로써 감지영역 내 물체 또는 장애물의 유무를 측정하는 3차원 거리 측정 센서가 개발되어 사용되고 있다. 이 때 물체의 재질이나 형상에 의한 난반사와 전반사로 인한 3차원 거리 측정의 오차를 줄이기 위해 2개 또는 그 이상의 조명을 사용하여 각각의 조명에 따른 반사 이미지를 카메라로 측정하고 획득된 이미지를 이용한 상비를 계산함으로써 물체와의 거리와 상비간의 단사함수를 얻을 수 있다. 즉, 카메라의 각각의 픽셀을 x 와 y 좌표로 표시할 경우, 카메라와 물체와의 거리를 나타내는 변수 D는 다음과 같이 표현될 수 있다. Generally, a three-dimensional distance measuring sensor has been developed and used as a method for measuring an object or an obstacle at a close distance, which measures the presence or absence of an object or an obstacle in the sensing area by irradiating the sensing area with measurement light and measuring the reflected light with a camera . In this case, in order to reduce the error of the three-dimensional distance measurement due to diffuse reflection and total reflection due to the material and shape of the object, two or more lights are used to measure the reflection image according to each illumination with the camera, , It is possible to obtain a single function between the distance to the object and the constant ratio. That is, when each pixel of the camera is represented by x and y coordinates, the variable D representing the distance between the camera and the object can be expressed as follows.

Figure 112012009947220-pat00001
Figure 112012009947220-pat00001

여기서 K는 물체와 표면재질과 각도에 의한 난반사와 전반사 특성치이고 I는 조사된 광, 그리고 R 은 물체와 카메라와의 거리이다. 이 때 측정된 반사광으로 부터 대상물체의 특성에 의존하는 난반사와 전반사특성을 제거하기 위해 2개의 서로 상이한 조사광을 사용할 경우, 각각의 조사광에 대해 다음의 [수학식 2] 및 [수학식 3]과 같이 2개의 식을 얻게 된다.Where K is the diffuse reflection and total reflection property of the object and the surface material and angle, I is the irradiated light, and R is the distance between the object and the camera. When two different irradiation lights are used to remove the diffuse reflection and total reflection characteristics depending on the characteristic of the object from the measured reflected light at this time, the following Equation 2 and Equation 3 are applied to each irradiation light, ] Are obtained.

Figure 112012009947220-pat00002
Figure 112012009947220-pat00002

Figure 112012009947220-pat00003
Figure 112012009947220-pat00003

[수학식 2] 및 [수학식 3]을 사용하여 2개의 서로 다른 조사광에 대한 측정광의 비를 구하면 아래와 같다. 즉,The ratio of the measurement light for two different irradiation lights can be obtained by using [Equation 2] and [Equation 3] as follows. In other words,

Figure 112012009947220-pat00004
Figure 112012009947220-pat00004

위의 식에서 알 수 있듯이 카메라의 각각의 픽셀에 대한 물체까지의 거리의 비는 조사된 광량의 비의 함수가 되며 물체의 표면 재질이나 형상에 의한 난반사와 전반사에 의한 영향을 배제할 수 있게 된다. As can be seen from the above equation, the ratio of the distance to the object with respect to each pixel of the camera is a function of the ratio of the irradiated light amount, and it is possible to exclude the influence of diffuse reflection and total reflection due to the surface material or shape of the object.

그러나 서로 상이한 2개의 조사광을 측정광으로 사용할 경우, 공통의 측정 영역이 설정된 경우 2개의 광량이 서로 일치하는 영역이 생기게 되며 이러한 영역에서는 상비가 ‘1’이 됨으로 인해 대상물체와의 거리가 측정되는 않는 경우가 발생하게 되는데 이러한 영역을 특이영역이라 정의한다. 도 2를 참조하면, 2개의 서로 다른 광량을 이용한 상비에 의한 거리측정을 함에 있어 첫번째 조명(L1)의 위치를 a1,b1,c1로 표시하고 두번째 조명(L2)의 위치를 a2,b2,c2로 표시하며 3차원 공간상의 임의의 점의 좌표를 x, y, z로 표시했을 때, x, y, z 에서의 측정광의 밝기(D(x,y,z))는 조명의 광량(I(x,y,z))의 함수로 아래와 같이 표현된다.However, when two different irradiation lights are used as the measurement light, a region where two light amounts coincide with each other is generated when a common measurement region is set. In this region, the distance from the object is measured This region is defined as a specific region. 2, the position of the first illumination L1 is represented by a1, b1, c1 and the position of the second illumination L2 is represented by a2, b2, c2 (X, y, z) of the measurement light at x, y and z is represented by x, y, z, and the coordinates of an arbitrary point on the three- x, y, z)) as follows.

Figure 112012009947220-pat00005
Figure 112012009947220-pat00005

이때 측정광 D1과 D2의 비율은 아래와 같다.The ratio of the measurement light D1 to the measurement light D2 is as follows.

Figure 112012009947220-pat00006
Figure 112012009947220-pat00006

여기서 도 2를 참조하여 측정광 D1과 D2의 비율이 1이 되는 공간상의 위치를 구하기 위하여 공간상의 임의의 점을 x, y, z로 정의하고 그 점으로부터 2개의 측정광까지의 거리를 동일하게 두면,Referring to FIG. 2, an arbitrary point in space is defined as x, y, and z in order to obtain a position on the space where the ratio of the measurement light D1 and the measurement light D2 is 1, and distances from the point to the two measurement lights are equal If you leave,

Figure 112012009947220-pat00007
Figure 112012009947220-pat00007

위식을 정리하면 아래와 같은 평면식을 구할 수 있다. 즉,If we summarize the gastroparesis, we can obtain the following flat expression. In other words,

Figure 112012009947220-pat00008
Figure 112012009947220-pat00008

즉 2개의 서로 같은 특성을 나타내는 측정광을 이용하여 상비를 이용한 3차원 거리를 측정하려고 할 때 상기의 식에 의해 특이성을 나타내는 평면이 존재하게 되는데, 이러한 특이 평면에서는 상비가 항상 1 이 되므로 상비를 이용한 거리 측정이 불가능하다. 또한 특이 평면은 센서의 크기 제약으로 인해 카메라의 항상 렌즈 시계(Field of View) 내부에 위치함으로 인해 3차원 형상 복원에 많은 제약이 따르게 된다.In other words, when measuring the three-dimensional distance using the constant ratio using measurement light having two identical characteristics, there exists a plane showing the specificity by the above equation. In such a specific plane, since the constant ratio is always 1, The distance measurement can not be used. In addition, due to the limitation of the size of the specific plane, it is always located inside the field of view of the camera.

그러나 2개의 서로 다른 특성을 나타내는 측정광을 사용하면 특이 평면의 형상을 변형하여 특이면이 렌즈 시계에 포함되지 않도록 할 수 있게 되는데, 이를 위하여 서로 다른 특성을 갖는 측정광 D1과 D2의 비율이 1이 되는 공간상의 위치를 구하기 위해 상기 수학식 7을 다음과 같이 변형할 수 있다.However, by using the measurement light having two different characteristics, it is possible to prevent the specific surface from being included in the lens clock by modifying the shape of the specific plane. To this end, the ratio of the measurement light D1 and the measurement light D2, The above equation (7) can be modified as follows.

Figure 112012009947220-pat00009
Figure 112012009947220-pat00009

즉 식 좌측의 측정광 특성은 구면을 나타내고 식 우측의 측정광 특성은 변형된 구면, 즉 타원구면 형태의 특성을 나타낸다.That is, the measurement light characteristic on the left side of the equation shows the spherical surface and the measurement light characteristic on the right side shows the characteristic of the deformed spherical surface, that is, the shape of the elliptic spherical surface.

위 식을 정리해 보면,In summary,

Figure 112012009947220-pat00010
Figure 112012009947220-pat00010

즉, 2개의 서로 다른 특성을 나타내는 광량을 사용하여 상비를 이용한 3차원 거리측정 시에 상기의 식에 의해 특이성을 나타내는 구면이 존재하게 되는데, 이러한 특이 구면이 카메라의 렌즈 시계에 포함되지 않도록 측정광과 카메라의 상대 위치를 조정함으로써 특이성이 제거된 이미지를 획득할 수 있다. 도 1에서 보이는 바와같이 카메라 좌측과 우측에 서로 다른 특성을 갖는 측정광을 설치하면 상기 수학식 10에 의해 형성되는 특이 구면이 렌즈 시계로부터 벗어나도록 3차원 센서를 구성하고 제작할 수 있다.In other words, a spherical surface exhibiting specificity is present by the above equation when three-dimensional distance measurement using an aspect ratio is performed using light quantities representing two different characteristics. In order to prevent such a spherical surface from being included in a lens clock of a camera, And the relative position of the camera can be adjusted to obtain an image in which the specificity is removed. As shown in FIG. 1, when a measurement light having different characteristics is installed on the left and right sides of the camera, a three-dimensional sensor can be constructed and manufactured such that the specific spherical surface formed by Equation (10) deviates from the lens clock.

전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 3차원 거리를 측정하는 광센서는, 다른 위치 또는 각도로 장착되어 감지영역에 서로 다른 특성의 측정광을 조사하는 복수개의 조명부(100); 감지영역에 대한 이미지를 획득하는 촬상소자(200); 촬상소자로 획득된 이미지 및 다양한 영상처리가 적용된 결과 이미지를 저장하는 메모리부(300); 조명부의 측정광을 조사하는 발광시간과 촬상소자의 촬영시간을 조절하는 노출제어부(410), 조명부의 측정광이 측정대상물체에 반사되어 돌아온 복수개의 이미지로 부터 외부발광체에 의한 외란을 제거하고 특정 조명부의 효과만을 분리하여 개별측광이미지로 추출하는 영상처리부(420), 및 각 개별측광이미지의 각 픽셀의 광량을 비교하여 이를 측정대상물체의 3차원 상의 거리를 환산하며, 특이성이 제거된 2개의 이미지를 합성하여 단일 3차원 이미지를 재생하는 3차원 형상 복원부(430)로 구성된, 제어부(400);를 포함한다. According to an embodiment of the present invention, there is provided an optical sensor for measuring a three-dimensional distance, including a plurality of illumination units 100 mounted at different positions or angles to irradiate measurement light of different characteristics to a sensing region, ; An imaging device (200) for acquiring an image of a sensing area; A memory unit 300 for storing an image obtained by the imaging device and a resultant image to which various image processing is applied; An exposure control unit 410 for adjusting the light emission time for irradiating the measurement light of the illumination unit and the image pickup time of the image pickup device, the disturbance caused by the external light emitter is removed from the plurality of images returned by the measurement light of the illumination unit, An image processing unit 420 for separating only the effect of the illuminating unit and extracting an individual light metering image, and an image processing unit 420 for comparing the light amount of each pixel of each individual metering image, converting the light amount of the respective light metering images into three- And a three-dimensional shape reconstruction unit 430 for compositing the images to reproduce a single three-dimensional image.

조명부(100)는 다양한 파장을 갖는 빛을 방출할 수 있는 백열등, 형광등, 할로겐램프, LED, 레이져조명 등 모든 종류의 조명장치를 단독 또는 복합으로 구성하여 사용할 수 있다. The illuminating unit 100 may use any or all of various types of lighting devices such as an incandescent lamp, a fluorescent lamp, a halogen lamp, an LED, and a laser illuminator capable of emitting light having various wavelengths.

촬상소자(200)는 CCD, CMOS, 등등 다양한 빛의 파장에 감응하는 모든 종류의 이미지 촬영소자로 구성할 수 있다. The image pickup device 200 can be configured as any type of image pickup device sensitive to various wavelengths of light such as CCD, CMOS, and the like.

본 발명의 일 실시예에 따른 표면각도 측정 광센서를 이용한 감지 방법은,A sensing method using a surface angle measuring optical sensor according to an embodiment of the present invention includes:

(a) 서로 다른 특성의 측정광을 조사하는 복수개의 조명부(100)를 순차적으로 구동하여 서로 다른 조광상태에서 이미지를 획득하도록 하는데, 먼저 제1조명부에서 측정광을 조사하도록 제어한 상태에서 촬상소자(200)를 노출하여 감지영역 내의 제1조명측광이미지(image with 1st light)를 획득하고, 이어서, 제2조명부에서 측정광을 조사하도록 제어한 상태에서 촬상소자(200)를 노출하여 감지영역 내의 제2조명측광이미지(image with 2nd light)를 획득하고, 측정광을 조사하지않도록 제어한 상태에서 촬상소자(200)를 노출하여 감지영역 내의 제3조명측광이미지(image without light)를 측정하는 단계를 포함한다. (a) a plurality of illumination units 100 for irradiating measurement light of different characteristics are sequentially driven to acquire an image under different light control conditions. First, in a state in which the first illumination unit is controlled to irradiate measurement light, (200) is exposed to obtain a first illumination light image (image with 1st light) in the sensing area, and then the imaging element (200) is exposed in the state of controlling to irradiate measurement light in the second illumination part Measuring a third illumination light image within the sensing area by exposing the imaging element (200) while obtaining a second illumination light metering image (image with 2nd light) and controlling the measurement light not to be irradiated .

(b), (a)단계에서 획득된 복수개의 제n조명발광이미지(image with nth light)들을 비교연산 처리하여, 차영상(difference images) 또는 비영상(ratio image)들을 추출하는 단계; (c) 측정물체의 재질, 거리 등의 특성을 조명반사모델에 대입하여 차영상 또는 비영상의 각 픽셀에 저장된 광량차 또는 광량비를 대상물체의 측정점에 대한 거리로 환산하는 단계: (d) 특이성이 제거된 복수개의 이미지를 합성하여 단일의 3차원 이미지를 재생하는 단계를 포함한다. (b) extracting difference images or ratio images by performing a comparison operation process on a plurality of nth illuminated light images obtained in step (a); (c) converting the light quantity difference or the light quantity ratio stored in each pixel of the difference image or the non-image into a distance to a measurement point of the object by substituting the characteristics of the object, the distance, And synthesizing a plurality of images from which the specificity is removed to reproduce a single three-dimensional image.

(a)단계에서, 모든 조명부에서 측정광을 조사하지 않도록 제어한 상태에서 촬상소자를 노출하여 감지영역 내의 외부광 이미지(ambient light image)를 획득하는 단계를 더 포함할 수 있다.In the step (a), the method may further include the step of acquiring an ambient light image in the sensing area by exposing the imaging element in a state in which the illumination light is not irradiated to all the illumination parts.

(b)단계에서, 획득한 이미지들을 비교 연산처리 함에 있어서, 외부광의 효과를 보다 정밀하게 상쇄하기 위하여 조명부의 측정광을 조사하지 않은 상태에서 획득한 외부광 이미지를 포함하여, 차영상 또는 비영상을 추출하는 단계를 더 포함할 수 있다.In the step (b), in the comparative calculation processing of the acquired images, in order to more precisely cancel the effect of the external light, the external light image obtained in a state in which the measurement light of the illumination unit is not irradiated, And a step of extracting the image data.

(c) 단계는, 필요에 따라 각 픽셀에 해당하는 측정점의 표면각도를 종합하여 표면형상정보를 도출하는 단계를 더 포함할 수 있다.The step (c) may further include the step of deriving the surface shape information by synthesizing the surface angles of the measurement points corresponding to each pixel as necessary.

(d) 단계는, 복수개의 이미지를 조합함에 있어 미세한 오프셋을 조정하여 더욱 정밀한 3차원 이미지를 재생하는 단계를 더 포함할 수 있다. The step (d) may further include the step of adjusting a fine offset in combining the plurality of images to reproduce a finer three-dimensional image.

본 발명의 광센서 및 이를 이용한 감지 방법은, 서로 다른 위치/각도로 배치된 복수개의 조명부를 통해 서로 다른 조명특성을 갖는 빛을 대상물체에 조사하고 반사되어 회귀한 이미지들의 차이를 분석함으로써, 상비에 의한 거리 측정시 특이성이 제거된 이미지를 이용한 대상물체까지의 거리를 측정할 수 있는 효과가 있다. The optical sensor and the sensing method using the same according to the present invention irradiate light having different illumination characteristics to a target object through a plurality of illumination units arranged at different positions / angles, and analyzing the difference of reflected and reflected images, It is possible to measure the distance to the object using the image in which the specificity is removed.

본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.
도 1은 복수개의 측정광을 대상물체의 표면에 조사하여 물체표면의 각도 및 형상정보를 상비율에 의한 특이성을 제거하고 감지하는 기술을 설명하는 도면이다.
도 2는 상비율에 의한 특이성이 발생하는 원리를 설명하는 도면이다.
도 3a 및 도 3b는 특이성을 제거하기 위한 발광소자의 배열방법을 설명하는 도면이다.
도 4는 본 발명의 일실시예에 따른 적외선 센서의 구성을 개략적으로 도시한 도면이다.
도 5a 및 도 5b는 본 발명의 적외선 센서를 사용하여 적외선 이미지를 획득하는 과정을 설명하기 위한 순서도이다.
도 6은 도 5에 도시한 순서도에 따라 적외선 센서가 작동하는 방식을 최적화 하기위한 방법을 설명하기 위한 그래프이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate preferred embodiments of the invention and, together with the description, serve to further the understanding of the technical idea of the invention, And shall not be interpreted.
FIG. 1 is a view for explaining a technique of irradiating a plurality of measurement lights to a surface of a target object to remove angle and shape information of the object surface by eliminating the specificity due to the phase ratio.
Fig. 2 is a view for explaining the principle of generating the specificity due to the phase ratio.
3A and 3B are views for explaining a method of arranging light emitting elements for eliminating specificity.
4 is a view schematically showing a configuration of an infrared ray sensor according to an embodiment of the present invention.
5A and 5B are flowcharts for explaining a process of acquiring an infrared image using the infrared sensor of the present invention.
6 is a graph for explaining a method for optimizing the manner in which the infrared sensor operates in accordance with the flowchart shown in FIG.

이하에서는 첨부한 도면을 참조하여 본 발명의 바람직한 실시예들에 따른 표면각도 측정 광센서 및 이를 이용한 감지 방법에 대하여 상세하게 설명한다.Hereinafter, a surface angle measuring optical sensor according to preferred embodiments of the present invention and a sensing method using the same will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 표면각도 센서의 구성을 개략적으로 도시한 도면이다. 쉬운 이해를 위해 2개의 조명그룹을 사용하여 대상물체와의 거리를 1방향 각도에서 측정할 수 있도록 구성한 것으로서, 동일한 측정원리를 2방향 각도에 대해서도 확장하여 적용할 수 있다. 즉, 측정센서를 기준으로, 대상 물체의 각 측정점에서의 표면각도는, 2자유도(a,b)로 표시될 수 있으며, 1방향 각도 (1 DOF)를 측정하기 위하여 최소 2개의 서로 다른 특성을 갖는 2개의 조명부(100)가 필요하고, 2방향 각도(2DOF, a와 b 모두)를 모두 측정하기 위해서는 도 3과 같이 최소 서로 다른 특성을 갖는 4개의 조명부(100)가 필요하다.1 is a view schematically showing a configuration of a surface angle sensor according to an embodiment of the present invention. For ease of understanding, two illumination groups can be used to measure the distance from the target object in one direction, and the same measurement principle can be extended to two directions. That is, with respect to the measurement sensor, the surface angle at each measurement point of the object can be expressed by two degrees of freedom (a, b), and at least two different characteristics Two illumination units 100 having a minimum diopter angle (2DOF, a and b) are required. In order to measure both diopters (2DOF, a and b), four illumination units 100 having at least different characteristics are required as shown in FIG.

도 3에 예시된 본 발명의 일 실시예에 있어서, 서로 다른 특성의 측정광을 조사하는 복수개의 조명부(100)를 구성하기 위하여, 촬상소자(200)의 횡축으로 일정한 거리, l (이격 거리)만큼 떨어진 위치에 촬상소자(200)의 촬영방향과 평행한 방향으로 측정광을 조사할 수 있도록 2개의 조명그룹을 배치하였다. 이때 도 3에 도시한 방법 외에도, 다양한 위치 또는 방향으로 복수개의 조명부(100)를 설치하고 감지영역 내에 서로 다른 측정광을 조사하도록 변형하여 실시할 수 있다. 조명부(100)를 구성하는 조명장치로서 백열등, 형광등, 할로겐램프, LED, 레이져조명, 등등 다양한 주파수 파장대역의 빛을 발광하는 모든 종류의 조명장치를 단독 또는 복합적으로 구성하여 사용할 수 있다. 또한, 각 조명부(100)의 광량을 증가시키기 위해 복수개의 발광소자를 하나의 그룹으로 묶어서 사용할 수도 있다.3, in order to construct a plurality of illumination units 100 for irradiating measurement light of different characteristics, a distance of 1 (distance) to the horizontal axis of the image pickup device 200, Two illumination groups are arranged so that the measurement light can be irradiated in a direction parallel to the photographing direction of the image pickup device 200. [ In this case, in addition to the method shown in FIG. 3, a plurality of illumination units 100 may be installed in various positions or directions, and modified to irradiate different measurement light in the sensing area. Any and all kinds of lighting devices that emit light in various frequency wavelength bands such as incandescent lamps, fluorescent lamps, halogen lamps, LEDs, laser lights, and the like can be used alone or in combination as the lighting devices constituting the lighting unit 100. In order to increase the light amount of each illumination unit 100, a plurality of light emitting devices may be used as a group.

감지영역에 대한 이미지를 획득하는 촬상소자(200)는 CCD, CMOS등 다양한 파장대역의 빛을 감지하여 광량이미지를 획득할 수 있는 모든 종류의 촬상소자를 사용할 수 있다. 이때 적절한 필터를 삽입하여 조명부(100)에 의한 측광이미지를 효과적으로 추출할 수도 있다.The image sensing device 200 that acquires an image of the sensing area can use any type of sensing device capable of sensing a light intensity image by sensing light of various wavelength bands such as CCD and CMOS. At this time, an appropriate filter may be inserted to effectively extract the photometric image by the illumination unit 100.

메모리부(300)는 촬상소자에서 획득한 이미지 및 이를 영상처리한 결과 이미지 등을 저장하도록 한다. 예를 들어 각 조명부(100)의 조명을 켜거나 끈 상태에서 촬상소자(200)를 통해 직접 획득한 이미지, 또는 촬영된 이미지들에 대해 차연산 또는 비연산 등을 적용하여 부차적으로 획득한 영상처리 결과이미지들을 저장할 수 있다.The memory unit 300 stores an image obtained by the image pickup device and an image resulting from the image processing. For example, an image acquired directly through the image sensing device 200 in a state where the illumination of each illumination unit 100 is turned on or off, or image processing obtained by applying a difference operation or a non- You can save the resulting images.

제어기(400)의 노출제어부(410)는 복수개의 조명부(100)의 발광시점과 발광시간(duration)을 조절하고, 촬상소자(200)의 촬영시점과 노출시간을 제어함으로서, 복수개의 조명부(100)를 순차적으로 구동하고, 구동시간과 연동하여 촬상소자(200)의 노출시간을 제어함으로, 서로 다른 조명부의 조광상태에서 측광이미지를 획득하도록 한다. 보다 구체적으로는, 1방향 측정 조명을 이용할 경우 먼저 제1조명그룹에서 측정광을 조사하도록 제어한 상태에서 촬상소자(200)를 노출하여 감지영역 내의 제1조명그룹측광이미지(image with 1st light, I1)를 획득하고, 이어서, 제2조명부에서 측정광을 조사하도록 제어한 상태에서 촬상소자(200)를 노출하여 감지영역 내의 제2조명그룹 측광이미지(image with 2nd light, I2)를 획득한다. 2방향 측정 조명을 이용할 경우는 계속해서 같은 방법으로 제n조명 측광이미지(image with nth light, In)까지 획득하도록 한다.The exposure control unit 410 of the controller 400 adjusts the light emission time and the duration of the plurality of illumination units 100 and controls the shooting time and the exposure time of the imaging device 200, And controls the exposure time of the image pickup device 200 in conjunction with the drive time so as to obtain a photometry image in the dim state of the different illumination units. More specifically, when the one-directional measurement illumination is used, the imaging device 200 is exposed in a state in which the first illumination group is irradiated with the measurement light, and the first illumination group image (image with 1st light, I1), and then acquires a second illumination group image (image with 2nd light) I2 in the sensing area by controlling the imaging device 200 to be controlled so as to irradiate measurement light at the second illumination unit. If two-way illumination is used, continue to acquire the nth light-metering image (image with nth light, In).

제1조명그룹측광이미지(I1)를 획득할 때, 제1조명그룹에 속한 첫번째 측정광만 조사하도록 제어된 상태에서 구한 이미지(image with 1st light in 1st group, I1-1)를 획득하고, 이어서, 제1조명그룹에 속한 두번째 측정광만 조사하도록 제어된 상태에서 구한 이미지(image with 2nd light in 1st group, I1-2)를 획득하여 두 이미지의 상비를 구하므로써 제1조명그룹 측광이미지인 I1을 형성할 수 있다.(Image with 1st light in 1st group, I1-1) obtained in a controlled state so as to irradiate only the first measurement light belonging to the first illumination group when acquiring the first illumination group photometry image I1, (Image with 2nd light in 1st group, I1-2) obtained by controlling only the second measurement light belonging to the first illumination group, and obtains the ratio of the two images to obtain the first illumination group photometric image I1 Can be formed.

이때 감지영역 내에 존재하는 대상물체는 상이한 조명효과에 의해 측광이미지들에서 각각 조금씩 다르게 측정된다. 특히 복수개의 조명부(100)가 각각 다른 위치/각도로 위치하기 때문에, 대상물체의 표면에서 반사각도에 차이가 발생하게 되어, 촬상소자(200)로 반사되는 측광조명의 광량이 각 조명부(100)에 따라 달라지게 된다.At this time, the object existing in the sensing area is slightly differently measured in the photometric images due to the different lighting effects. In particular, since the plurality of illumination units 100 are located at different positions / angles, a difference in reflection angle occurs on the surface of the object, and the amount of light of the light- .

제1조명그룹에 속한 2개의 측정광을 이용하여 상비율을 계산할 경우, 제1조명그룹이 모두 카메라 렌즈의 좌측에 설치되어 있으므로 측정된 이미지의 우측에 있는 물체의 정확한 이미지는 획득할 수 없다. 즉 제 1조명그룹측광이미지인 I1은 카메라의 좌측에 있는 물체에 대한 거리 측정용 조명그룹을 형성하므로 이미지의 우측반을 제거한 이미지를 I1이미지로 간주한다.When calculating the image ratio using the two measurement lights belonging to the first illumination group, since the first illumination groups are all disposed on the left side of the camera lens, an accurate image of the object on the right side of the measured image can not be obtained. That is, the first illumination group photometry image I1 forms a lighting group for measuring the distance to the object on the left side of the camera, so that the image without the right half of the image is regarded as the I1 image.

제2조명그룹 측광이미지(I2)를 획득할 때는, 제2조명그룹에 속한 첫번째 측정광만 조사하도록 제어된 상태에서 구한 이미지(image with 1st light in 2st group, I2-1)를 획득하고, 이어서, 제2조명그룹에 속한 두번째 측정광만 조사하도록 제어된 상태에서 구한 이미지(image with 2nd light in 2nd group, I2-2)를 획득하여 두 이미지의 상비를 구하므로써 제2조명그룹 측광이미지인 I2를 형성할 수 있다.When acquiring the second illumination group metering image I2, the image obtained with the image (with image 1st light in 2st group, I2-1) obtained in a controlled state to irradiate only the first measurement light belonging to the second illumination group is acquired, , The image obtained with the image (with image 2nd light in 2nd group, I2-2) obtained in a controlled state to irradiate only the second measurement light belonging to the second illumination group is obtained, Can be formed.

이때 감지영역 내에 존재하는 대상물체는 상이한 조명효과에 의해 측광이미지들에서 각각 조금씩 다르게 측정된다. 특히 복수개의 조명부(100)가 각각 다른 위치/각도로 위치하기 때문에, 대상물체의 표면에서 반사각도에 차이가 발생하게 되어, 촬상소자(200)로 반사되는 측광조명의 광량이 각 조명부(100)에 따라 달라지게 된다.At this time, the object existing in the sensing area is slightly differently measured in the photometric images due to the different lighting effects. In particular, since the plurality of illumination units 100 are located at different positions / angles, a difference in reflection angle occurs on the surface of the object, and the amount of light of the light- .

제2조명그룹에 속한 2개의 측정광을 이용하여 상비율을 계산할 경우, 제2조명그룹이 모두 카메라 렌즈의 우측에 설치되어있으므로 측정된 이미지의 좌측에 있는 물체의 정확한 이미지는 획득할 수 없다. 즉 제 2조명그룹 측광이미지인 I2는 카메라의 우측에 있는 물체에 대한 거리 측정용 조명그룹을 형성하므로 이미지의 좌측반을 제거한 이미지를 I2이미지로 간주한다.When calculating the phase ratio using the two measurement lights belonging to the second illumination group, since the second illumination group is all installed on the right side of the camera lens, an accurate image of the object on the left side of the measured image can not be obtained. That is, the second illumination group metering image I2 forms a lighting group for measuring the distance to the object on the right side of the camera, so that the image without the left half of the image is regarded as the I2 image.

마지막으로 제1조명그룹에 의해 구해진 이미지 I1과 제2조명그룹에 의해 구해진 이미지 I2를 합성하여 주어진 물체에 대한 완전한 상비율 이미지를 구할 수 있다. 만일 n개의 조명그룹을 이용할 경우 각 조명그룹에 의해 가장 잘 표현될 수 있는 조명을 In으로 명명하고 모든 조명 그룹에 의한 상비율 이미지가 구해지면 같은 방법으로 상비율 이미지들을 합성하여 완전한 상비율 이미지를 구할 수 있다.Finally, the image I1 obtained by the first illumination group and the image I2 obtained by the second illumination group can be combined to obtain a complete image ratio image for a given object. If n lighting groups are used, the lighting that can best be represented by each lighting group is named In, and if a phase ratio image by all the lighting groups is obtained, the phase ratio images are synthesized in the same way, Can be obtained.

도 5는 본 발명의 일 실시예에 따른 표면각도를 측정하는 광센서를 이용한 형상 감지방법을 도시한 순서도이다. 도 5를 참조하면, 우선 조명부(100)에서 측정광을 조사하지 않도록 제어한 상태에서, 외부 광원에 의한 이미지(30)를 촬상소자(300)를 통해 획득한다(S500). 5 is a flowchart illustrating a shape sensing method using an optical sensor for measuring a surface angle according to an embodiment of the present invention. Referring to FIG. 5, an image 30 of an external light source is acquired through the imaging element 300 (S500) while the illuminating unit 100 is controlled not to irradiate the measuring light.

이어서, 제어기를 통해 제1조명부의 측광시간과 촬상소자(200)의 노출시간을 조절하여, 측정광 이미지를 획득하고, 같은 방법으로 제2조명부의 측광시간과 촬상소자의 노출시간을 조절하여 측정광 이미지를 획득한다(S510-S540). Next, the light measuring time of the first illumination unit and the exposure time of the image sensing device 200 are adjusted through the controller to acquire the measurement light image, and the measurement time of the second illumination unit and the exposure time of the image sensing device are adjusted And acquires the optical image (S510 - S540).

메모리(300)에 저장된 측정광 이미지와 외부광 이미지를 불러내서 영상처리부(420)를 통해 비교연산처리를 적용함으로써 순수하게 제1조명부의 제1조명과 제2조명에의한 영향으로 발생하는 측정광이미지(I1-1,I1-2)를 추출하여 메모리(300)에 다시 저장하도록 한다(S600). 여기서, 비교연산 처리방법으로는, 차연산(subtraction)을 사용할 수 있으며, 그 외에도 배타적 논리합(exclusive or) 등 다양한 비교 연산 처리 방법이 사용될 수 있다. 같은 방법으로 제2조명부의 한 측광이미지로부터 외부광효과를 제거하고 순수하게 제1조명과 제2조명에 의한 영향으로 발생하는 측광이미지(I2-1, I2-2)를 추출하여 메모리에 다시 저장한다(S600).A measurement light image and an external light image stored in the memory 300 are read out and a comparison operation process is applied through the image processing unit 420 to obtain a measurement that is generated purely by the first illumination and the second illumination of the first illumination unit The optical images I1-1 and I1-2 are extracted and stored in the memory 300 again (S600). Here, as a comparison operation processing method, subtraction can be used, and various comparison operation processing methods such as exclusive or other can be used. In the same manner, the external light effect is removed from a photometric image of the second illumination unit, and the photometric images I2-1 and I2-2 generated by the influence of the first illumination and the second illumination are extracted and stored in the memory (S600).

다음으로 I1-1과 I1-2의 각 픽셀을 비교하여 해당 픽셀의 광량에 대해 제 1 조명부에 의해 측정된 물체의 표면각도를 도출하도록 한다(S610). 또한 I2-1과 I2-2의 각 픽셀을 비교하여 해당 픽셀의 광량에 대해, 제 2 조명부에 의해 측정된 물체의 표면각도를 도출하도록 한다(S620).Next, each pixel of I1-1 and I1-2 is compared to determine the surface angle of the object measured by the first illumination unit with respect to the light amount of the pixel (S610). Further, each pixel of I2-1 and I2-2 is compared to determine the surface angle of the object measured by the second illumination unit with respect to the light amount of the pixel (S620).

부가적인 단계로서, 도출된 각 픽셀에 해당하는 물체의 특정위치에서의 표면각도를 종합하여 촬영된 물체의 표면각도를 도출한다(S700). 도출된 물체의 표면각도로부터 최종적으로 물체의 형상을 도출하는 과정을 포함할 수 있다. 이때 푸리에 변환(Fourier Transform)이나 변형된 FFT등의 연산을 하드웨어적으로 적용할 수 있다(S710).As an additional step, the surface angle of the photographed object is calculated by summing the surface angles at specific positions of the objects corresponding to the derived pixels (S700). And finally deriving the shape of the object from the surface angle of the derived object. At this time, operations such as Fourier transform or modified FFT can be applied in hardware (S710).

상술한 11단계를 반복적으로 수행하여 연속적으로 감지영역내 물체를 측정할 수 있다. 이러한 경우 도 6을 참조하여 N 회차의 제4단계를 다 마치기 전에, 다음에 수행하는 N+1 회차의 제1단계를 시작하여 각도측정을 위한 광센서(100)의 작동주기를 최소화할 수도 있다. It is possible to continuously measure the object in the sensing area by repeating the above-mentioned eleventh step. In this case, referring to FIG. 6, the operation cycle of the optical sensor 100 for the angle measurement may be minimized by starting the first step of the next N + 1 rotation before completing the fourth rotation of the N rotation .

상기 과정을 통해 본 발명의 표면각도측정을 위한 광센서(200)는 복수개의 조명부(100)로부터의 측정광을 감지영역에 조사하고, 획득된 이미지의 각 픽셀의 광량차를 계산하여, 이미지에 감지된 대상물체의 각 픽셀에 해당하는 측정점에서의 표면각도를 추출할 수 있다. Through the above process, the optical sensor 200 for measuring the surface angle of the present invention irradiates the measurement light from the plurality of illumination units 100 to the detection area, calculates the light amount difference of each pixel of the obtained image, The surface angle at the measurement point corresponding to each pixel of the sensed object can be extracted.

본 발명의 바람직한 실시예는 단지 예시의 목적을 위해 개시된 것이고, 본 발명에 대한 통상의 지식을 가지는 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Should be regarded as belonging to the following claims.

10 : 특이성 곡선,
20 : 3D 센서,
30 : LED,
40 : 카메라,
50 : 카메라의 시야각,
100 : 조명부,
200 : 촬상소자
300 : 메모리부,
400 : 제어부,
410 : 노출제어부,
420 : 영상처리부,
430 : 3차원 형상 복원부.
10: specificity curve,
20: 3D sensor,
30: LED,
40: camera,
50: the viewing angle of the camera,
100: illumination part,
200:
300: memory part,
400:
410: Exposure control unit,
420: image processing unit,
430: 3D shape reconstruction unit.

Claims (7)

감지영역 내에 측정광을 조사하여 물체표면 각도를 감지하는 광센서에 있어서,
다른 위치와 각도로 장착되어 서로 다른 특성의 측정광을 상기 감지영역에 조사하는 복수개의 조명부(100);
상기 감지영역으로부터 입사되는 빛에 감응하여 상기 감지영역에 대한 이미지를 획득하는 촬상소자(200);
상기 이미지 또는 상기 이미지들을 영상처리한 결과 이미지를 저장하는 메모리부(300); 및 제어부(400)를 포함하고,
상기 제어부(400)는,
상기 조명부의 측정광을 조사하는 발광시간과 상기 촬상소자의 촬영시간을 조절하는 노출제어부(410);
상기 조명부의 측정광이 상기 감지영역으로부터 반사되어 돌아온 복수개의 이미지로부터 외부발광체에 의한 외란을 제거하고, 각각의 상기 조명부의 광량만으로 촬상된 개별 측광이미지로 추출하는 영상처리부(420); 및
상기 각 개별 측광이미지의 각 픽셀의 광량을 비교하여 상기 물체표면의 표면각도로 환산하며, 상기 환산된 각 픽셀의 표면각도에 기초하여 상기 물체표면의 적어도 일부의 표면형상을 복원하는 3차원 형상복원부(430);를 포함하는 것을 특징으로 하는 표면각도 측정 광센서.
1. An optical sensor for sensing an object surface angle by irradiating measurement light within a detection area,
A plurality of illumination units (100) mounted at different positions and angles to irradiate measurement light of different characteristics to the detection region;
An imaging device (200) for sensing an image of the sensing area in response to light incident from the sensing area;
A memory unit 300 for storing the image or a resultant image of the images; And a control unit 400,
The control unit (400)
An exposure control unit (410) for adjusting a light emission time for irradiating measurement light of the illumination unit and an image pickup time of the image pickup device;
An image processor (420) for removing disturbance caused by the external illuminant from a plurality of images reflected from the sensing area of the illumination unit, and extracting the individual light metering images captured by only the light amount of each illumination unit; And
Dimensional shape restoration that restores the surface shape of at least a part of the object surface based on a surface angle of each of the pixels converted by converting a light amount of each pixel of each of the individual light metering images into a surface angle of the object surface, (430). ≪ / RTI >
제 1 항에 있어서,
상기 조명부(100)는 할로겐 램프 또는 적외선 LED인 것을 특징으로 하는 표면각도 측정 광센서.
The method according to claim 1,
Wherein the illumination unit (100) is a halogen lamp or an infrared LED.
제 1 항에 있어서,
상기 촬상소자(200)는 CCD 또는 CMOS인 것을 특징으로 하는 표면각도 측정 광센서.
The method according to claim 1,
Wherein the imaging element (200) is a CCD or a CMOS.
제 1 항에 있어서,
상기 복수개의 조명부(100)는 각 조명부의 측광방향이 평행하도록 배치된 것을 특징으로 하는 표면각도 측정 광센서
The method according to claim 1,
Wherein the plurality of illumination units (100) are arranged such that the light measuring directions of the illumination units are parallel to each other.
제 1 항에 있어서,
특정한 파장 영역의 빛을 상기 촬상소자(200)로 조사하기 위해 필터를 더 포함하는 것을 특징으로 하는 표면각도 측정 광센서.
The method according to claim 1,
Further comprising a filter for irradiating the image pickup device (200) with light of a specific wavelength range.
감지영역에 서로 다른 특성의 복수개의 측정광을 조사하여 감지영역내에 존재하는 물체표면의 각도를 측정하는 제1항에 따른 표면각도 측정 광센서를 이용한 표면각도 및 형상정보를 감지하는 방법으로서,
(a) 상기 표면각도 측정 광센서의 일구성인 복수개의 조명부(100) 각각에 의한 복수개의 측광이미지를 촬상소자(200)를 통해 획득하는 측광이미지 획득단계;
(b) 상기 획득된 측광이미지들로부터 상기 복수개의 조명부(100) 각각에 의한 상비율을 계산하는 상비율 추출단계;
(c) 상기 복수개의 조명부(100) 각각으로부터 얻어진 상기 상비율을 합성하여, 상기 상비율에 의한 거리측정 시의 특이성인 상비율이 1이 되는 지점이 제거된 상비율 이미지를 획득하는 상비율 이미지 획득단계; 및
(d) 상기 표면각도 측정 광센서의 일구성인 제어부(400)가 획득된 상기 상비율 이미지에 기초하여, 상기 감지영역 내 물체의 표면각도를 산출하는 산출단계;를 포함하는 것을 특징으로 하는 광센서를 이용한 표면각도 및 형상정보 감지방법.
A method for sensing surface angle and shape information using a surface angle measuring optical sensor according to claim 1, wherein the measuring angle is measured by irradiating a plurality of measuring lights having different characteristics to the sensing area,
(a) acquiring a plurality of photometry images by each of the plurality of illumination units (100), which is a configuration of the surface angle measuring optical sensor, through the imaging device (200);
(b) calculating a phase ratio by each of the plurality of illumination units (100) from the obtained photometry images;
(c) synthesizing the image ratios obtained from each of the plurality of illumination units (100) to obtain a phase ratio image that obtains a phase ratio image from which a point at which a phase ratio, which is a specificity at the time of distance measurement by the phase ratio, Acquiring step; And
(d) calculating a surface angle of the object in the sensing area based on the image of the aspect ratio obtained by the controller (400), which is a component of the surface angle measuring optical sensor A method for sensing surface angle and shape information using sensors.
제 6 항에 있어서,
상기 산출단계는,
상기 산출된 각 픽셀의 표면각도 정보를 연결하여, 상기 감지영역 내 물체표면의 형상을 산출하는 표면형상 산출단계;를 더 포함하는 것을 특징으로 하는 광센서를 이용한 표면각도 및 형상정보 감지방법.
The method according to claim 6,
Wherein,
And calculating a shape of an object surface in the sensing area by connecting the calculated surface angle information of each pixel to the detected surface angle information.
KR1020120012362A 2012-02-07 2012-02-07 Photosensor for measuring surface and measuring method of 3D depth and surface using thereof KR101401395B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120012362A KR101401395B1 (en) 2012-02-07 2012-02-07 Photosensor for measuring surface and measuring method of 3D depth and surface using thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120012362A KR101401395B1 (en) 2012-02-07 2012-02-07 Photosensor for measuring surface and measuring method of 3D depth and surface using thereof

Publications (2)

Publication Number Publication Date
KR20130091094A KR20130091094A (en) 2013-08-16
KR101401395B1 true KR101401395B1 (en) 2014-06-02

Family

ID=49216423

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120012362A KR101401395B1 (en) 2012-02-07 2012-02-07 Photosensor for measuring surface and measuring method of 3D depth and surface using thereof

Country Status (1)

Country Link
KR (1) KR101401395B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10753726B2 (en) 2017-03-26 2020-08-25 Cognex Corporation System and method for 3D profile determination using model-based peak selection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338389A (en) 1999-03-22 2000-12-08 Eaton Corp Method and system for optical object distance detection and imaging
KR100740249B1 (en) 2005-10-19 2007-07-18 (주) 인텍플러스 Apparatus and method for measuring image
JP2008107877A (en) 2006-10-23 2008-05-08 Nippon Hoso Kyokai <Nhk> Three-dimensional shape reconstruction apparatus
KR20100039962A (en) * 2008-10-09 2010-04-19 (주) 인텍플러스 A vision inspection apparatus of a dual camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338389A (en) 1999-03-22 2000-12-08 Eaton Corp Method and system for optical object distance detection and imaging
KR100740249B1 (en) 2005-10-19 2007-07-18 (주) 인텍플러스 Apparatus and method for measuring image
JP2008107877A (en) 2006-10-23 2008-05-08 Nippon Hoso Kyokai <Nhk> Three-dimensional shape reconstruction apparatus
KR20100039962A (en) * 2008-10-09 2010-04-19 (주) 인텍플러스 A vision inspection apparatus of a dual camera

Also Published As

Publication number Publication date
KR20130091094A (en) 2013-08-16

Similar Documents

Publication Publication Date Title
KR100753885B1 (en) Image obtaining apparatus
KR101180027B1 (en) Optical sensor and sensing method using the same
JP6139017B2 (en) Method for determining characteristics of light source and mobile device
US9787907B2 (en) Substance detection device
KR101639227B1 (en) Three dimensional shape measurment apparatus
TW200847061A (en) Depth mapping using projected patterns
EP3524929B1 (en) Projection system
TW202021340A (en) Infrared pre-flash for camera
KR20160023489A (en) Gesture detection device and detecting method of gesture using the same
CN114569047B (en) Capsule endoscope, and distance measuring method and device for imaging system
WO2017089826A1 (en) Systems and methods for forming three-dimensional models of objects
JP2009025189A (en) Measuring instrument
JP2021004760A (en) Ranging device having external light illuminance measurement function and external light illuminance measurement method
KR101341189B1 (en) Light sensor for detecting surface angle and sensing method using the same
JP6908373B2 (en) A method for inspecting the surface irregularities of an object to be inspected and its surface inspection device
KR101401395B1 (en) Photosensor for measuring surface and measuring method of 3D depth and surface using thereof
JP6716295B2 (en) Processing device, imaging device, processing method, program, and recording medium
JP7118776B2 (en) IMAGING DEVICE, IMAGE PROCESSING METHOD, IMAGE PROCESSING PROGRAM AND RECORDING MEDIUM
JP2019109071A (en) Image processing system, image processing program, and method for processing image
JP7447916B2 (en) Imaging device, information processing device, imaging method, and information processing method
JP6432968B2 (en) Object shape estimation apparatus and program
JP6939501B2 (en) Image processing system, image processing program, and image processing method
KR101269128B1 (en) Surface roughness measurement apparatus and method having intermediate view generator
KR101673764B1 (en) System and method for measuring of reflectance by using dimming light
JP2011252835A (en) Three dimensional shape measuring device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee