KR20110124409A - Omni-directional distance measurement device and method based on structured light using difference image integral calculus algorithm - Google Patents

Omni-directional distance measurement device and method based on structured light using difference image integral calculus algorithm Download PDF

Info

Publication number
KR20110124409A
KR20110124409A KR1020100043748A KR20100043748A KR20110124409A KR 20110124409 A KR20110124409 A KR 20110124409A KR 1020100043748 A KR1020100043748 A KR 1020100043748A KR 20100043748 A KR20100043748 A KR 20100043748A KR 20110124409 A KR20110124409 A KR 20110124409A
Authority
KR
South Korea
Prior art keywords
image
structured light
laser
camera
reflected
Prior art date
Application number
KR1020100043748A
Other languages
Korean (ko)
Other versions
KR101138222B1 (en
Inventor
이수영
김성도
홍영진
이정우
서진호
Original Assignee
재단법인 포항지능로봇연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 포항지능로봇연구소 filed Critical 재단법인 포항지능로봇연구소
Priority to KR1020100043748A priority Critical patent/KR101138222B1/en
Publication of KR20110124409A publication Critical patent/KR20110124409A/en
Application granted granted Critical
Publication of KR101138222B1 publication Critical patent/KR101138222B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • G01N2021/0181Memory or computer-assisted visual determination

Abstract

PURPOSE: An omnibeary-distance facility and method using a forward direction mirror and difference image integral algorithm are provided to secure resistance to ambient illumination noises by reinforcing structured light pixels. CONSTITUTION: An omnibeary-distance facility comprises an irradiation part(110), a measuring part(130) and an analysis part(150). An irradiation part emits laser beam in a forward direction. The measuring part comprises a convex surface type mirror(131) and a camera(133). A background image is gotten repetitively from the convex surface type mirror by using camera. The analysis part calculates the object distance between the object and the camera.

Description

전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법{Omni-directional distance measurement device and method based on structured light using difference image integral calculus algorithm}Omni-directional distance measurement device and method based on structured light using difference image integral calculus algorithm}

본 발명은 레이저 구조광 영상 기반 전방향 거리측정에 관한 것으로, 보다 상세하게는 차영상 적분 알고리즘을 고려한 거리측정 장치 및 방법에 관한 것이다.The present invention relates to a laser structured light image-based omnidirectional distance measurement, and more particularly, to a distance measuring apparatus and method considering a differential image integration algorithm.

이동로봇이나 공장내의 무인 반송차와 같은 이동체가 자율적으로 주행하기 위해서는 이동체 주변에 있는 물체들까지의 거리를 측정할 수 있는 거리측정 센서가 필요하다. 주변물체까지의 거리정보는 단지 장애물이 있는지 여부뿐만 아니라, 미리 알고 있는 전역 물체지도 데이터베이스와의 정합을 통해 이동체 자신의 현재 위치를 추정하는데 쓰일 수 있으며, 또한 이동체 주변의 국부 지도들을 점증적으로 연결하여 통합함으로써 전역 물체지도를 만드는데 활용할 수도 있다.In order to autonomously drive a moving object such as a mobile robot or an unmanned transport vehicle in a factory, a distance measuring sensor capable of measuring a distance to objects around the moving object is required. The distance information to the surrounding objects can be used to estimate the current position of the moving object itself through matching with a global database of known object maps, as well as whether there are obstacles, and also to incrementally connect local maps around the moving object. Can be used to create a global object map.

단지 현재 이동하고자 하는 방향에 장애물이 있는지 여부뿐만 아니라, 어느 방향으로 이동할 수 있는 지를 판단하거나, 또는 국부지도작성으로 이동체의 현재 위치를 추정하기 위해서는 이동체의 현재 위치에서 가능한 한 넓은 방향의 거리 정보를 얻을 수 있어야 한다. 일반적으로 거리측정 센서들은 한 방향의 거리만을 측정하므로, 넓은 방향의 거리정보를 얻기 위해서 이러한 거리측정 센서들을 원주형으로 여러 개 배열하거나, 혹은 하나의 거리측정 센서를 기계적으로 스캔하는 방법을 사용한다. 그러나 이러한 방법들은 가격이 비싸고, 광각의 거리정보를 얻는데 많은 시간이 걸린다는 문제점이 있다.In order to determine not only whether there are obstacles in the direction to move, but which direction can be moved, or to estimate the current position of the moving object by local mapping, the distance information in the direction as wide as possible from the current position of the moving object is obtained. You should be able to get it. In general, since distance measuring sensors measure only one direction distance, in order to obtain distance information in a wide direction, a plurality of such distance measuring sensors are arranged in a circumferential shape, or a method of mechanically scanning one distance measuring sensor is used. . However, these methods are expensive and have a problem in that it takes a long time to obtain wide-angle information.

또한 거리를 측정하는 방법에는 두 대의 카메라를 이용하여 두 영상면에 나타나는 동일점에 대해 삼각법을 적용하여 거리를 구하는 방법(예를 들면, 스테레오 카메라), 초음파나 전자기파와 같은 파동을 물체에 발사하고 반사되어 돌아오기까지의 체공시간(Time-Of-Flight;TOF)을 측정함으로써 거리를 계측하는 방법, 그리고 구조광 영상기반 방법을 이용하는 방법이 있다. 구조광 영상기반 방법은 가시광 레이저, 혹은 적외선 레이저와 같이 주변조명과 구분되는 구조광을 물체에 조사하고, 반사된 빛을 카메라 영상으로 획득하여 물체거리에 따른 왜곡을 분석함으로써 거리를 계산하는 방법이다.Also, to measure the distance, use two cameras to find the distance by applying trigonometry to the same point on the two image planes (for example, a stereo camera), and emit waves such as ultrasonic waves or electromagnetic waves to the object. There is a method of measuring distance by measuring a time-of-flight (TOF) until reflection and returning, and a method using a structured light image-based method. The structured light image-based method is a method of calculating a distance by irradiating a structured light separated from an ambient light, such as a visible light laser or an infrared laser, to an object, acquiring reflected light as a camera image, and analyzing distortion according to an object distance. .

두 대의 카메라를 이용하는 스테레오 영상방법은 영상면에서 동일점을 찾는 대응점 문제가 매우 많은 계산시간을 필요하므로 거리정보 획득 속도가 느리고, 주변 조명잡음에 매우 약하다는 문제점이 있으며, 파동의 체공시간을 측정하는 방법은 매우 정밀한 전자회로를 필요로 하므로 값이 비싸며, 또한 기본적으로 한 방향의 거리만을 측정하는 방법이라는 문제점이 있다.The stereo imaging method using two cameras has a problem of slowing distance information acquisition and being very weak to ambient lighting noise because it requires a large amount of computation time to find the same point in the image plane. The method requires a very precise electronic circuit is expensive, and there is a problem in that only the distance in one direction is basically measured.

이에 따라, 360도 전방향으로 구조광을 조사하고, 주변물체에 반사된 구조광을 전방향 거울을 이용하여 한 장의 카메라 영상으로 획득함으로써 빠르고 효율적으로 360도 전방향의 거리를 측정할 수 있는 구조광 영상기반 방법을 이용한 장치 및 방법이 필요하다.Accordingly, by irradiating structured light in all directions of 360 degrees, and obtaining structured light reflected by surrounding objects as a single camera image using an omnidirectional mirror, it is possible to measure a 360-degree omnidirectional distance quickly and efficiently. There is a need for an apparatus and method using an optical image based method.

한편, 구조광 영상은 햇빛이나 형광등의 밝기 등 주변조명의 영향을 많이 받기 때문에 결과적으로 얻어지는 물체거리 정보가 조명잡음에 민감하다는 문제점이 있다. 구조광 영상에서 구조광을 따로 추출하기 위한 종래 기술로 광학필터를 사용하는 방법이 있다. 예를 들어, 650nm의 파장을 갖는 적색 레이저를 구조광 소스로 사용하는 경우 650nm의 파장만을 통과시키는 광학필터를 사용하여 구조광 이외의 영상은 거르고, 구조광만을 통과시킴으로써 영상면에서 구조광을 추출할 수 있다. 일반적으로 많이 사용하는 780nm의 파장을 갖는 적외선 레이저를 구조광 소스로 사용하는 경우도 마찬가지다. 그러나 이 방법은 별도의 필터를 사용하는데 따르는 비용부담이 있고, 또한 햇빛이나 형광등에 구조광과 같은 파장대의 빛 성분을 갖는 경우에 이 성분들이 그대로 영상잡음으로 나타난다는 문제점이 있다.On the other hand, since the structured light image is affected by ambient light such as the brightness of sunlight or fluorescent lamps, the resulting object distance information is sensitive to lighting noise. There is a method of using an optical filter as a conventional technique for separately extracting the structured light from the structured light image. For example, when a red laser having a wavelength of 650 nm is used as a structured light source, an optical filter that passes only a wavelength of 650 nm is used to filter out images other than the structured light, and only structured light is extracted from the image plane by passing only the structured light. can do. The same applies to the case of using an infrared laser having a wavelength of 780 nm which is generally used as a structured light source. However, this method has a cost burden of using a separate filter, and there is a problem that these components appear as image noise when they have light components in a wavelength band such as structured light in sunlight or fluorescent lamps.

따라서, 물체가 포함된 영상에서 배경영상을 제외하고 물체 영상만을 추출하는 방법을 이용하여, 영상면에서 구조광 부분만을 추출하기 위한 장치 및 방법이 필요하다. Accordingly, there is a need for an apparatus and method for extracting only a portion of structured light from an image plane by using a method of extracting only an object image from an image including an object except a background image.

본 발명이 이루고자 하는 기술적 과제는, 360도 전방향으로 구조광을 조사하고, 주변 물체에 반사된 구조광을 전방향 거울을 이용하여 한 장의 카메라 영상으로 획득함으로써 매우 빠르고 효율적으로 360도 전방향의 거리를 측정하되, 주변 조명잡음에 강인하며, 매우 빠르고 효율적인 처리가 가능한 전방향 구조광 영상처리 하드웨어를 개발하는 것이다.The technical problem to be achieved by the present invention is to irradiate structured light in 360 degrees omnidirectional, and to obtain structured light reflected by surrounding objects as a single camera image using an omnidirectional mirror very quickly and efficiently in 360 degrees omnidirectional. It is to develop an omnidirectional structured light image processing hardware that measures distance but is robust against ambient lighting noise and can be processed very quickly and efficiently.

본 발명에 따른 전 방향 거리 측정 장치는, 레이저 구조광을 전 방향으로 조사하는 조사부; 볼록면형 거울과 카메라를 포함하고, 상기 카메라는 상기 볼록면형 거울로부터 배경 영상을 획득하고, 상기 조사부에서 조사된 상기 레이저 구조광이 물체에 반사된 후 반사된 상기 레이저 구조광이 상기 볼록면형 거울로 입사된 왜곡 영상을 반복적으로 획득하는 측정부; 및 상기 배경 영상과 상기 왜곡 영상의 차영상을 이용하여 반사된 상기 레이저 구조광의 궤적을 획득하고, 반사된 상기 레이저 구조광의 궤적으로부터 상기 카메라와 상기 물체간의 물체거리를 계산하는 분석부를 포함한다.An omnidirectional distance measuring apparatus according to the present invention comprises: an irradiation unit for irradiating laser structured light in all directions; And a convex mirror and a camera, wherein the camera acquires a background image from the convex mirror, the laser structure light irradiated from the irradiator is reflected on an object, and the reflected laser structure light is reflected into the convex mirror. A measuring unit repeatedly obtaining an incident distortion image; And an analyzer configured to acquire a trajectory of the laser structured light reflected by using the difference image between the background image and the distorted image, and to calculate an object distance between the camera and the object from the trajectory of the reflected laser structured light.

본 발명에 따른 전 방향 거리 측정 방법은, 레이저 구조광을 전 방향으로 조사하는 단계, 상기 레이저 구조광을 조사하기 전 영상인 배경 영상을 획득하는 단계, 상기 조사된 레이저 구조광이 물체에 반사된 후의 영상인 왜곡 영상을 상기 카메라를 통해 반복적으로 획득하는 단계, 반복적으로 획득한 상기 배경 영상과 상기 왜곡 영상의 차이를 적분하여 반사된 상기 레이저 구조광의 궤적을 획득하는 단계와 반사된 상기 레이저 구조광의 궤적으로부터 상기 카메라와 상기 물체간의 물체거리를 계산하는 단계를 포함한다.In the omnidirectional distance measuring method according to the present invention, irradiating a laser structured light in all directions, obtaining a background image which is an image before irradiating the laser structured light, the irradiated laser structured light is reflected on an object Repeatedly acquiring a distorted image, which is a later image, through the camera, acquiring a trajectory of the reflected laser structured light by integrating a difference between the repeatedly obtained background image and the distorted image; Calculating an object distance between the camera and the object from a trajectory.

본 발명은 360도 모든 방향으로 레이저 구조광을 조사하는 조사부와 볼록면형 거울과 한 대의 카메라를 통해 영상을 획득하는 측정부를 이용하여 360도 모든 방향의 물체거리를 한번에 측정할 수 있는 효과가 있다.The present invention has the effect of measuring the object distance in all directions of 360 degrees at a time by using the irradiation unit for irradiating the laser structure light in all directions of 360 degrees and the measuring unit for obtaining an image through a convex mirror and one camera.

본 발명은 구조광 영상에서 별도의 광학필터 없이 구조광 픽셀을 추출할 수 있으므로 경제적인 효과가 있으며, 또한 구조광 차영상열을 시간에 따라 반복적으로 적분하여 구조광 픽셀을 주변 픽셀에 비해 강화시킴으로써 구조광 영상처리에 있어서 주변 조명잡음에 대한 강인성을 확보할 수 있다는 효과가 있다.The present invention is economical because it is possible to extract structured light pixels from the structured light image without a separate optical filter. In addition, by repeatedly integrating the structured light difference image sequence over time, the structured light pixels are strengthened compared to the surrounding pixels. In the optical image processing, there is an effect that it can secure the robustness to the ambient light noise.

본 발명은 차영상 적분 알고리즘을 일반적인 프로세서로 구현하지 않고, FPGA와 병렬 메모리 구조를 사용하여 계산시간을 단축하는 효과가 있다.The present invention has the effect of reducing the computation time by using an FPGA and a parallel memory structure without implementing the difference image integration algorithm with a general processor.

도 1은 구조광 영상기반 전 방향 거리측정 장치를 나타낸 구성도이다.
도 2는 본 발명에 따른, 구조광 영상기반 전방향 거리측정 장치의 일 예를 나타낸다.
도 3은 본 발명에 따른, 선형으로 레이저 구조광을 조사하는 일 예이다.
도 4는 본 발명에 따른, 전 방향으로 레이저 구조광을 조사하는 다른 예이다.
도 5는 전방향 거울과 카메라를 포함하는 전방향 영상장치 구조의 수직 단면을 나타낸 것이다.
도 6은 본 발명에 따라, 구조광을 끈 상태와 구조광을 켠 상태에서 차영상법을 이용하여 구조광을 추출하는 것을 나타낸 그림이다.
도 7은 분석부(150)인 구조광 차적분 영상처리 하드웨어의 블록 다이어 그램을 나타낸 것이다.
1 is a block diagram showing a structured light image-based omnidirectional distance measuring apparatus.
2 shows an example of a structured light image-based omnidirectional distance measuring apparatus according to the present invention.
3 is an example of irradiating laser structured light linearly according to the present invention.
4 is another example of irradiating laser structured light in all directions according to the present invention.
5 shows a vertical cross section of a omnidirectional imaging device structure including an omnidirectional mirror and a camera.
FIG. 6 is a diagram illustrating extraction of structured light using a difference imaging method in a state in which structured light is turned off and structured light is turned on according to the present invention.
7 illustrates a block diagram of the structured light integral integration image processing hardware of the analyzer 150.

도 1은 구조광 영상기반 전방향 거리측정 장치를 나타낸 구성도이다.1 is a block diagram showing a structured light image-based omnidirectional distance measuring apparatus.

도 1에 따르면, 전방향 거리측정 장치는 레이저 구조광을 전 방향으로 조사하는 조사부(110), 볼록면형 거울(131)과 카메라(133)를 포함하는 측정부(130) 및 상기 카메라와 상기 물체간의 물체거리를 계산하는 분석부(150)를 포함한다.According to FIG. 1, the omnidirectional distance measuring device includes an irradiation unit 110 for irradiating a laser structured light in all directions, a measuring unit 130 including a convex mirror 131 and a camera 133, the camera and the object. It includes an analysis unit 150 for calculating the distance between objects.

여기서, 조사부(110)는 레이저 소스(111)를 포함하며, 레이저 소스(111)는 점형(point) 레이저 소스이거나, 원형(circular) 레이저 소스일 수 있고, 적색 또는 녹색의 가시광 레이저 소스 또는 적외선 레이저 소스등 주변의 조명과 구분되는 것을 사용할 수 있다. 또, 조사부(110)는 분산 렌즈(113)를 포함할 수도 있다. 조사부(110)를 통해 360도 전방향으로 레이저 구조광을 조사시킨다.Here, the irradiation unit 110 includes a laser source 111, the laser source 111 may be a point laser source or a circular laser source, a red or green visible light laser source or an infrared laser You can use something that separates the light from the source. Also, the irradiator 110 may include a dispersion lens 113. Through the irradiation unit 110 to irradiate the laser structured light in a 360-degree direction.

그리고, 측정부(130)에서는 카메라(133)를 통해 볼록면형 거울(131)로부터 레이저 구조광을 조사하기 전 영상인 배경 영상을 획득하고, 조사부(110)에서 조사된 레이저 구조광이 물체에 반사된 후, 볼록 거울로 입사된 왜곡 영상을 획득한다. 레이저 구조광을 끈 상태에서 영상을 얻고, 켠 상태에서 영상을 얻는 과정을 반복적으로 적용할 경우, 배경 영상과 왜곡 영상을 반복적으로 획득할 수 있다.In addition, the measuring unit 130 obtains a background image which is an image before irradiating the laser structured light from the convex mirror 131 through the camera 133, and the laser structured light irradiated by the irradiator 110 is reflected on the object. Afterwards, a distorted image incident on the convex mirror is obtained. If the process of repeatedly acquiring an image with the laser structure light turned off and obtaining an image with the laser structure light turned off, the background image and the distorted image may be repeatedly obtained.

또, 분석부(150)에서는 반복적으로 획득한 배경 영상과 왜곡 영상과의 차이를 픽셀값을 이용하여 구하고, 차영상 적분 알고리즘을 이용하여 반사된 레이저 구조광의 궤적을 획득한다. 반사된 레이저 구조광의 궤적으로부터 카메라와 물체간의 물체거리를 계산한다.In addition, the analysis unit 150 obtains the difference between the repeatedly obtained background image and the distorted image using pixel values, and obtains the trajectory of the reflected laser structured light using a difference image integration algorithm. The object distance between the camera and the object is calculated from the trajectory of the reflected laser structured light.

도 2는 본 발명에 따른, 구조광 영상기반 전방향 거리측정 장치의 일 예를 나타낸다.2 shows an example of a structured light image-based omnidirectional distance measuring apparatus according to the present invention.

도 2에 따르면, 전방향 거리측정 장치는 레이저 소스(201), 전방향 거울(203), 카메라(205)를 포함할 수 있다. 카메라의 하부에 구조광(207)을 조사하는 레이저 소스(201)가 있으며, 카메라(205)는 수직방향으로 설치될 수 있다. 카메라(205)는 상부에 설치되어 있는 전방향 거울(Omni-directional mirror)(203)을 통해 360도 모든 방향의 영상을 한 장의 화면에 획득할 수 있다. 전방향 거울(203)로서 볼록면형 거울을 이용할 수 있고, 볼록면형 거울은 원뿔면형, 혹은 쌍곡면형 거울등을 포함한다.According to FIG. 2, the omnidirectional distance measuring apparatus may include a laser source 201, an omnidirectional mirror 203, and a camera 205. There is a laser source 201 for irradiating structure light 207 to the bottom of the camera, the camera 205 may be installed in a vertical direction. The camera 205 may acquire an image of all directions in 360 degrees on a single screen through an omni-directional mirror 203 installed at an upper portion thereof. As the omnidirectional mirror 203, a convex mirror can be used, and the convex mirror includes a conical or hyperbolic mirror or the like.

도 3은 본 발명에 따른, 선형으로 레이저 구조광을 조사하는 일 예이다.3 is an example of irradiating laser structured light linearly according to the present invention.

도 3에 따르면, 실린더 렌즈를 통해서 점형 레이저 소스를 선형으로 변환할 수 있다.According to FIG. 3, the point laser source can be converted linearly through the cylinder lens.

일반적으로 레이저 소스는 점(point) 형의 구조광을 생성하므로, 점 형태의 레이저 소스를 선형으로 변환한다. 변환된 선형 레이저는 실린더 렌즈의 특성에 따라 70도 내지 130도로 분산될 수 있다. 분산된 선형 레이저를 복수개 배치하여 360도 전방향을 커버할 수 있도록 할 수 있다. 하나의 선형 레이저가 90도 또는 120도 정도의 영역을 커버하므로, 90도 정도일 때는 4개, 120도 정도일 때는 3개의 선형 레이저를 조합하여 사용함으로써 360도 전방향으로 구조광을 조사할 수 있다.In general, the laser source generates a point-shaped structure light, thereby converting the point-type laser source to a linear. The converted linear laser may be dispersed at 70 degrees to 130 degrees depending on the characteristics of the cylinder lens. A plurality of distributed linear lasers may be arranged to cover the 360 degree omnidirectional direction. Since one linear laser covers an area of about 90 degrees or 120 degrees, it is possible to irradiate structured light in 360 degrees by using four linear lasers at about 90 degrees and three linear lasers at about 120 degrees.

도 4는 본 발명에 따른, 전방향으로 레이저 구조광을 조사하는 다른 예이다.4 is another example of irradiating laser structured light in all directions according to the present invention.

도 4에 따르면, 원뿔형 거울과 원형(circular) 레이저를 이용하여 360도 전방향으로 구조광을 조사시킬 수 있다. 원형의 레이저 소스를 볼록거울에 조사하여 반사시킬 경우 360도 전방향으로 구조광을 조사할 수 있다.According to FIG. 4, the structured light may be irradiated in 360 degrees by using a conical mirror and a circular laser. When a circular laser source is reflected on a convex mirror to reflect the structured light in 360 degree directions.

도 5는 전방향 거울과 카메라를 포함하는 전방향 영상장치 구조의 수직 단면을 나타낸 것이다. 도 5에서는 전방향 거울로 원뿔형 거울을 나타내었지만 포물면형, 쌍곡면형등 어떠한 것도 사용할 수 있다.5 shows a vertical cross section of a omnidirectional imaging device structure including an omnidirectional mirror and a camera. In FIG. 5, a conical mirror is shown as an omnidirectional mirror, but any parabolic, hyperbolic, or the like can be used.

도 5는 레이저가 설치되어 조사되는 축을 기준으로 한 도면으로서,카메라와 볼록면형 거울은 원주방향으로 대칭이다. 카메라는 핀홀과 영상 센서면을 포함하는데, 하부에 설치된 레이저 소스에서 조사되어 주변 물체

Figure pat00001
에서 반사된 레이저 구조광은 볼록면형 거울면에서 다시 반사되어 카메라의 핀홀을 지나 영상 센서면에 상을 맺게 된다. 5 is a view based on an axis on which a laser is installed and irradiated, wherein the camera and the convex mirror are symmetrically in the circumferential direction. The camera includes a pinhole and the image sensor surface, which is irradiated from a laser source installed below
Figure pat00001
The reflected laser structure light is reflected back from the convex mirror surface and passes through the pinhole of the camera to form an image on the image sensor surface.

조사된 구조광은 영상면에서 물체와의 거리에 따른 왜곡을 갖는 성질이 있다. 즉, 거리가 멀수록 영상의 중심에서 멀리 상이 맺히며, 거리가 가까울수록 영상의 중심에 가깝게 상이 맺히게 된다. 이러한 구조광 왜곡의 정도를 분석함으로써 물체거리를 얻을 수 있다. 원뿔각

Figure pat00002
를 갖는 원뿔면(conic)형 거울을 사용하는 경우, 물체거리
Figure pat00003
Figure pat00004
와 같이 볼록면형 거울의 높이
Figure pat00005
, 카메라 핀홀의 높이
Figure pat00006
, 영상면에서 구조광 측정각
Figure pat00007
와 원뿔각
Figure pat00008
의 함수로 표현된다.The irradiated structured light has a property of being distorted according to the distance from the object in the image plane. In other words, the farther the distance is from the center of the image, the closer the distance is from the center of the image. The object distance can be obtained by analyzing the degree of the structure light distortion. Cone angle
Figure pat00002
When using a conic mirror with
Figure pat00003
silver
Figure pat00004
Height of convex mirror
Figure pat00005
, Height of camera pinhole
Figure pat00006
Structured light measurement angle
Figure pat00007
And cone angle
Figure pat00008
It is expressed as a function of.

구체적으로 거리 식

Figure pat00009
는 는 원뿔형 거울을 사용하는 경우, 다음과 같이 얻어진다.·Specifically distance expression
Figure pat00009
When using a conical mirror, is obtained as follows:

Figure pat00010
Figure pat00010

여기서

Figure pat00011
이고,
Figure pat00012
Figure pat00013
Figure pat00014
을 계산하는 과정에서 나타난 매개변수로서, 원뿔형 거울면상의 반사점이고, 다음과 같이 구할 수 있다.here
Figure pat00011
ego,
Figure pat00012
Wow
Figure pat00013
Is
Figure pat00014
This parameter appears in the process of calculating, which is the reflection point on the conical mirror surface, and can be obtained as follows.

Figure pat00015
Figure pat00015

레이저 구조광을 추출하기 위한 방법으로서, 별도의 광학필터를 사용하지 않고 소프트웨어적으로 영상면에서 구조광을 추출하기 위한 차영상처리 알고리즘과 차영상처리 알고리즘을 이용해서 구한 차영상 열을 시간에 따라 누적함으로써 구조광을 더욱 부각시켜 주변 조명잡음에 강인하게 하는 적분 영상처리 알고리즘을 이용할 수 있다.As a method for extracting laser structured light, a difference image sequence obtained by using a difference image processing algorithm and a difference image processing algorithm for extracting structured light from an image plane by software without using a separate optical filter is By accumulating, it is possible to use an integrated image processing algorithm that further highlights the structured light and makes it robust to ambient lighting noise.

도 6은 본 발명에 따라, 구조광을 끈 상태와 구조광을 켠 상태에서 차영상법을 이용하여 구조광을 추출하는 것을 나타낸 그림이다.FIG. 6 is a diagram illustrating extraction of structured light using a difference imaging method in a state in which structured light is turned off and structured light is turned on according to the present invention.

도 6에 따르면, 먼저 구조광를 끈(OFF) 상태에서 영상을 얻고, 다음은 구조광을 켠(ON) 상태에서 영상을 얻는다. 두 영상의 차이를 계산하여 레이저 구조광 성분만을 추출할 수 있다. 두 영상의 차이를 계산할 때, 두 영상의 대응 픽셀값들의 차이를 구하면 된다. 이때, 레이저 구조광이 조사된 부분의 픽셀들만 값이 다르고 나머지 배경 픽셀들은 똑 같은 값을 갖는다. 따라서 두 영상에서 해당 픽셀의 차이를 구하면 배경 픽셀부분은 사라지고 구조광에 해당하는 부분의 픽셀들만 남으므로, 구조광 성분의 영상만을 얻게 된다.According to FIG. 6, an image is first obtained with the structured light turned off, and then an image is obtained with the structured light turned on. The difference between the two images can be calculated to extract only the laser structured light components. When calculating the difference between two images, the difference between corresponding pixel values of two images may be obtained. At this time, only the pixels of the portion irradiated with the laser structure light have different values, and the other background pixels have the same value. Therefore, if the difference between the corresponding pixels in the two images is obtained, the background pixel portion disappears and only the pixels of the portion corresponding to the structured light remain, so that only the image of the structured light component is obtained.

그런데, 레이저 구조광 조명이 밝지 않은 경우 차 영상법으로 구한 구조광 영상에서 구조광 픽셀들의 값이 주변 픽셀에 비해 크지 않을 수 있고, 따라서 이후의 거리계산을 위한 영상처리 과정 또한 조명 잡음에 영향을 받을 수 있다.However, when the laser structured light is not bright, the values of the structured light pixels in the structured light image obtained by the difference imaging method may not be larger than those of the surrounding pixels. I can receive it.

구조광 차영상 적분 알고리즘은 구조광 차영상열을 시간에 따라 픽셀별로 누적 적분함으로써 구조광 픽셀을 주변 픽셀에 비해 상대적으로 부각시켜서 주변 조명잡음에 강인한 구조광 영상을 구하는 방법이다. 차영상 적분 알고리즘은 매우 단순한 픽셀별 연산으로 이루어져 있기 때문에 하드웨어로 구현하는데 적합하다. 구조광 모듈레이션과 동기화된 영상획득 및 차영상 적분 알고리즘을 FPGA(field-programmable gate array) 하드웨어로 구현할 경우 매우 빠르고 효율적인 처리가 가능한 구조광 영상처리 하드웨어를 구현할 수 있다.The structured light difference image integration algorithm accumulates the structured light difference image sequence for each pixel over time, thereby obtaining a structured light image that is robust to ambient light noise by highlighting the structured light pixels relative to the surrounding pixels. The difference image integration algorithm is suitable for hardware implementation because it consists of very simple pixel-by-pixel operations. When the image acquisition and differential image integration algorithm synchronized with the structured light modulation is implemented by field-programmable gate array (FPGA) hardware, structured light image processing hardware that can be processed very quickly and efficiently can be implemented.

도 7은 분석부(150)인 구조광 차영상 적분 하드웨어의 블록 다이어그램을 나타낸 것이다.7 illustrates a block diagram of the structured light difference image integration hardware of the analyzer 150.

도 7에 따르면, 카메라 인터페이스 모듈(Camera Interface Module,730)을 통해서 영상 신호를 입력받는다. 입력받은 신호를 FPGA(720)에서 분석하고, 마이크로 프로세서와 같은 프로세서(Processor,740)에서 거리 값을 계산한다.According to FIG. 7, an image signal is received through a camera interface module 730. The input signal is analyzed by the FPGA 720 and a distance value is calculated by a processor 740 such as a microprocessor.

M1(710), M2(711), M3(712), M4(713)는 영상 메모리를 의미한다. FPGA(filed-progrmmable gate array,720)에서 상기 영상 메모리를 이용하여 차적분 영상을 획득한다. 구조광을 켰다 껐다를 반복하면서 영상을 얻을 때, 입력영상들에서 구조광이 켜진 상태에서의 영상을 짝수번째 영상, 즉 I(0), I(2)·등으로 나타낼 수 있고, 구조광이 꺼진 상태에서의 영상을 홀수번째 영상, 즉 I(1), I(3)·등으로 나타낼 수 있다.M1 710, M2 711, M3 712, and M4 713 mean an image memory. In a filed-progrmmable gate array (FPGA) 720, a differential integral image is obtained using the image memory. When the structure light is repeatedly turned on and off, the image with the structure light turned on in the input images may be represented as an even number image, that is, I (0), I (2), etc. The image in the off state can be represented by an odd number image, i.e., I (1), I (3).

먼저 구조광을 켠(ON) 상태에서 영상, I(0)을 얻어서 메모리 M1에 저장한다.First, the image, I (0), is obtained and stored in the memory M1 while the structured light is turned on.

다음으로 구조광을 끈(OFF) 상태에서 영상, I(1)을 받아서 M1에 있는 영상에서 이 값을 뺀 후(M1 - I(1)= I(0)-I(1)), 이 값을 다시 M2 메모리에 저장한다.Next, take the image, I (1), with the structure light off and subtract this value from the image on M1 (M1-I (1) = I (0) -I (1)). To the M2 memory again.

이어서 다시 구조광을 켠(ON) 영상, I(2)를 받아서 M1에 저장하고, Then we take the structure light again, I (2) and store it in M1,

구조광을 끈(OFF) 영상, I(3)를 받아서 M1 메모리에 있는 영상에서 뺀 후(M1-I(3)= I(2)-I(3)), 이 값을 M2 메모리에 있는 영상, 즉 I(0)-I(1)과 더하여 M3에 저장한다. M3에는 I(2)-I(3) +I(0)-I(1) 영상이 남아 있게 된다. 즉 M3에는 두 번의 차영상을 적분한 영상이 남는다.OFF image of structured light, take I (3) and subtract it from the image in M1 memory (M1-I (3) = I (2) -I (3)), then take this value from M2 memory , I.e., I (0) -I (1) and store in M3. In M3, an image of I (2) -I (3) + I (0) -I (1) remains. In other words, an image integrating two difference images remains in M3.

다시 구조광을 켠(ON) 영상, I(4)를 받아서 M1에 저장하고,Take the structure light again, I (4) and store it in M1,

구조광을 끈(OFF) 영상, I(5)를 받아서 M1 메모리에 있는 영상에서 뺀 후 (M1-I(5) = I(4)-I(5)), 이 값을 M3 메모리에 있는 영상, 즉 I(2)-I(3)+I(0)-I(1)과 더하여 M2에 저장한다. M2에는 I(4)-I(5)+I(2)-I(3)+I(0)-I(1) 영상이 남아 있게 된다. 즉 세 번의 차영상을 적분한 영상이 남는다.OFF image of structured light, take I (5) and subtract it from the image in M1 memory (M1-I (5) = I (4) -I (5)), this value in M3 memory I.e., I (2) -I (3) + I (0) -I (1) and store in M2. In M2, an image of I (4) -I (5) + I (2) -I (3) + I (0) -I (1) remains. In other words, an image integrating three difference images remains.

이어서 구조광을 켠(ON) 영상, I(6)를 받아서 M1에 저장하고,Then we take the structured light on, I (6) and store it in M1,

구조광을 끈(OFF) 영상, I(7)을 받아서 M1 메모리에 있는 영상에서 뺀 후 (M1-I(7) = I(6)-I(7)), 이 값을 M2 메모리에 있는 영상, 즉 I(4)-I(5)+I(2)-I(3)+I(0)-I(1)과 더하여 M3에 저장한다. M3에는 I(6)-I(7)+ I(4)-I(5)+I(2)-I(3)+I(0)-I(1) 영상이 남아 있게 된다. 즉 네 번의 차영상을 적분한 영상이 남는다.OFF image of structured light, take I (7) and subtract it from the image in M1 memory (M1-I (7) = I (6) -I (7)), this value in M2 memory In other words, I (4) -I (5) + I (2) -I (3) + I (0) -I (1) and store in M3. In M3, images of I (6) -I (7) + I (4) -I (5) + I (2) -I (3) + I (0) -I (1) remain. In other words, an image integrating four difference images remains.

이어서 구조광을 켠(ON) 영상, I(8)을 받아서 M1에 저장하고,Then we take the structured light on, I (8) and store it in M1,

구조광을 끈(OFF) 영상, I(9)를 받아서 M1 메모리에 있는 영상에서 뺀 후 (M1-I(9) = I(8)-I(9)), 이 값을 M3 메모리에 있는 영상, 즉 I(6)-I(7)+ I(4)-I(5)+I(2)-I(3)+I(0)-I(1)과 더하여 M4에 저장한다. M4에는 I(8)-I(9)+ I(6)-I(7)+ I(4)-I(5)+I(2)-I(3)+I(0)-I(1) 영상이 남아 있게 된다. 즉 다섯 번의 차영상을 적분한 영상이 남는다.OFF image of structured light, take I (9) and subtract it from the image in M1 memory (M1-I (9) = I (8) -I (9)), this value in M3 memory That is, I (6) -I (7) + I (4) -I (5) + I (2) -I (3) + I (0) -I (1) and store in M4. M4 contains I (8) -I (9) + I (6) -I (7) + I (4) -I (5) + I (2) -I (3) + I (0) -I (1 ) The image will remain. In other words, an image integrating five difference images is left.

이러한 과정을 통해서 다섯 번의 차영상을 적분할 경우 충분히 잡음과 구별되는 값을 얻을 수 있다. M4(1), M4(2), 두 개의 M4 메모리를 이용하여 차영상 적분을 구현할 수 있다.Through this process, if the five difference images are integrated, a value sufficiently different from noise can be obtained. Differential image integration can be implemented using M4 (1), M4 (2) and two M4 memories.

M4(1)에 다섯 번 차적분한 영상 데이터가 저장되면, 프로세서(740)를 이용하여 거리값을 계산한다. 프로세서(740)에서 거리계산 처리를 하는 동안 FPGA(720)는 M4(2)를 이용하여 차적분 영상을 획득한다. M4(2)에 차적분한 영상이 저장되어 프로세서(740)로 거리값을 계산할 경우, M4(1)을 이용하여 다시 차적분한 영상 데이터를 저장한다. 이러한 과정을 반복함으로써 차적분 영상획득과 거리 계산을 병렬적으로 처리할 수 있다.When the image data, which is integrated five times in M4 (1), is stored, the distance value is calculated using the processor 740. During the distance calculation process in the processor 740, the FPGA 720 acquires a difference integral image using M4 (2). When the image integrally stored in M4 (2) is stored and the distance value is calculated by the processor 740, the image data integrally stored again is stored using M4 (1). By repeating this process, the differential integral image acquisition and the distance calculation can be processed in parallel.

차영상을 얻는 연산과, 차영상을 적분 하는 연산은 픽셀 별로 행하는 매우 단순한 연산이며, 또한 FPGA(field-programmable gate array,720)와 병렬 메모리 구조에서 차영상 획득 과정과 차영상 적분 연산과정을 병렬적으로 처리할 수 있기 때문에 전체적으로 매우 빠르고 효율적으로 영상획득과 차적분 연산을 수행할 수 있다.The operation of acquiring the difference image and the operation of integrating the difference image are very simple operations performed on a pixel-by-pixel basis, and also parallel to the difference image acquisition process and the difference image integration process in an FPGA (field-programmable gate array) 720 parallel memory structure. Because of this, it is possible to perform image acquisition and difference integration operation very quickly and efficiently as a whole.

만일 일반적인 마이크로프로세서나 컴퓨터로 위와 같은 영상처리 알고리즘을 적용하고자 한다면, 영상획득 과정과 차적분 연산과정을 병렬적으로 처리할 수 없고 또한 직렬구조의 메모리를 갖기 때문에 전체적인 처리과정이 매우 느리게 될 것이므로 FPGA 또는 병렬 메모리 구조의 하드웨어를 이용하는 것이 더 효과가 있다.If you want to apply the above image processing algorithm with a general microprocessor or computer, the whole process will be very slow because you cannot process the image acquisition process and the differential integration process in parallel and also have serial memory. Alternatively, the hardware of the parallel memory structure is more effective.

상술한 예에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타낸 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the above example, the methods are described based on a flowchart as a series of steps or blocks, but the present invention is not limited to the order of steps, and any steps may occur in a different order or simultaneously from other steps as described above. . In addition, those skilled in the art will appreciate that the steps shown in the flowcharts are not exclusive and that other steps may be included or one or more steps in the flowcharts may be deleted without affecting the scope of the present invention.

상술한 실시 예들은 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. While it is not possible to describe every possible combination for expressing various aspects, one of ordinary skill in the art will recognize that other combinations are possible. Accordingly, it is intended that the invention include all alternatives, modifications and variations that fall within the scope of the following claims.

Claims (11)

레이저 구조광을 전 방향으로 조사하는 조사부;
볼록면형 거울과 카메라를 포함하고, 상기 카메라를 이용하여 상기 볼록면형 거울로부터 배경 영상을 반복적으로 획득하고, 상기 레이저 구조광이 물체에 반사된 후 상기 볼록면형 거울로 입사된 왜곡 영상을 반복적으로 획득하는 측정부; 및
반복적으로 획득한 상기 배경 영상과 상기 왜곡 영상으로부터 차영상 적분 알고리즘을 이용하여 반사된 상기 레이저 구조광의 궤적을 획득하고, 상기 카메라와 상기 물체간의 물체거리를 계산하는 분석부를 포함하는, 전방향 거리 측정 장치.
An irradiation unit for irradiating the laser structured light in all directions;
And a convex mirror and a camera, and repeatedly acquire a background image from the convex mirror using the camera, and repeatedly acquire a distorted image incident on the convex mirror after the laser structure light is reflected by an object. Measuring unit; And
Omnidirectional distance measurement from the repeatedly obtained background image and the distorted image to obtain a trajectory of the laser structured light reflected by the difference image integration algorithm, and to calculate the object distance between the camera and the object Device.
제 1 항에 있어서,
상기 조사부는 점형 레이저를 복수의 선형 레이저로 분산시키는 복수의 분산 렌즈를 포함하고,
상기 복수의 분산렌즈 각각에서 분산되는 상기 복수의 선형 레이저는 70 내지 120도 사이의 각도로 조사되고,
상기 복수의 분산렌즈 각각에서 분산되는 상기 복수의 선형 레이저 중 일부 또는 전부를 서로 다른 각도를 갖도록 배치하여,
상기 복수의 분산렌즈에서 조사되는 선형 레이저들로 전 방향으로 조사되는 상기 레이저 구조광을 형성하는, 전방향 거리 측정 장치.
The method of claim 1,
The irradiation unit includes a plurality of dispersion lenses for dispersing the point laser into a plurality of linear lasers,
The plurality of linear lasers distributed in each of the plurality of dispersion lenses are irradiated at an angle between 70 and 120 degrees,
Some or all of the plurality of linear lasers dispersed in each of the plurality of dispersion lenses are arranged to have different angles,
And forming the laser structured light irradiated in all directions with the linear lasers irradiated from the plurality of dispersion lenses.
제 1 항에 있어서,
상기 조사부는 원형 레이저 소스를 포함하고,
상기 원형 레이저 소스로부터 나오는 원형 레이저를 상기 볼록면형 거울에 조사하여 전 방향으로 조사되는 상기 레이저 구조광을 형성하는, 전방향 거리 측정 장치.
The method of claim 1,
The irradiator comprises a circular laser source,
And a circular laser emitted from the circular laser source to the convex mirror to form the laser structured light irradiated in all directions.
제 1 항에 있어서,
상기 볼록면형 거울은 원뿔면형 거울이고,
상기 분석부는
Figure pat00016
을 통해서 물체거리를 구하는 전 방향 거리 측정 장치.
여기서, 카메라와 물체간의 물체거리
Figure pat00017
은 볼록면형 거울의 높이
Figure pat00018
, 카메라 핀홀의 높이
Figure pat00019
, 영상면에서 구조광 측정각
Figure pat00020
와 원뿔각
Figure pat00021
의 함수이다.
Figure pat00022
이고,
Figure pat00023
Figure pat00024
는 다음과 같이 구할 수 있다.
Figure pat00025
The method of claim 1,
The convex mirror is a conical mirror,
The analysis unit
Figure pat00016
Omnidirectional distance measuring device for finding object distance through
Where the object distance between the camera and the object
Figure pat00017
Height of convex mirror
Figure pat00018
, Height of camera pinhole
Figure pat00019
Structured light measurement angle
Figure pat00020
And cone angle
Figure pat00021
Is a function of.
Figure pat00022
ego,
Figure pat00023
Wow
Figure pat00024
Can be obtained as
Figure pat00025
제 1 항 있어서,
상기 분석부는 상기 반복적으로 획득한 상기 배경 영상의 픽셀 값들과 상기 왜곡 영상의 픽셀 값들의 차이를 누적적으로 계산하여, 반사된 상기 레이저 구조광의 궤적을 획득하는, 전방향 거리 측정 장치.
The method of claim 1,
And the analyzing unit accumulatively calculates a difference between pixel values of the background image and the pixel values of the distorted image, which are repeatedly obtained, to obtain a trajectory of the reflected laser structured light.
레이저 구조광을 전 방향으로 조사하는 단계,
상기 레이저 구조광을 조사하기 전 영상인 배경 영상을 카메라를 이용하여 획득하는 단계,
상기 레이저 구조광이 물체에 반사된 후의 영상인 왜곡 영상을 상기 카메라를 이용하여 획득하는 단계,
상기 배경 영상과 상기 왜곡 영상을 반복적으로 획득하여 복수의 배경 영상과 복수의 왜곡 영상을 획득하는 단계,
상기 복수의 배경 영상과 상기 복수의 왜곡 영상의 차이를 적분하여 반사된 상기 레이저 구조광의 궤적을 획득하는 단계; 및
반사된 상기 레이저 구조광의 궤적으로부터 상기 카메라와 상기 물체간의 물체거리를 계산하는 단계를 포함하는, 전 방향 거리 측정 방법.
Irradiating the laser structured light in all directions,
Acquiring a background image, which is an image before irradiating the laser structure light, by using a camera;
Acquiring a distorted image which is an image after the laser structure light is reflected by an object by using the camera;
Acquiring a plurality of background images and a plurality of distortion images by repeatedly obtaining the background image and the distortion image;
Acquiring a trajectory of the reflected laser structured light by integrating the difference between the plurality of background images and the plurality of distorted images; And
And calculating an object distance between the camera and the object from the trajectory of the reflected laser structured light.
제 6 항에 있어서,
점형 레이저를 복수의 선형 레이저로 분산시키고,
상기 복수의 선형 레이저 일부 또는 전부를 서로 다른 각도를 갖도록 배치하여, 전 방향으로 조사되는 상기 레이저 구조광을 형성하는, 전 방향 거리 측정 방법.
The method according to claim 6,
Scatter the point laser into a plurality of linear lasers,
A part or all of the plurality of linear lasers are arranged to have different angles to form the laser structured light irradiated in all directions.
제 6 항에 있어서,
원형 레이저를 볼록면형 거울에 조사하여, 전 방향으로 조사되는 상기 레이저 구조광을 형성하는, 전 방향 거리 측정 방법.
The method according to claim 6,
And a circular laser is irradiated to the convex mirror to form the laser structured light irradiated in all directions.
제 6 항에 있어서,
상기 복수의 배경 영상과 상기 복수의 왜곡 영상 각각의 차이를 누적적으로 계산하여, 반사된 상기 레이저 구조광의 궤적을 획득하는, 전 방향 거리 측정 방법.
The method according to claim 6,
And cumulatively calculating a difference between each of the plurality of background images and the plurality of distorted images to obtain a trajectory of the reflected laser structured light.
제 9 항에 있어서,
상기 복수의 배경 영상의 픽셀 값들과 상기 복수의 왜곡 영상 각각의 픽셀 값들의 차이를 누적적으로 계산하여, 반사된 상기 레이저 구조광의 궤적을 획득하는, 전 방향 거리 측정 방법.
The method of claim 9,
And cumulatively calculating a difference between pixel values of the plurality of background images and pixel values of each of the plurality of distorted images to obtain a trajectory of the reflected laser structured light.
레이저 구조광을 조사하기 전 영상인 배경 영상과 상기 레이저 구조광이 물체에 반사된 후의 영상인 왜곡 영상을 반복적으로 획득하는 카메라 인터페이스 모듈,
상기 카메라 인터페이스 모듈을 이용하여 반복적으로 획득한 상기 배경 영상의 픽셀값과 상기 왜곡 영상의 픽셀값을 저장하는 복수의 메모리,
상기 복수의 메모리를 이용하여 상기 배경 영상의 픽셀값과 상기 왜곡 영상의 픽셀값의 차이값을 적분하는 FPGA(filed-programmable gate array),
상기 FPGA에서 적분한 상기 배경 영상의 픽셀값과 상기 왜곡 영상의 픽셀값의 차이값으로부터 반사된 상기 레이저 구조광의 궤적을 획득하고, 반사된 상기 레이저 구조광의 궤적을 이용하여 상기 카메라 인터페이스 모듈과 상기 물체간의 물체거리를 계산하는 프로세서를 포함하는 차영상 적분 알고리즘 처리 하드웨어.
A camera interface module for repeatedly acquiring a background image which is an image before irradiating laser structure light and a distortion image which is an image after the laser structure light is reflected by an object;
A plurality of memories configured to store pixel values of the background image and pixel values of the distorted image repeatedly acquired by using the camera interface module;
A filed-programmable gate array (FPGA) for integrating a difference between a pixel value of the background image and a pixel value of the distorted image using the plurality of memories;
Acquiring the trajectory of the laser structured light reflected from the difference between the pixel value of the background image and the pixel value of the distorted image integrated in the FPGA, and using the trajectory of the reflected laser structured light, the camera interface module and the object. Differential image integration algorithm processing hardware comprising a processor for calculating the object distance between.
KR1020100043748A 2010-05-11 2010-05-11 Omni-directional distance measurement device and method based on structured light using difference image integral calculus algorithm KR101138222B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100043748A KR101138222B1 (en) 2010-05-11 2010-05-11 Omni-directional distance measurement device and method based on structured light using difference image integral calculus algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100043748A KR101138222B1 (en) 2010-05-11 2010-05-11 Omni-directional distance measurement device and method based on structured light using difference image integral calculus algorithm

Publications (2)

Publication Number Publication Date
KR20110124409A true KR20110124409A (en) 2011-11-17
KR101138222B1 KR101138222B1 (en) 2012-04-24

Family

ID=45394158

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100043748A KR101138222B1 (en) 2010-05-11 2010-05-11 Omni-directional distance measurement device and method based on structured light using difference image integral calculus algorithm

Country Status (1)

Country Link
KR (1) KR101138222B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3932414B2 (en) * 1995-10-09 2007-06-20 直敬 五十嵐 Object position / movement detection method and detection apparatus
US7522745B2 (en) 2000-08-31 2009-04-21 Grasso Donald P Sensor and imaging system
JP4010444B2 (en) 2002-02-28 2007-11-21 シャープ株式会社 Omnidirectional monitoring control system, omnidirectional monitoring control method, and omnidirectional monitoring control program

Also Published As

Publication number Publication date
KR101138222B1 (en) 2012-04-24

Similar Documents

Publication Publication Date Title
CN109477710B (en) Reflectance map estimation for point-based structured light systems
JP6855587B2 (en) Devices and methods for acquiring distance information from a viewpoint
US20170059305A1 (en) Active illumination for enhanced depth map generation
KR101652393B1 (en) Apparatus and Method for obtaining 3D image
US9797716B2 (en) Estimating surface properties using a plenoptic camera
JP6467776B2 (en) Ranging system, information processing apparatus, information processing method, and program
JP6364777B2 (en) Image data acquisition system and image data acquisition method
JP2023503517A (en) Depth measurement with display
JP6435661B2 (en) Object identification system, information processing apparatus, information processing method, and program
WO2020066637A1 (en) Depth acquisition device, depth acquisition method, and program
CN111047650B (en) Parameter calibration method for time-of-flight camera
KR102254627B1 (en) High throughput and low cost height triangulation system and method
WO2022126870A1 (en) Three-dimensional imaging method and method based on light field camera and three-dimensional imaging measuring production line
US10671857B2 (en) Methods and systems for video surveillance
JP2023512280A (en) Detector for object recognition
JP6772639B2 (en) Parallax calculation system, mobiles and programs
CN112254902A (en) Method and device for generating three-dimensional laser point cloud picture based on laser and visible light scanning
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
KR101138222B1 (en) Omni-directional distance measurement device and method based on structured light using difference image integral calculus algorithm
KR102645539B1 (en) Apparatus and method for encoding in a structured depth camera system
JP7262064B2 (en) Ranging Imaging System, Ranging Imaging Method, and Program
US20200320725A1 (en) Light projection systems
JP7259660B2 (en) Image registration device, image generation system and image registration program
WO2021122641A1 (en) Time-of-flight imaging circuitry, time-of-flight imaging system, time-of-flight imaging method
KR101901774B1 (en) Apparatus for inspecting motile of sperm

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160324

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180410

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190327

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20200304

Year of fee payment: 9