KR101138222B1 - 전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법 - Google Patents

전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법 Download PDF

Info

Publication number
KR101138222B1
KR101138222B1 KR1020100043748A KR20100043748A KR101138222B1 KR 101138222 B1 KR101138222 B1 KR 101138222B1 KR 1020100043748 A KR1020100043748 A KR 1020100043748A KR 20100043748 A KR20100043748 A KR 20100043748A KR 101138222 B1 KR101138222 B1 KR 101138222B1
Authority
KR
South Korea
Prior art keywords
structured light
image
laser
camera
reflected
Prior art date
Application number
KR1020100043748A
Other languages
English (en)
Other versions
KR20110124409A (ko
Inventor
이수영
김성도
홍영진
이정우
서진호
Original Assignee
재단법인 포항지능로봇연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 포항지능로봇연구소 filed Critical 재단법인 포항지능로봇연구소
Priority to KR1020100043748A priority Critical patent/KR101138222B1/ko
Publication of KR20110124409A publication Critical patent/KR20110124409A/ko
Application granted granted Critical
Publication of KR101138222B1 publication Critical patent/KR101138222B1/ko

Links

Images

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

레이저 구조광을 이용하여 모든 방향의 주변물체까지의 거리를 구하기 위하여 전방향 거울과 카메라로 구성된 전방향 영상장치 및 구조광 차영상 열을 반복적으로 적분하는 알고리즘을 사용하는 전 방향 거리 측정 장치가 개시된다.
전 방향 거리 측정 장치는 레이저 구조광을 전 방향으로 조사하는 조사부; 볼록면형 거울과 카메라를 포함하고, 상기 카메라는 상기 볼록면형 거울로부터 배경 영상을 획득하고, 상기 조사부에서 조사된 상기 레이저 구조광이 물체에 반사된 후 반사된 상기 레이저 구조광이 상기 볼록면형 거울로 입사된 왜곡 영상을 반복적으로 획득하는 측정부; 및 상기 배경 영상과 상기 왜곡 영상으로부터 차영상을 구하고 이를 반복적으로 적분함으로써 반사된 상기 레이저 구조광의 궤적을 획득하고, 반사된 상기 레이저 구조광의 궤적으로부터 상기 카메라와 상기 물체간의 물체거리를 계산하는 분석부를 포함한다.
차영상을 얻어서 적분 하는 연산을 FPGA와 병렬 메모리 구조에서 병렬적으로 처리할 수 있기 때문에 빠르고 효율적이다.

Description

전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법{Omni-directional distance measurement device and method based on structured light using difference image integral calculus algorithm}
본 발명은 레이저 구조광 영상 기반 전방향 거리측정에 관한 것으로, 보다 상세하게는 차영상 적분 알고리즘을 고려한 거리측정 장치 및 방법에 관한 것이다.
이동로봇이나 공장내의 무인 반송차와 같은 이동체가 자율적으로 주행하기 위해서는 이동체 주변에 있는 물체들까지의 거리를 측정할 수 있는 거리측정 센서가 필요하다. 주변물체까지의 거리정보는 단지 장애물이 있는지 여부뿐만 아니라, 미리 알고 있는 전역 물체지도 데이터베이스와의 정합을 통해 이동체 자신의 현재 위치를 추정하는데 쓰일 수 있으며, 또한 이동체 주변의 국부 지도들을 점증적으로 연결하여 통합함으로써 전역 물체지도를 만드는데 활용할 수도 있다.
단지 현재 이동하고자 하는 방향에 장애물이 있는지 여부뿐만 아니라, 어느 방향으로 이동할 수 있는 지를 판단하거나, 또는 국부지도작성으로 이동체의 현재 위치를 추정하기 위해서는 이동체의 현재 위치에서 가능한 한 넓은 방향의 거리 정보를 얻을 수 있어야 한다. 일반적으로 거리측정 센서들은 한 방향의 거리만을 측정하므로, 넓은 방향의 거리정보를 얻기 위해서 이러한 거리측정 센서들을 원주형으로 여러 개 배열하거나, 혹은 하나의 거리측정 센서를 기계적으로 스캔하는 방법을 사용한다. 그러나 이러한 방법들은 가격이 비싸고, 광각의 거리정보를 얻는데 많은 시간이 걸린다는 문제점이 있다.
또한 거리를 측정하는 방법에는 두 대의 카메라를 이용하여 두 영상면에 나타나는 동일점에 대해 삼각법을 적용하여 거리를 구하는 방법(예를 들면, 스테레오 카메라), 초음파나 전자기파와 같은 파동을 물체에 발사하고 반사되어 돌아오기까지의 체공시간(Time-Of-Flight;TOF)을 측정함으로써 거리를 계측하는 방법, 그리고 구조광 영상기반 방법을 이용하는 방법이 있다. 구조광 영상기반 방법은 가시광 레이저, 혹은 적외선 레이저와 같이 주변조명과 구분되는 구조광을 물체에 조사하고, 반사된 빛을 카메라 영상으로 획득하여 물체거리에 따른 왜곡을 분석함으로써 거리를 계산하는 방법이다.
두 대의 카메라를 이용하는 스테레오 영상방법은 영상면에서 동일점을 찾는 대응점 문제가 매우 많은 계산시간을 필요하므로 거리정보 획득 속도가 느리고, 주변 조명잡음에 매우 약하다는 문제점이 있으며, 파동의 체공시간을 측정하는 방법은 매우 정밀한 전자회로를 필요로 하므로 값이 비싸며, 또한 기본적으로 한 방향의 거리만을 측정하는 방법이라는 문제점이 있다.
이에 따라, 360도 전방향으로 구조광을 조사하고, 주변물체에 반사된 구조광을 전방향 거울을 이용하여 한 장의 카메라 영상으로 획득함으로써 빠르고 효율적으로 360도 전방향의 거리를 측정할 수 있는 구조광 영상기반 방법을 이용한 장치 및 방법이 필요하다.
한편, 구조광 영상은 햇빛이나 형광등의 밝기 등 주변조명의 영향을 많이 받기 때문에 결과적으로 얻어지는 물체거리 정보가 조명잡음에 민감하다는 문제점이 있다. 구조광 영상에서 구조광을 따로 추출하기 위한 종래 기술로 광학필터를 사용하는 방법이 있다. 예를 들어, 650nm의 파장을 갖는 적색 레이저를 구조광 소스로 사용하는 경우 650nm의 파장만을 통과시키는 광학필터를 사용하여 구조광 이외의 영상은 거르고, 구조광만을 통과시킴으로써 영상면에서 구조광을 추출할 수 있다. 일반적으로 많이 사용하는 780nm의 파장을 갖는 적외선 레이저를 구조광 소스로 사용하는 경우도 마찬가지다. 그러나 이 방법은 별도의 필터를 사용하는데 따르는 비용부담이 있고, 또한 햇빛이나 형광등에 구조광과 같은 파장대의 빛 성분을 갖는 경우에 이 성분들이 그대로 영상잡음으로 나타난다는 문제점이 있다.
따라서, 물체가 포함된 영상에서 배경영상을 제외하고 물체 영상만을 추출하는 방법을 이용하여, 영상면에서 구조광 부분만을 추출하기 위한 장치 및 방법이 필요하다.
본 발명이 이루고자 하는 기술적 과제는, 360도 전방향으로 구조광을 조사하고, 주변 물체에 반사된 구조광을 전방향 거울을 이용하여 한 장의 카메라 영상으로 획득함으로써 매우 빠르고 효율적으로 360도 전방향의 거리를 측정하되, 주변 조명잡음에 강인하며, 매우 빠르고 효율적인 처리가 가능한 전방향 구조광 영상처리 하드웨어를 개발하는 것이다.
본 발명에 따른 전 방향 거리 측정 장치는, 레이저 구조광을 전 방향으로 조사하는 조사부; 볼록면형 거울과 카메라를 포함하고, 상기 카메라는 상기 볼록면형 거울로부터 배경 영상을 획득하고, 상기 조사부에서 조사된 상기 레이저 구조광이 물체에 반사된 후 반사된 상기 레이저 구조광이 상기 볼록면형 거울로 입사된 왜곡 영상을 반복적으로 획득하는 측정부; 및 상기 배경 영상과 상기 왜곡 영상의 차영상을 이용하여 반사된 상기 레이저 구조광의 궤적을 획득하고, 반사된 상기 레이저 구조광의 궤적으로부터 상기 카메라와 상기 물체간의 물체거리를 계산하는 분석부를 포함한다.
본 발명에 따른 전 방향 거리 측정 방법은, 레이저 구조광을 전 방향으로 조사하는 단계, 상기 레이저 구조광을 조사하기 전 영상인 배경 영상을 획득하는 단계, 상기 조사된 레이저 구조광이 물체에 반사된 후의 영상인 왜곡 영상을 상기 카메라를 통해 반복적으로 획득하는 단계, 반복적으로 획득한 상기 배경 영상과 상기 왜곡 영상의 차이를 적분하여 반사된 상기 레이저 구조광의 궤적을 획득하는 단계와 반사된 상기 레이저 구조광의 궤적으로부터 상기 카메라와 상기 물체간의 물체거리를 계산하는 단계를 포함한다.
본 발명은 360도 모든 방향으로 레이저 구조광을 조사하는 조사부와 볼록면형 거울과 한 대의 카메라를 통해 영상을 획득하는 측정부를 이용하여 360도 모든 방향의 물체거리를 한번에 측정할 수 있는 효과가 있다.
본 발명은 구조광 영상에서 별도의 광학필터 없이 구조광 픽셀을 추출할 수 있으므로 경제적인 효과가 있으며, 또한 구조광 차영상열을 시간에 따라 반복적으로 적분하여 구조광 픽셀을 주변 픽셀에 비해 강화시킴으로써 구조광 영상처리에 있어서 주변 조명잡음에 대한 강인성을 확보할 수 있다는 효과가 있다.
본 발명은 차영상 적분 알고리즘을 일반적인 프로세서로 구현하지 않고, FPGA와 병렬 메모리 구조를 사용하여 계산시간을 단축하는 효과가 있다.
도 1은 구조광 영상기반 전 방향 거리측정 장치를 나타낸 구성도이다.
도 2는 본 발명에 따른, 구조광 영상기반 전방향 거리측정 장치의 일 예를 나타낸다.
도 3은 본 발명에 따른, 선형으로 레이저 구조광을 조사하는 일 예이다.
도 4는 본 발명에 따른, 전 방향으로 레이저 구조광을 조사하는 다른 예이다.
도 5는 전방향 거울과 카메라를 포함하는 전방향 영상장치 구조의 수직 단면을 나타낸 것이다.
도 6은 본 발명에 따라, 구조광을 끈 상태와 구조광을 켠 상태에서 차영상법을 이용하여 구조광을 추출하는 것을 나타낸 그림이다.
도 7은 분석부(150)인 구조광 차적분 영상처리 하드웨어의 블록 다이어 그램을 나타낸 것이다.
도 1은 구조광 영상기반 전방향 거리측정 장치를 나타낸 구성도이다.
도 1에 따르면, 전방향 거리측정 장치는 레이저 구조광을 전 방향으로 조사하는 조사부(110), 볼록면형 거울(131)과 카메라(133)를 포함하는 측정부(130) 및 상기 카메라와 상기 물체간의 물체거리를 계산하는 분석부(150)를 포함한다.
여기서, 조사부(110)는 레이저 소스(111)를 포함하며, 레이저 소스(111)는 점형(point) 레이저 소스이거나, 원형(circular) 레이저 소스일 수 있고, 적색 또는 녹색의 가시광 레이저 소스 또는 적외선 레이저 소스등 주변의 조명과 구분되는 것을 사용할 수 있다. 또, 조사부(110)는 분산 렌즈(113)를 포함할 수도 있다. 조사부(110)를 통해 360도 전방향으로 레이저 구조광을 조사시킨다.
그리고, 측정부(130)에서는 카메라(133)를 통해 볼록면형 거울(131)로부터 레이저 구조광을 조사하기 전 영상인 배경 영상을 획득하고, 조사부(110)에서 조사된 레이저 구조광이 물체에 반사된 후, 볼록 거울로 입사된 왜곡 영상을 획득한다. 레이저 구조광을 끈 상태에서 영상을 얻고, 켠 상태에서 영상을 얻는 과정을 반복적으로 적용할 경우, 배경 영상과 왜곡 영상을 반복적으로 획득할 수 있다.
또, 분석부(150)에서는 반복적으로 획득한 배경 영상과 왜곡 영상과의 차이를 픽셀값을 이용하여 구하고, 차영상 적분 알고리즘을 이용하여 반사된 레이저 구조광의 궤적을 획득한다. 반사된 레이저 구조광의 궤적으로부터 카메라와 물체간의 물체거리를 계산한다.
도 2는 본 발명에 따른, 구조광 영상기반 전방향 거리측정 장치의 일 예를 나타낸다.
도 2에 따르면, 전방향 거리측정 장치는 레이저 소스(201), 전방향 거울(203), 카메라(205)를 포함할 수 있다. 카메라의 하부에 구조광(207)을 조사하는 레이저 소스(201)가 있으며, 카메라(205)는 수직방향으로 설치될 수 있다. 카메라(205)는 상부에 설치되어 있는 전방향 거울(Omni-directional mirror)(203)을 통해 360도 모든 방향의 영상을 한 장의 화면에 획득할 수 있다. 전방향 거울(203)로서 볼록면형 거울을 이용할 수 있고, 볼록면형 거울은 원뿔면형, 혹은 쌍곡면형 거울등을 포함한다.
도 3은 본 발명에 따른, 선형으로 레이저 구조광을 조사하는 일 예이다.
도 3에 따르면, 실린더 렌즈를 통해서 점형 레이저 소스를 선형으로 변환할 수 있다.
일반적으로 레이저 소스는 점(point) 형의 구조광을 생성하므로, 점 형태의 레이저 소스를 선형으로 변환한다. 변환된 선형 레이저는 실린더 렌즈의 특성에 따라 70도 내지 130도로 분산될 수 있다. 분산된 선형 레이저를 복수개 배치하여 360도 전방향을 커버할 수 있도록 할 수 있다. 하나의 선형 레이저가 90도 또는 120도 정도의 영역을 커버하므로, 90도 정도일 때는 4개, 120도 정도일 때는 3개의 선형 레이저를 조합하여 사용함으로써 360도 전방향으로 구조광을 조사할 수 있다.
도 4는 본 발명에 따른, 전방향으로 레이저 구조광을 조사하는 다른 예이다.
도 4에 따르면, 원뿔형 거울과 원형(circular) 레이저를 이용하여 360도 전방향으로 구조광을 조사시킬 수 있다. 원형의 레이저 소스를 볼록거울에 조사하여 반사시킬 경우 360도 전방향으로 구조광을 조사할 수 있다.
도 5는 전방향 거울과 카메라를 포함하는 전방향 영상장치 구조의 수직 단면을 나타낸 것이다. 도 5에서는 전방향 거울로 원뿔형 거울을 나타내었지만 포물면형, 쌍곡면형등 어떠한 것도 사용할 수 있다.
도 5는 레이저가 설치되어 조사되는 축을 기준으로 한 도면으로서,카메라와 볼록면형 거울은 원주방향으로 대칭이다. 카메라는 핀홀과 영상 센서면을 포함하는데, 하부에 설치된 레이저 소스에서 조사되어 주변 물체
Figure 112010030067584-pat00001
에서 반사된 레이저 구조광은 볼록면형 거울면에서 다시 반사되어 카메라의 핀홀을 지나 영상 센서면에 상을 맺게 된다.
조사된 구조광은 영상면에서 물체와의 거리에 따른 왜곡을 갖는 성질이 있다. 즉, 거리가 멀수록 영상의 중심에서 멀리 상이 맺히며, 거리가 가까울수록 영상의 중심에 가깝게 상이 맺히게 된다. 이러한 구조광 왜곡의 정도를 분석함으로써 물체거리를 얻을 수 있다. 원뿔각
Figure 112010030067584-pat00002
를 갖는 원뿔면(conic)형 거울을 사용하는 경우, 물체거리
Figure 112010030067584-pat00003
Figure 112010030067584-pat00004
와 같이 볼록면형 거울의 높이
Figure 112010030067584-pat00005
, 카메라 핀홀의 높이
Figure 112010030067584-pat00006
, 영상면에서 구조광 측정각
Figure 112010030067584-pat00007
와 원뿔각
Figure 112010030067584-pat00008
의 함수로 표현된다.
구체적으로 거리 식
Figure 112010030067584-pat00009
는 는 원뿔형 거울을 사용하는 경우, 다음과 같이 얻어진다.?
Figure 112010030067584-pat00010
여기서
Figure 112010030067584-pat00011
이고,
Figure 112010030067584-pat00012
Figure 112010030067584-pat00013
Figure 112010030067584-pat00014
을 계산하는 과정에서 나타난 매개변수로서, 원뿔형 거울면상의 반사점이고, 다음과 같이 구할 수 있다.
Figure 112010030067584-pat00015
레이저 구조광을 추출하기 위한 방법으로서, 별도의 광학필터를 사용하지 않고 소프트웨어적으로 영상면에서 구조광을 추출하기 위한 차영상처리 알고리즘과 차영상처리 알고리즘을 이용해서 구한 차영상 열을 시간에 따라 누적함으로써 구조광을 더욱 부각시켜 주변 조명잡음에 강인하게 하는 적분 영상처리 알고리즘을 이용할 수 있다.
도 6은 본 발명에 따라, 구조광을 끈 상태와 구조광을 켠 상태에서 차영상법을 이용하여 구조광을 추출하는 것을 나타낸 그림이다.
도 6에 따르면, 먼저 구조광를 끈(OFF) 상태에서 영상을 얻고, 다음은 구조광을 켠(ON) 상태에서 영상을 얻는다. 두 영상의 차이를 계산하여 레이저 구조광 성분만을 추출할 수 있다. 두 영상의 차이를 계산할 때, 두 영상의 대응 픽셀값들의 차이를 구하면 된다. 이때, 레이저 구조광이 조사된 부분의 픽셀들만 값이 다르고 나머지 배경 픽셀들은 똑 같은 값을 갖는다. 따라서 두 영상에서 해당 픽셀의 차이를 구하면 배경 픽셀부분은 사라지고 구조광에 해당하는 부분의 픽셀들만 남으므로, 구조광 성분의 영상만을 얻게 된다.
그런데, 레이저 구조광 조명이 밝지 않은 경우 차 영상법으로 구한 구조광 영상에서 구조광 픽셀들의 값이 주변 픽셀에 비해 크지 않을 수 있고, 따라서 이후의 거리계산을 위한 영상처리 과정 또한 조명 잡음에 영향을 받을 수 있다.
구조광 차영상 적분 알고리즘은 구조광 차영상열을 시간에 따라 픽셀별로 누적 적분함으로써 구조광 픽셀을 주변 픽셀에 비해 상대적으로 부각시켜서 주변 조명잡음에 강인한 구조광 영상을 구하는 방법이다. 차영상 적분 알고리즘은 매우 단순한 픽셀별 연산으로 이루어져 있기 때문에 하드웨어로 구현하는데 적합하다. 구조광 모듈레이션과 동기화된 영상획득 및 차영상 적분 알고리즘을 FPGA(field-programmable gate array) 하드웨어로 구현할 경우 매우 빠르고 효율적인 처리가 가능한 구조광 영상처리 하드웨어를 구현할 수 있다.
도 7은 분석부(150)인 구조광 차영상 적분 하드웨어의 블록 다이어그램을 나타낸 것이다.
도 7에 따르면, 카메라 인터페이스 모듈(Camera Interface Module,730)을 통해서 영상 신호를 입력받는다. 입력받은 신호를 FPGA(720)에서 분석하고, 마이크로 프로세서와 같은 프로세서(Processor,740)에서 거리 값을 계산한다.
M1(710), M2(711), M3(712), M4(713)는 영상 메모리를 의미한다. FPGA(filed-progrmmable gate array,720)에서 상기 영상 메모리를 이용하여 차적분 영상을 획득한다. 구조광을 켰다 껐다를 반복하면서 영상을 얻을 때, 입력영상들에서 구조광이 켜진 상태에서의 영상을 짝수번째 영상, 즉 I(0), I(2)?등으로 나타낼 수 있고, 구조광이 꺼진 상태에서의 영상을 홀수번째 영상, 즉 I(1), I(3)?등으로 나타낼 수 있다.
먼저 구조광을 켠(ON) 상태에서 영상, I(0)을 얻어서 메모리 M1에 저장한다.
다음으로 구조광을 끈(OFF) 상태에서 영상, I(1)을 받아서 M1에 있는 영상에서 이 값을 뺀 후(M1 - I(1)= I(0)-I(1)), 이 값을 다시 M2 메모리에 저장한다.
이어서 다시 구조광을 켠(ON) 영상, I(2)를 받아서 M1에 저장하고,
구조광을 끈(OFF) 영상, I(3)를 받아서 M1 메모리에 있는 영상에서 뺀 후(M1-I(3)= I(2)-I(3)), 이 값을 M2 메모리에 있는 영상, 즉 I(0)-I(1)과 더하여 M3에 저장한다. M3에는 I(2)-I(3) +I(0)-I(1) 영상이 남아 있게 된다. 즉 M3에는 두 번의 차영상을 적분한 영상이 남는다.
다시 구조광을 켠(ON) 영상, I(4)를 받아서 M1에 저장하고,
구조광을 끈(OFF) 영상, I(5)를 받아서 M1 메모리에 있는 영상에서 뺀 후 (M1-I(5) = I(4)-I(5)), 이 값을 M3 메모리에 있는 영상, 즉 I(2)-I(3)+I(0)-I(1)과 더하여 M2에 저장한다. M2에는 I(4)-I(5)+I(2)-I(3)+I(0)-I(1) 영상이 남아 있게 된다. 즉 세 번의 차영상을 적분한 영상이 남는다.
이어서 구조광을 켠(ON) 영상, I(6)를 받아서 M1에 저장하고,
구조광을 끈(OFF) 영상, I(7)을 받아서 M1 메모리에 있는 영상에서 뺀 후 (M1-I(7) = I(6)-I(7)), 이 값을 M2 메모리에 있는 영상, 즉 I(4)-I(5)+I(2)-I(3)+I(0)-I(1)과 더하여 M3에 저장한다. M3에는 I(6)-I(7)+ I(4)-I(5)+I(2)-I(3)+I(0)-I(1) 영상이 남아 있게 된다. 즉 네 번의 차영상을 적분한 영상이 남는다.
이어서 구조광을 켠(ON) 영상, I(8)을 받아서 M1에 저장하고,
구조광을 끈(OFF) 영상, I(9)를 받아서 M1 메모리에 있는 영상에서 뺀 후 (M1-I(9) = I(8)-I(9)), 이 값을 M3 메모리에 있는 영상, 즉 I(6)-I(7)+ I(4)-I(5)+I(2)-I(3)+I(0)-I(1)과 더하여 M4에 저장한다. M4에는 I(8)-I(9)+ I(6)-I(7)+ I(4)-I(5)+I(2)-I(3)+I(0)-I(1) 영상이 남아 있게 된다. 즉 다섯 번의 차영상을 적분한 영상이 남는다.
이러한 과정을 통해서 다섯 번의 차영상을 적분할 경우 충분히 잡음과 구별되는 값을 얻을 수 있다. M4(1), M4(2), 두 개의 M4 메모리를 이용하여 차영상 적분을 구현할 수 있다.
M4(1)에 다섯 번 차적분한 영상 데이터가 저장되면, 프로세서(740)를 이용하여 거리값을 계산한다. 프로세서(740)에서 거리계산 처리를 하는 동안 FPGA(720)는 M4(2)를 이용하여 차적분 영상을 획득한다. M4(2)에 차적분한 영상이 저장되어 프로세서(740)로 거리값을 계산할 경우, M4(1)을 이용하여 다시 차적분한 영상 데이터를 저장한다. 이러한 과정을 반복함으로써 차적분 영상획득과 거리 계산을 병렬적으로 처리할 수 있다.
차영상을 얻는 연산과, 차영상을 적분 하는 연산은 픽셀 별로 행하는 매우 단순한 연산이며, 또한 FPGA(field-programmable gate array,720)와 병렬 메모리 구조에서 차영상 획득 과정과 차영상 적분 연산과정을 병렬적으로 처리할 수 있기 때문에 전체적으로 매우 빠르고 효율적으로 영상획득과 차적분 연산을 수행할 수 있다.
만일 일반적인 마이크로프로세서나 컴퓨터로 위와 같은 영상처리 알고리즘을 적용하고자 한다면, 영상획득 과정과 차적분 연산과정을 병렬적으로 처리할 수 없고 또한 직렬구조의 메모리를 갖기 때문에 전체적인 처리과정이 매우 느리게 될 것이므로 FPGA 또는 병렬 메모리 구조의 하드웨어를 이용하는 것이 더 효과가 있다.
상술한 예에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타낸 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 실시 예들은 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.

Claims (11)

  1. 레이저 구조광을 전 방향으로 조사하는 조사부;
    볼록면형 거울과 카메라를 포함하고, 상기 카메라를 이용하여 상기 볼록면형 거울로부터 배경 영상을 반복적으로 획득하고, 상기 레이저 구조광이 물체에 반사된 후 상기 볼록면형 거울로 입사된 왜곡 영상을 반복적으로 획득하는 측정부; 및
    반복적으로 획득한 상기 배경 영상과 상기 왜곡 영상으로부터 차영상 적분 알고리즘을 이용하여 반사된 상기 레이저 구조광의 궤적을 획득하고, 상기 카메라와 상기 물체간의 물체거리를 계산하는 분석부를 포함하는, 전방향 거리 측정 장치.
  2. 제 1 항에 있어서,
    상기 조사부는 점형 레이저를 복수의 선형 레이저로 분산시키는 복수의 분산 렌즈를 포함하고,
    상기 복수의 분산렌즈 각각에서 분산되는 상기 복수의 선형 레이저는 70 내지 120도 사이의 각도로 조사되고,
    상기 복수의 분산렌즈 각각에서 분산되는 상기 복수의 선형 레이저 중 일부 또는 전부를 서로 다른 각도를 갖도록 배치하여,
    상기 복수의 분산렌즈에서 조사되는 선형 레이저들로 전 방향으로 조사되는 상기 레이저 구조광을 형성하는, 전방향 거리 측정 장치.
  3. 제 1 항에 있어서,
    상기 조사부는 원형 레이저 소스를 포함하고,
    상기 원형 레이저 소스로부터 나오는 원형 레이저를 상기 볼록면형 거울에 조사하여 전 방향으로 조사되는 상기 레이저 구조광을 형성하는, 전방향 거리 측정 장치.
  4. 제 1 항에 있어서,
    상기 볼록면형 거울은 원뿔면형 거울이고,
    상기 분석부는
    Figure 112010030067584-pat00016
    을 통해서 물체거리를 구하는 전 방향 거리 측정 장치.
    여기서, 카메라와 물체간의 물체거리
    Figure 112010030067584-pat00017
    은 볼록면형 거울의 높이
    Figure 112010030067584-pat00018
    , 카메라 핀홀의 높이
    Figure 112010030067584-pat00019
    , 영상면에서 구조광 측정각
    Figure 112010030067584-pat00020
    와 원뿔각
    Figure 112010030067584-pat00021
    의 함수이다.
    Figure 112010030067584-pat00022
    이고,
    Figure 112010030067584-pat00023
    Figure 112010030067584-pat00024
    는 다음과 같이 구할 수 있다.
    Figure 112010030067584-pat00025
  5. 제 1 항 있어서,
    상기 분석부는 상기 반복적으로 획득한 상기 배경 영상의 픽셀 값들과 상기 왜곡 영상의 픽셀 값들의 차이를 누적적으로 계산하여, 반사된 상기 레이저 구조광의 궤적을 획득하는, 전방향 거리 측정 장치.
  6. 레이저 구조광을 전 방향으로 조사하는 단계,
    상기 레이저 구조광을 조사하기 전 영상인 배경 영상을 카메라를 이용하여 획득하는 단계,
    상기 레이저 구조광이 물체에 반사된 후의 영상인 왜곡 영상을 상기 카메라를 이용하여 획득하는 단계,
    상기 배경 영상과 상기 왜곡 영상을 반복적으로 획득하여 복수의 배경 영상과 복수의 왜곡 영상을 획득하는 단계,
    상기 복수의 배경 영상과 상기 복수의 왜곡 영상의 차이를 적분하여 반사된 상기 레이저 구조광의 궤적을 획득하는 단계; 및
    반사된 상기 레이저 구조광의 궤적으로부터 상기 카메라와 상기 물체간의 물체거리를 계산하는 단계를 포함하는, 전 방향 거리 측정 방법.
  7. 제 6 항에 있어서,
    점형 레이저를 복수의 선형 레이저로 분산시키고,
    상기 복수의 선형 레이저 일부 또는 전부를 서로 다른 각도를 갖도록 배치하여, 전 방향으로 조사되는 상기 레이저 구조광을 형성하는, 전 방향 거리 측정 방법.
  8. 제 6 항에 있어서,
    원형 레이저를 볼록면형 거울에 조사하여, 전 방향으로 조사되는 상기 레이저 구조광을 형성하는, 전 방향 거리 측정 방법.
  9. 제 6 항에 있어서,
    상기 복수의 배경 영상과 상기 복수의 왜곡 영상 각각의 차이를 누적적으로 계산하여, 반사된 상기 레이저 구조광의 궤적을 획득하는, 전 방향 거리 측정 방법.
  10. 제 9 항에 있어서,
    상기 복수의 배경 영상의 픽셀 값들과 상기 복수의 왜곡 영상 각각의 픽셀 값들의 차이를 누적적으로 계산하여, 반사된 상기 레이저 구조광의 궤적을 획득하는, 전 방향 거리 측정 방법.
  11. 삭제
KR1020100043748A 2010-05-11 2010-05-11 전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법 KR101138222B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100043748A KR101138222B1 (ko) 2010-05-11 2010-05-11 전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100043748A KR101138222B1 (ko) 2010-05-11 2010-05-11 전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20110124409A KR20110124409A (ko) 2011-11-17
KR101138222B1 true KR101138222B1 (ko) 2012-04-24

Family

ID=45394158

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100043748A KR101138222B1 (ko) 2010-05-11 2010-05-11 전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101138222B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09105609A (ja) * 1995-10-09 1997-04-22 Tadayoshi Igarashi 物体の位置・移動検出方法と検出装置
JP2003259350A (ja) 2002-02-28 2003-09-12 Sharp Corp 全方位監視制御システム、全方位監視制御方法および全方位監視制御プログラム
JP2004510363A (ja) 2000-08-31 2004-04-02 ライテック コーポレイション センサおよびイメージングシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09105609A (ja) * 1995-10-09 1997-04-22 Tadayoshi Igarashi 物体の位置・移動検出方法と検出装置
JP2004510363A (ja) 2000-08-31 2004-04-02 ライテック コーポレイション センサおよびイメージングシステム
JP2003259350A (ja) 2002-02-28 2003-09-12 Sharp Corp 全方位監視制御システム、全方位監視制御方法および全方位監視制御プログラム

Also Published As

Publication number Publication date
KR20110124409A (ko) 2011-11-17

Similar Documents

Publication Publication Date Title
US11624835B2 (en) Processing of LIDAR images
JP6855587B2 (ja) 視点から距離情報を取得するための装置及び方法
CN109477710B (zh) 基于点的结构化光系统的反射率图估计
US20170059305A1 (en) Active illumination for enhanced depth map generation
KR101652393B1 (ko) 3차원 영상 획득 장치 및 방법
US9052329B2 (en) Tire detection for accurate vehicle speed estimation
JP6467776B2 (ja) 測距システム、情報処理装置、情報処理方法及びプログラム
US20200293793A1 (en) Methods and systems for video surveillance
JP2023503517A (ja) ディスプレイによる深度測定
WO2020066637A1 (ja) 奥行取得装置、奥行取得方法およびプログラム
JP6435661B2 (ja) 物体識別システム、情報処理装置、情報処理方法及びプログラム
CN111047650B (zh) 一种用于飞行时间相机的参数标定方法
CN109816697B (zh) 一种无人模型车建立地图的系统及方法
KR102254627B1 (ko) 높은 스루풋 및 저비용 높이 삼각측량 시스템 및 방법
WO2022126870A1 (en) Three-dimensional imaging method and method based on light field camera and three-dimensional imaging measuring production line
JP2006322795A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
KR101138222B1 (ko) 전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법
CN109242900B (zh) 焦平面定位方法、处理装置、焦平面定位系统及存储介质
KR20170119167A (ko) 도로 상의 객체를 검출하기 위한 객체 검출 시스템 및 방법
Jawad et al. Measuring object dimensions and its distances based on image processing technique by analysis the image using sony camera
US20200320725A1 (en) Light projection systems
Qiu et al. A novel low-cost multi-sensor solution for pavement distress segmentation and characterization at night
JP7259660B2 (ja) イメージレジストレーション装置、画像生成システム及びイメージレジストレーションプログラム
CN107991685B (zh) 基于线激发光源的面探测激光荧光雷达及探测方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160324

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180410

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190327

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20200304

Year of fee payment: 9