KR101918887B1 - Distance measuring device using mono infrared camera and method thereof - Google Patents

Distance measuring device using mono infrared camera and method thereof Download PDF

Info

Publication number
KR101918887B1
KR101918887B1 KR1020180011646A KR20180011646A KR101918887B1 KR 101918887 B1 KR101918887 B1 KR 101918887B1 KR 1020180011646 A KR1020180011646 A KR 1020180011646A KR 20180011646 A KR20180011646 A KR 20180011646A KR 101918887 B1 KR101918887 B1 KR 101918887B1
Authority
KR
South Korea
Prior art keywords
image
distance
pixels
thermal
extracting
Prior art date
Application number
KR1020180011646A
Other languages
Korean (ko)
Inventor
금동석
김영석
이승준
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Application granted granted Critical
Publication of KR101918887B1 publication Critical patent/KR101918887B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Disclosed are a device and a method for measuring a distance using a mono infrared camera, which can perform a function of a stereo thermal image camera such as distance data acquisition and 3D reconstruction through a plurality of image information obtained with a parallax by using a mono thermal image camera. According to an embodiment of the present invention, the device for measuring a distance comprises: a moving body; a sensor for measuring a displacement of the moving body according to movement of the moving body; the mono thermal image camera for generating thermal images according to the movement of the moving body; and a controller for calculating an actual distance to the thermal image by using the displacement of the moving body and the thermal images.

Description

모노 적외선 카메라를 이용한 거리 측정 장치 및 그 방법{DISTANCE MEASURING DEVICE USING MONO INFRARED CAMERA AND METHOD THEREOF}TECHNICAL FIELD [0001] The present invention relates to a distance measuring apparatus using a mono-infrared camera,

아래 실시예들은 모노 적외선 카메라를 이용한 거리 측정 장치 및 그 방법에 관한 것이다.The following embodiments relate to a distance measuring apparatus and method using a mono infrared camera.

사람은 두 눈이 보는 영상의 차이를 이용하여, 3차원 물체를 인식할 수 있다. 이것을 그대로 적용한 것이 스테레오 카메라를 사용하여 거리를 인식하는 방법이며, 3D 영화를 제작할 때에도 이 방법을 사용한다.A person can recognize a three-dimensional object using the difference between the images seen by the two eyes. This is the method of recognizing distances by using a stereo camera, and this method is also used when producing 3D movies.

사람 눈처럼 일정 간격 떨어져 있는 2대의 카메라로 촬영한 두 영상을 가지고 떨어진 물체까지의 거리를 측정하기 위해서는, 찍힌 물체가 얼마나 변화하는지, 즉 화면에서 얼마나 이동되었는지를 보면 된다.To measure the distance to a distant object with two images taken by two cameras separated by a certain distance like a human eye, it is necessary to see how much the object has changed, that is, how far it has moved on the screen.

한편, 위와 비슷한 방법으로 한 쪽 눈이 실명된 사람도 3차원을 인식할 수 있다. 사람은 움직일 수 있기 때문에 고개를 돌리거나 걷는 동작만으로도 물체가 3차원인지 2차원인지 알 수 있다. 즉, 두 영상을 동시에 볼 수는 없지만, 짧은 시간 동안 연속적으로 촬영된 영상들을 가지고 물체와의 거리를 인식할 수 있다.On the other hand, a person who is blinded by one eye can recognize three dimensions in a similar manner. Since a person can move, it is possible to know whether the object is three-dimensional or two-dimensional by moving his head or walking. In other words, although two images can not be seen at the same time, distances to objects can be recognized with images taken continuously for a short time.

관련 선행기술로는 국내공개특허 제2005-0000766호가 있다A related prior art is disclosed in Korean Patent Publication No. 2005-0000766

실시예들은 모노 열화상 카메라를 사용하여 시차를 두고 얻어진 복수의 이미지 정보를 통해 거리 데이터 습득 및 3D 재구축 등의 스테레오 열화상 카메라의 기능을 수행할 수 있는 기술을 제공할 수 있다.Embodiments can provide a technique capable of performing the function of a stereo thermal camera such as distance data acquisition and 3D reconstruction through a plurality of image information obtained with a parallax using a mono thermal camera.

일 실시예에 따른 거리 측정 장치는 이동체와, 상기 이동체의 이동에 따라 상기 이동체의 변위를 측정하기 위한 센서와, 상기 이동체의 이동에 따라 열상 이미지들을 생성하기 위한 모노 열화상 카메라와, 상기 이동체의 변위 및 상기 열상 이미지들을 이용하여 열상까지의 실제 거리를 계산하는 컨트롤러를 포함한다.A distance measuring apparatus according to an embodiment of the present invention includes a moving body, a sensor for measuring a displacement of the moving body in accordance with the movement of the moving body, a mono thermal imaging camera for generating thermal images in accordance with the movement of the moving body, And a controller for calculating the actual distance to the thermal image using the thermal images.

상기 컨트롤러는 상기 이동체의 제1 위치에서 생성된 제1 열상 이미지와 상기 이동체의 제2 위치에서 생성된 제2 열상 이미지를 처리하여 상기 열상의 특징점을 추출하는 이미지 처리 모듈와, 상기 열상의 특징점 및 상기 이동체의 변위를 이용하여 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 거리 계산 모듈을 포함할 수 있다.The controller includes an image processing module for processing the first lunar image generated at the first position of the moving object and the second lunar image generated at the second position of the moving object to extract the feature points of the lunar image, And a distance calculation module for calculating the actual distance through a stereo graphic method using the displacement of the moving object.

상기 이미지 처리 모듈은 상기 제1 열상 이미지에서 온도가 높은 값의 제1 픽셀들을 추출하고, 상기 제2 열상 이미지에서 온도가 높은 값의 제2 픽셀들을 추출하고, 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출할 수 있다.Wherein the image processing module extracts first pixels of a high temperature value from the first lunar image, extracts second pixels of a high temperature value from the second lunar image, The points matched in the pixels can be extracted as feature points of the thermal image.

상기 이미지 처리 모듈은 상기 제1픽셀들 및 상기 제2 픽셀들에서 일정 간격의 ROI(Region of Interest)를 지정하고, 지정된 ROI에서 그레디언트(gradient) 및 픽셀값 중에서 적어도 하나를 이용하여 매칭되는 점을 찾을 수 있다.Wherein the image processing module specifies a region of interest (ROI) at a predetermined interval in the first pixels and the second pixels, and matches at least one of a gradient and a pixel value in a specified ROI Can be found.

상기 이미지 처리 모듈은 상기 제1 열상 이미지와 상기 제2 열상 이미지의 모습이 회전되지 않고 동일한 방향을 가지는 경우, SURF 기법을 이용하여 상기 제1 픽셀들과 상기 제2 픽셀들을 매칭하여 매칭되는 점을 찾을 수 있다.Wherein the image processing module matches the first pixels with the second pixels using the SURF technique when the first and second thermal images have the same direction without being rotated, Can be found.

상기 이미지 처리 모듈은 딥러닝을 이용하여 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출할 수 있다.상기 컨트롤러는 상기 실제 거리를 이용하여 상기 열상에 대응하는 객체의 3D 재구성을 수행하는 3D 생성 모듈을 더 포함할 수 있다.The image processing module may extract a matching point in the first pixels and the second pixels as deep feature points using deep running. The controller may use the actual distance to calculate And a 3D generation module for performing a 3D reconstruction of the object.

상기 실제 거리는 상기 제1 위치로부터 상기 열상까지의 거리, 상기 제2 위치로부터 상기 열상까지의 거리, 및 상기 제1 위치와 상기 제2 위치의 중간 위치로부터 상기 열상까지의 거리 중에서 적어도 하나를 포함할 수 있다.Wherein the actual distance includes at least one of a distance from the first position to the heat image, a distance from the second position to the heat image, and a distance from the intermediate position between the first position and the second position to the heat image .

상기 거리 계산 모듈은 상기 제1 위치에서 측정된 제1 변위와 상기 제2 위치에서 측정된 제2 변위를 이용하여 상기 이동체가 이동한 거리를 계산할 수 있다.The distance calculation module may calculate the distance traveled by the moving object by using the first displacement measured at the first position and the second displacement measured at the second position.

일 실시예에 따른 거리 측정 방법은 이동체의 이동에 따라 상기 이동체의 변위를 측정하는 단계와, 상기 이동체의 이동에 따라 모노 열화상 카메라에 의해 열상 이미지들을 생성하는 단계와, 상기 이동체의 변위 및 상기 열상 이미지들을 이용하여 열상까지의 실제 거리를 계산하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a distance measuring method comprising: measuring a displacement of a moving object in accordance with movement of a moving object; generating thermal images by a mono-thermal camera in accordance with movement of the moving object; And calculating the actual distance up to the thermal image using the thermal images.

상기 계산하는 단계는 상기 이동체의 제1 위치에서 생성된 제1 열상 이미지와 상기 이동체의 제2 위치에서 생성된 제2 열상 이미지를 처리하여 상기 열상의 특징점을 추출하는 단계와, 상기 열상의 특징점 및 상기 이동체의 변위를 이용하여 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 단계를 포함할 수 있다.Wherein the step of calculating includes extracting feature points of the thermal image by processing a first thermal image generated at a first position of the moving object and a second thermal image generated at a second position of the moving object, And calculating the actual distance through a stereo graphic method using the displacement of the moving object.

상기 추출하는 단계는 상기 제1 열상 이미지에서 온도가 높은 값의 제1 픽셀들을 추출하는 단계와, 상기 제2 열상 이미지에서 온도가 높은 값의 제2 픽셀들을 추출하는 단계와, 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는 단계를 포함할 수 있다.Wherein the extracting comprises extracting first pixels of a high temperature value in the first thermal image, extracting second pixels of a high temperature value in the second thermal image, And extracting a matching point in the second pixels as feature points of the thermal image.

상기 열상의 특징점으로 추출하는 단계는 상기 제1픽셀들 및 상기 제2 픽셀들에서 일정 간격의 ROI(Region of Interest)를 지정하는 단계와, 지정된 ROI에서 그레디언트(gradient) 및 픽셀값 중에서 적어도 하나를 이용하여 매칭되는 점을 찾는 단계를 포함할 수 있다.Wherein the step of extracting at least one of a gradient and a pixel value in a specified ROI comprises the steps of: specifying a region of interest (ROI) at a predetermined interval in the first pixels and the second pixels; And searching for a matching point using the search result.

상기 열상의 특징점으로 추출하는 단계는 상기 제1 열상 이미지와 상기 제2 열상 이미지의 모습이 회전되지 않고 동일한 방향을 가지는 경우, SURF 기법을 이용하여 상기 제1 픽셀들과 상기 제2 픽셀들을 매칭하여 매칭되는 점을 찾는 단계를 포함할 수 있다.The step of extracting the feature points of the thermal image includes matching the first pixels and the second pixels using the SURF technique when the first and second thermal images have the same direction without being rotated And searching for a matching point.

상기 열상의 특징점으로 추출하는 단계는 딥러닝을 이용하여 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는 단계를 포함할 수 있다.상기 방법은 상기 실제 거리를 이용하여 상기 열상에 대응하는 객체의 3D 재구성을 수행하는 단계를 더 포함할 수 있다.The step of extracting a feature point of the thermal image may include extracting a matching point of the first pixels and the second pixels as deep feature points using deep running. And performing a 3D reconstruction of the object corresponding to the thermal image using the 3D reconstruction.

상기 실제 거리는 상기 제1 위치로부터 상기 열상까지의 거리, 상기 제2 위치로부터 상기 열상까지의 거리, 및 상기 제1 위치와 상기 제2 위치의 중간 위치로부터 상기 열상까지의 거리 중에서 적어도 하나를 포함할 수 있다.Wherein the actual distance includes at least one of a distance from the first position to the heat image, a distance from the second position to the heat image, and a distance from the intermediate position between the first position and the second position to the heat image .

상기 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 단계는 상기 제1 위치에서 측정된 제1 변위와 상기 제2 위치에서 측정된 제2 변위를 이용하여 상기 이동체가 이동한 거리를 계산하는 단계를 포함할 수 있다.Wherein calculating the actual distance through the stereo graphic method comprises calculating a distance traveled by the moving object using the first displacement measured at the first position and the second displacement measured at the second position can do.

도 1은 일 실시예에 따른 거리 측정 장치의 개략적인 블록도이다.
도 2는 서로 다른 위치에서 열상 이미지를 촬영하는 거리 측정 장치의 예를 나타낸다.
도 3은 도 1에 도시된 컨트롤러의 개략적인 블록도이다.
도 4는 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 일 예를 설명하기 위한 도면이다.
도 5는 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 다른 예를 설명하기 위한 도면이다.
도 6은 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 또 다른 예를 설명하기 위한 도면이다.
도 7은 도 3에 도시된 거리 계산 모듈의 거리 계산 동작의 일 예를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 거리 측정 장치의 응용 예를 설명하기 위한 도면이다.
1 is a schematic block diagram of a distance measuring device according to an embodiment.
Fig. 2 shows an example of a distance measuring apparatus for photographing a thermal image at different positions.
3 is a schematic block diagram of the controller shown in Fig.
FIG. 4 is a diagram for explaining an example of a feature point extraction operation of the image processing module shown in FIG.
5 is a view for explaining another example of the feature point extracting operation of the image processing module shown in FIG.
6 is a diagram for explaining another example of the feature point extraction operation of the image processing module shown in FIG.
7 is a view for explaining an example of a distance calculation operation of the distance calculation module shown in FIG.
8 is a view for explaining an application example of the distance measuring apparatus according to an embodiment.

본 명세서에서 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에서 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어를 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. It will be understood that, in this specification, the terms "comprises ", or" having ", and the like are to be construed as including the presence of stated features, integers, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 거리 측정 장치의 개략적인 블록도이고, 도 2는 서로 다른 위치에서 열상 이미지를 촬영하는 거리 측정 장치의 예를 나타낸다.Fig. 1 is a schematic block diagram of a distance measuring apparatus according to an embodiment, and Fig. 2 shows an example of a distance measuring apparatus for photographing a laminar image at different positions.

도 1 및 도 2를 참조하면, 거리 측정 장치(10)는 이동체(100), 센서(200), 열화상 카메라(300), 및 컨트롤러(400)를 포함한다. 거리 측정 장치(10)는 디스플레이(500)를 더 포함할 수 있다.1 and 2, the distance measuring apparatus 10 includes a moving object 100, a sensor 200, a thermal imaging camera 300, and a controller 400. [ The distance measuring apparatus 10 may further include a display 500.

이동체(100)는 이동하는 물체를 의미할 수 있다. 예를 들어, 이동체(100)는 움직이는 로봇(즉, 이동 로봇)을 포함할 수 있다The moving object 100 may refer to a moving object. For example, the mobile object 100 may include a moving robot (i.e., a mobile robot)

이동체(100)는 컨트롤러(400)의 제어에 따라 이동할 수 있다. 예를 들어, 이동체(100)는 컨트롤러(400)의 제어에 따라 제1 위치에서 시차를 두고 제2 위치로 이동할 수 있다.The moving body 100 can move under the control of the controller 400. [ For example, the moving body 100 may move to the second position with a parallax at the first position under the control of the controller 400. [

센서(200)는 이동체(100)의 변위를 측정하고, 측정된 변위를 컨트롤러(400)로 전송할 수 있다. 예를 들어, 센서(200)는 이동체(100)의 제1 위치에서 제1 변위를 측정하고, 측정된 제1 변위를 컨트롤러(400)로 전송할 수 있다. 센서(200)는 이동체(100)가 이동한 제2 위치에서 제2 변위를 측정하고, 측정된 제2 변위를 컨트롤러(400)로 전송할 수 있다.The sensor 200 can measure the displacement of the moving object 100 and transmit the measured displacement to the controller 400. [ For example, the sensor 200 may measure the first displacement at the first position of the mobile object 100 and transmit the measured first displacement to the controller 400. [ The sensor 200 may measure the second displacement at the second position where the moving body 100 has moved and transmit the measured second displacement to the controller 400. [

센서(200)는 변위 측정 센서로 구현될 수 있다. 예를 들어, 변위 측정 센서는 주행 기록계(odometer) 및 IMU 센서 등 중에서 적어도 하나로 구현될 수 있다.The sensor 200 may be implemented as a displacement measurement sensor. For example, the displacement measurement sensor may be implemented as at least one of an odometer and an IMU sensor.

열화상 카메라(300)는 컨트롤러(400)의 제어에 따라 이동체(100)가 이동한 위치에서 열상 이미지를 생성하고, 컨트롤러(400)로 전송할 수 있다. 예를 들어, 열화상 카메라(300)는 이동체(100)의 제1 위치에서 제1 열상 이미지를 생성하고, 생성된 제1 열상 이미지를 컨트롤러(400)로 전송할 수 있다. 열화상 카메라(300)는 이동체(100)가 이동한 제2 위치에서 제2 열상 이미지를 생성하고, 생성된 제2 열상 이미지를 컨트롤러(400)로 전송할 수 있다.The thermal imaging camera 300 can generate a thermal image at a position where the moving body 100 has moved according to the control of the controller 400 and transmit the thermal image to the controller 400. [ For example, the thermal imaging camera 300 may generate a first thermal image at a first location of the moving object 100 and transmit the generated first thermal image to the controller 400. [ The thermal imaging camera 300 may generate a second thermal image at a second position where the moving body 100 has moved and transmit the generated second thermal image to the controller 400. [

열화상 카메라(200)는 적외선 카메라로 구현될 수 있다. 열화상 카메라(200)는 일반 카메라 대비 가시광선 영역보다 긴 파장을 사용하기 때문에 광량이 부족한 저조도 상황이나 연기 때문에 시계가 제한된 환경에서도 이미지, 즉 열상 이미지 획득이 가능하다.The thermal imaging camera 200 may be implemented with an infrared camera. Since the thermal imaging camera 200 uses a wavelength longer than that of a general camera, it is possible to acquire an image, that is, a thermal image even in a low-light condition in which the light amount is insufficient or in a limited clock environment due to smoke.

컨트롤러(400)는 센서(200)로부터 전송된 변위와 열화상 카메라(300)로부터 전송된 열상 이미지를 이용하여 열상, 예를 들어 열상을 나타내는 객체와 거리 측정 장치(10)간의 실제 거리를 계산할 수 있다. 실제 거리는 제1 위치로부터 열상까지의 거리, 제2 위치로부터 열상까지의 거리, 및/또는 제1 위치와 제2 위치의 중간 위치(또는 중간 지점)으로부터 열상까지의 거리를 포함할 수 있다.The controller 400 can calculate the actual distance between the distance measuring device 10 and the object representing the lining, for example, the lining, using the displacement transmitted from the sensor 200 and the thermal image transmitted from the thermal imaging camera 300 have. The actual distance may include a distance from the first position to the heat, a distance from the second position to the heat, and / or a distance from the intermediate position (or intermediate point) between the first and second positions to the heat.

일반 영상을 기반으로 물체를 인식하는 경우에는 일반 카메라에서 객체를 검출하기 위해 이미지 전체의 픽셀들에 관하여 학습 알고리즘을 사용하기 때문에 많은 양의 연산이 요구되지만, 열화상 카메라(300)를 사용함으로써, 컨트롤러(400)는 열(예를 들어, 적외선)을 방출하는 객체에 포커스를 맞춰, 열상 검출에 대한 ROI를 줄일 수 있고, 객체의 특성을 활용하여 효과적으로 인지할 수 있다.In the case of recognizing an object based on a general image, a large amount of calculation is required because a learning algorithm is used for pixels in the entire image to detect an object in a general camera. However, by using the thermal imager 300, The controller 400 can focus on an object emitting heat (e.g., infrared), reduce the ROI for thermal image detection, and effectively recognize the object by utilizing the characteristics of the object.

또한, 컨트롤러(400)는 계산된 실제 거리, 예를 들어 거리 및/또는 깊이 데이터를 이용하여 열상에 대응하는 객체의 3D 재구성을 수행할 수 있다. 컨트롤러(400)는 객체의 3D 재구성을 디스플레이(500)로 전송하여 디스플레이할 수 있다.In addition, the controller 400 may perform a 3D reconstruction of the object corresponding to the thermal image using the calculated actual distance, e.g., distance and / or depth data. The controller 400 may send the 3D reconstruction of the object to the display 500 for display.

디스플레이(500)는 거리 측정 장치(10)에 구현될 수 있지만, 별도로 구현된 전자 장치에 구현될 수 있다. 전자 장치 PC(personal computer), 데이터 서버, 또는 휴대용 장치로 구현될 수 있다.The display 500 may be implemented in the distance measuring device 10, but may be implemented in a separately implemented electronic device. An electronic device, a personal computer (PC), a data server, or a portable device.

휴대용 장치는 랩탑(laptop) 컴퓨터, 이동 전화기, 스마트 폰(smart phone), 태블릿(tablet) PC, 모바일 인터넷 디바이스(mobile internet device(MID)), PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP(portable multimedia player), PND(personal navigation device 또는 portable navigation device), 휴대용 게임 콘솔(handheld game console), e-북(e-book), 또는 스마트 디바이스(smart device)로 구현될 수 있다. 스마트 비다이스는 스마트 와치(smart watch), 스마트 밴드(smart band), 또는 스마트 링(smart ring)으로 구현될 수 있다.Portable devices include laptop computers, mobile phones, smart phones, tablet PCs, mobile internet devices (MIDs), personal digital assistants (PDAs), enterprise digital assistants (EDAs) A digital still camera, a digital video camera, a portable multimedia player (PMP), a personal navigation device or a portable navigation device (PND), a handheld game console, an e-book e-book, or a smart device. The smartvision can be implemented as a smart watch, a smart band, or a smart ring.

거리 측정 장치(10)는 이동체(100)의 변위(또는 변위 벡터)를 측정하여 모노 열화상 카메라(300)로 2대의 열화상 카메라, 즉 스테레오 열화상 카메라의 기능을 수행할 수 있다. 또한, 거리 측정 장치(10)는 이동 가능한 이동체(100)를 통해 가격 절감, 무게 감소, 부피 감소를 달성할 수 있다.The distance measuring apparatus 10 measures the displacement (or displacement vector) of the moving object 100 and can perform the functions of two thermal imaging cameras, that is, a stereo thermal imaging camera, with the mono thermal imaging camera 300. [ In addition, the distance measuring apparatus 10 can achieve price reduction, weight reduction, and volume reduction through the movable movable body 100. [

또한, 거리 측정 장치(10)는 이동체(100)를 통해 모노 열화상 카메라(300)를 이동하여 시차(disparity)를 만들어 냄으로써 시차를 원하는 만큼 변화시킬 수 있기 때문에 측정하려는 물체의 거리가 가까울 경우에는 작은 시차로, 멀 때는 큰 시차를 사용하여 상황에 맞게 능동적으로 정확도를 향상시킬 수 있다.In addition, since the distance measuring apparatus 10 can move the mono thermal camera 300 through the moving body 100 to create a disparity, the parallax can be changed as much as desired. Therefore, when the distance of the object to be measured is close It is possible to improve accuracy more actively by using small parallax and large parallax when it is far away.

도 3은 도 1에 도시된 컨트롤러의 개략적인 블록도이고, 도 4는 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 일 예를 설명하기 위한 도면이고, 도 5는 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 다른 예를 설명하기 위한 도면이고, 도 6은 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 또 다른 예를 설명하기 위한 도면이고, 도 7은 도 3에 도시된 거리 계산 모듈의 거리 계산 동작의 일 예를 설명하기 위한 도면이다.FIG. 3 is a schematic block diagram of the controller shown in FIG. 1, FIG. 4 is a diagram for explaining an example of a feature point extracting operation of the image processing module shown in FIG. 3, FIG. 6 is a view for explaining another example of the feature point extracting operation of the image processing module shown in FIG. 3, and FIG. 7 is a view for explaining another example of the feature point extracting operation of the image processing module shown in FIG. FIG. 4 is a diagram for explaining an example of the distance calculation operation of the distance calculation module. FIG.

도 3 내지 도 7을 참조하면, 컨트롤러(400)는 이미지 처리 모듈(410), 거리 계산 모듈(430), 및 3D 생성 모듈(450)을 포함할 수 있다.3 through 7, the controller 400 may include an image processing module 410, a distance calculation module 430, and a 3D generation module 450.

이미지 처리 모듈(410)은 열상 이미지들을 처리하여 열상 이미지들로부터 열상의 특징점을 추출하고, 하나 이상의 특징점을 거리 계산 모듈(430)로 출력할 수 있다. 예를 들어, 특징점은 이미지에서 픽셀의 색, 명암, 위치 및 분포 특성을 반영하여 구분되는 점(예를 들어, 픽셀)을 의미할 수 있다.The image processing module 410 may process the thermal images to extract thermal feature points from the thermal images and output one or more feature points to the distance calculation module 430. For example, a feature point may mean a point (e.g., a pixel) that is separated in the image by reflecting the color, contrast, position, and distribution characteristics of the pixel.

이미지 처리 모듈(410)은 제1 열상 이미지에서 온도가 높은 값의 제1 픽셀들을 추출하고, 제2 열상 이미지에서 온도가 높은 값의 제2 픽셀들을 추출하고, 제1 픽셀들 및 제2 픽셀들에서 매칭되는 점을 특징점으로 결정할 수 있다.The image processing module 410 extracts first pixels of a high temperature value from the first lunar image, extracts second pixels of a high temperature value from the second lunar image, Can be determined as a feature point.

일 예로, 이미지 처리 모듈(410)은 제1 픽셀들 및 제2 픽셀들의 지역 주변 픽셀(예를 들어, 제1 열상 이미지와 제2 열상 이미지에서의 지역 주변 픽셀)과의 관계를 고려하여 제1 픽셀들 및 제2 픽셀들에서 매칭되는 점을 특징점으로 결정할 수 있다. 이미지 처리 모듈(410)의 특징점 추출의 일 예는 도 4에 도시된 바와 같을 수 있다.In one example, the image processing module 410 may calculate the first and second pixels in consideration of the relationship between the first peripheral pixels of the first pixels and the second pixels (e.g., the first lunar image and the surrounding pixels in the second lunal image) It is possible to determine a matching point in the pixels and the second pixels as the characteristic point. An example of feature point extraction of the image processing module 410 may be as shown in FIG.

다른 예로, 이미지 처리 모듈(410)은 제1 픽셀들 및 제2 픽셀들에 일정 간격의 ROI(Region of Interest)를 지정하고, 지정된 ROI에서 그레디언트(gradient) 및/또는 픽셀값을 이용하여 매칭되는 점을 찾을 수 있다.In another example, the image processing module 410 may assign a region of interest (ROI) to the first and second pixels at a predetermined interval and may be matched using a gradient and / or a pixel value at a specified ROI Points can be found.

예를 들어, 이미지 처리 모듈(410)은 비전 영상 기법을 수행하여 매칭되는 점을 찾을 수 있다. 비전 영상 기법은 SURF, BRIST, SIFT, DAISY, ASIFT 등의 기법을 포함할 수 있다.For example, the image processing module 410 may perform a vision image technique to find matching points. Vision imaging techniques can include techniques such as SURF, BRIST, SIFT, DAISY, and ASIFT.

도 5에 도시된 바와 같이, 제1 열상 이미지와 제2 열상 이미지의 모습이 회전되지 않고 동일한 방향을 가지는 경우, 이미지 처리 모듈(410)은 SURF 기법을 이용하여 빠르고 효과적으로 제1 픽셀들과 제2 픽셀들을 매칭하여 매칭되는 점을 찾을 수도 있다.As shown in FIG. 5, if the first lunar image and the second lunar image have the same orientation without being rotated, the image processing module 410 can quickly and effectively utilize the SURF technique, Pixels may be matched to find a matching point.

반드시 상술한 비전 영상 기법에 한정되는 것은 아니며, 다양한 영상 기법들을 이용하여 매칭되는 점을 찾을 수 있다.It is not necessarily limited to the above-described vision image technique, and a matching point can be found by using various image techniques.

또 다른 예로, 이미지 처리 모듈(410)은 딥러닝을 이용하여 제1 픽셀들 및 제2 픽셀들에서 매칭되는 점을 특징점으로 결정할 수 있다. 도 6에 도시된 바와 같이, 딥러닝 네트워크는 각 픽셀 온도 값이 나타난 제1 열상 이미지와 제2 열상 이미지를 입력으로 수신하고, 제1 픽셀들과 제2 픽셀들에서 매칭되는 점의 좌표를 특징점 좌표로 출력할 수 있다. 딥러닝 네트워크의 입력으로 열상 이미지의 전체 픽셀 값이 입력될 필요는 없으며, 실시예에 따라 제1 픽셀들 및 제2 픽셀들만이 딥러닝 네트워크의 입력으로 입력될 수 있다.As another example, the image processing module 410 may use the deep learning to determine, as feature points, the points that match in the first pixels and the second pixels. As shown in Figure 6, the deep learning network receives as input the first and second thermal images, in which the respective pixel temperature values appear, and the coordinates of the points matched in the first and second pixels to the feature points Can be output as coordinates. The entire pixel values of the thermal image need not be input as inputs to the deep learning network, and only the first and second pixels may be input to the input of the deep learning network, depending on the embodiment.

거리 계산 모듈(430)은 특징점 및 변위를 이용하여 열상, 예를 들어 열상을 나타내는 객체와 거리 측정 장치(10)간의 실제 거리를 계산할 수 있다.The distance calculation module 430 may calculate the actual distance between the distance measuring device 10 and the object representing the lining, for example, the lining, using the feature points and the displacement.

도 7에 도시된 바와 같이, 거리 계산 모듈(430)은 스테레오그라피(stereography) 방식을 통해 거리 계산을 수행할 수 있다. 이때, 거리 계산 모듈(430)은 거리 계산을 위해 수학식 1을 이용할 수 있다.As shown in FIG. 7, the distance calculation module 430 may perform the distance calculation through a stereography method. At this time, the distance calculation module 430 may use Equation (1) for distance calculation.

Figure 112018010761514-pat00001
Figure 112018010761514-pat00001

여기서, x는 열상을 나타내는 객체와 거리 측정 장치(10)간의 실제 거리를 의미하고, L은 이동체(100)가 이동한 거리(예를 들어, 제1 위치와 제2 위치 사이의 거리)를 의미하고, f는 열화상 카메라(300)의 초점 거리를 의미할 수 있다.Here, x represents the actual distance between the object representing the thermal image and the distance measuring apparatus 10, and L represents the distance (for example, the distance between the first position and the second position) , And f may denote the focal length of the thermal imaging camera 300.

또한, dl은 제1 열상 이미지(예를 들어, 도 5에서 좌 이미지)에서 보여지는 특징점과 열화상 카메라(300)의 초점(예를 들어, 제1 위치에서의 초점)에 대응되는(또는 투영되는) 제1 열상 이미지의 중심점과의 거리를 의미할 수 있다. dr은 제2 열상 이미지(예를 들어, 도 5에서 우 이미지)에서 보여지는 특징점과 열화상 카메라(300)의 초점(예를 들어, 제2 위치에서의 초점)에 대응되는(또는 투영되는) 제2 열상 이미지의 중심점과의 거리를 의미할 수 있다.Also, dl may be a value corresponding to the feature point shown in the first lacquer image (e.g., the left image in FIG. 5) and the focus of the thermal imager 300 (e.g., the focus at the first position) And the center point of the first lunar image. dr is associated with the feature point shown in the second thermal image (e.g., the right image in FIG. 5) and the feature point corresponding (or projected) to the focus of the thermal imaging camera 300 (e.g., And the distance from the center point of the second thermal image.

거리 계산 모듈(430)은 제1 위치에서 측정된 제1 변위와 제2 위치에서 측정된 제2 변위를 이용하여 L을 계산할 수 있다. 거리 계산 모듈(430)은 특징점 및 f을 이용하여 dl 및 dr을 계산할 수 있다. 거리 계산 모듈(430)은 계산된 결과를 이용하여 x를 계산할 수 있다.The distance calculation module 430 may calculate L using the first displacement measured at the first location and the second displacement measured at the second location. The distance calculation module 430 may calculate dl and dr using the minutiae and f. The distance calculation module 430 may calculate x using the calculated result.

x, 즉 실제 거리는 제1 위치로부터 열상까지의 거리, 제2 위치로부터 열상까지의 거리, 및/또는 제1 위치와 제2 위치의 중간 위치(또는 중간 지점)으로부터 열상까지의 거리를 포함할 수 있다.x, that is, the actual distance may include a distance from the first position to the heat, a distance from the second position to the heat, and / or a distance from the middle position (or intermediate point) have.

3D 생성 모듈(450)은 계산된 실제 거리를 이용하여 열상에 대응하는 객체의 3D 재구성을 수행할 수 있다. 3D 생성 모듈(450)은 객체의 3D 재구성을 디스플레이(500)로 전송하여 디스플레이할 수 있다.The 3D generation module 450 may perform a 3D reconstruction of the object corresponding to the thermal image using the calculated actual distance. The 3D generation module 450 can send the 3D reconstruction of the object to the display 500 and display it.

본 명세서에서의 모듈(module)은 본 명세서에서 설명되는 각 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다.A module in this specification may mean hardware capable of performing the functions and operations according to the respective names described in this specification and may mean computer program codes capable of performing specific functions and operations , Or an electronic recording medium, e.g., a processor or a microprocessor, equipped with computer program code capable of performing certain functions and operations.

다시 말해, 모듈이란 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및/또는 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.In other words, a module may mean a functional and / or structural combination of software for driving hardware and / or hardware for carrying out the technical idea of the present invention.

도 8은 일 실시예에 따른 거리 측정 장치의 응용 예를 설명하기 위한 도면이다.8 is a view for explaining an application example of the distance measuring apparatus according to an embodiment.

도 8을 참조하면, 거리 측정 장치(100)는 사람의 열상과 화염 검출이 가능할 수 있다. 재난 재해 상황에서 소방대원이 직접 진입할 수 없는 공간에는 거리 측정 장치(100)가 투입되어 요구조자와 화점의 위치 측정이 가능할 수 있다.Referring to FIG. 8, the distance measuring apparatus 100 may be capable of detecting heat and flame of a person. In a disaster-affected area, a distance measuring device 100 may be inserted into a space where firefighters can not directly enter, and the position of a petitioner and a fire spot may be possible.

재난 상황에서는 전기 차단, 건물 붕괴 및 지하 공간에서의 재난 상황 등의 요인으로 인하여 빛이 차단될 가능성이 크므로, 기존 카메라 영상 이미지를 활용할 수 없는 어려움을 실시예에 따른 거리 측정 장치(100)를 통해 극복하고 실시예에 따른 거리 측정 기법을 바탕으로 객체의 3D 재구성을 실현하여 위험 지역 인지와 요구조자의 대피를 위한 지역 및 전역 경로 계획이 가능할 수 있다. 또한, 신속한 재난 대응과 구조대원 보조를 위한 효과적인 재난 대응 시스템 구축이 기대될 수 있다.In the event of a disaster, there is a high possibility that the light will be blocked due to factors such as electricity cut-off, building collapse, and disaster situation in the underground space. And realizing 3D reconstruction of objects based on the distance measurement technique according to the embodiment, it is possible to design a local and global path for recognizing a dangerous area and evacuating a demanding person. In addition, it can be expected that an effective disaster response system for rapid disaster response and rescue assistance will be established.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (18)

이동체;
상기 이동체의 이동에 따라 상기 이동체의 변위를 측정하기 위한 센서;
상기 이동체의 이동에 따라 열상 이미지들을 생성하기 위한 모노 열화상 카메라; 및
상기 이동체의 변위 및 상기 열상 이미지들을 이용하여 열상까지의 실제 거리를 계산하는 컨트롤러
를 포함하고,
상기 컨트롤러는,
상기 이동체의 제1 위치에서 생성된 제1 열상 이미지와 상기 이동체의 제2 위치에서 생성된 제2 열상 이미지를 처리하여 상기 열상의 특징점을 추출하는 이미지 처리 모듈; 및
상기 열상의 특징점 및 상기 이동체의 변위를 이용하여 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 거리 계산 모듈
을 포함하는 거리 측정 장치.
Moving body;
A sensor for measuring a displacement of the moving object according to the movement of the moving object;
A mono thermal camera for generating thermal images according to the movement of the moving body; And
A controller for calculating a displacement of the moving body and an actual distance to the heat by using the thermal images,
Lt; / RTI >
The controller comprising:
An image processing module for processing the first lunar image generated at the first position of the moving object and the second lunar image generated at the second position of the moving object to extract the characteristic points of the lunar phase; And
A distance calculation module for calculating the actual distance through a stereo graphic method using the feature points of the thermal image and the displacement of the moving object,
.
삭제delete 제1항에 있어서,
상기 이미지 처리 모듈은,
상기 제1 열상 이미지에서 온도가 높은 값의 제1 픽셀들을 추출하고, 상기 제2 열상 이미지에서 온도가 높은 값의 제2 픽셀들을 추출하고, 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는
거리 측정 장치.
The method according to claim 1,
The image processing module comprising:
Extracting first pixels of a high temperature value from the first lunar image, extracting second pixels of a high temperature value from the second lunar image, Extracting a point as a feature point of the thermal image
Distance measuring device.
제3항에 있어서,
상기 이미지 처리 모듈은,
상기 제1픽셀들 및 상기 제2 픽셀들에서 일정 간격의 ROI(Region of Interest)를 지정하고, 지정된 ROI에서 그레디언트(gradient) 및 픽셀값 중에서 적어도 하나를 이용하여 매칭되는 점을 찾는
거리 측정 장치.
The method of claim 3,
The image processing module comprising:
A ROI (Region of Interest) at a predetermined interval is specified in the first pixels and the second pixels, and a matching point is found using at least one of a gradient and a pixel value in a specified ROI
Distance measuring device.
제3항에 있어서,
상기 이미지 처리 모듈은,
상기 제1 열상 이미지와 상기 제2 열상 이미지의 모습이 회전되지 않고 동일한 방향을 가지는 경우, SURF 기법을 이용하여 상기 제1 픽셀들과 상기 제2 픽셀들을 매칭하여 매칭되는 점을 찾는
거리 측정 장치.
The method of claim 3,
The image processing module comprising:
If the first and second thermal images have the same direction without being rotated, the first pixels and the second pixels are matched using the SURF technique to find a matching point
Distance measuring device.
제3항에 있어서,
상기 이미지 처리 모듈은,
딥러닝을 이용하여 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는
거리 측정 장치.
The method of claim 3,
The image processing module comprising:
A point matching in the first pixels and the second pixels is extracted as a feature point of the thermal image using deep running
Distance measuring device.
제1항에 있어서,
상기 컨트롤러는,
상기 실제 거리를 이용하여 상기 열상에 대응하는 객체의 3D 재구성을 수행하는 3D 생성 모듈
을 더 포함하는 거리 측정 장치.
The method according to claim 1,
The controller comprising:
A 3D generation module for performing a 3D reconstruction of an object corresponding to the lattice using the actual distance;
Further comprising a distance measuring device.
제1항에 있어서,
상기 실제 거리는 상기 제1 위치로부터 상기 열상까지의 거리, 상기 제2 위치로부터 상기 열상까지의 거리, 및 상기 제1 위치와 상기 제2 위치의 중간 위치로부터 상기 열상까지의 거리 중에서 적어도 하나를 포함하는
거리 측정 장치.
The method according to claim 1,
Wherein the actual distance includes at least one of a distance from the first position to the heat image, a distance from the second position to the heat image, and a distance from the intermediate position between the first and second positions to the heat image
Distance measuring device.
제1항에 있어서,
상기 거리 계산 모듈은,
상기 제1 위치에서 측정된 제1 변위와 상기 제2 위치에서 측정된 제2 변위를 이용하여 상기 이동체가 이동한 거리를 계산하는
거리 측정 장치.
The method according to claim 1,
The distance calculation module calculates,
Calculating a distance traveled by the moving object using the first displacement measured at the first position and the second displacement measured at the second position
Distance measuring device.
이동체의 이동에 따라 상기 이동체의 변위를 측정하는 단계;
상기 이동체의 이동에 따라 모노 열화상 카메라에 의해 열상 이미지들을 생성하는 단계; 및
상기 이동체의 변위 및 상기 열상 이미지들을 이용하여 열상까지의 실제 거리를 계산하는 단계
를 포함하고,
상기 계산하는 단계는,
상기 이동체의 제1 위치에서 생성된 제1 열상 이미지와 상기 이동체의 제2 위치에서 생성된 제2 열상 이미지를 처리하여 상기 열상의 특징점을 추출하는 단계; 및
상기 열상의 특징점 및 상기 이동체의 변위를 이용하여 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 단계
를 포함하는 거리 측정 방법.
Measuring a displacement of the moving object in accordance with the movement of the moving object;
Generating thermal images by a mono thermal camera according to the movement of the moving body; And
Calculating a displacement of the moving body and an actual distance to the thermal image using the thermal images
Lt; / RTI >
Wherein the calculating step comprises:
Extracting feature points of the thermal image by processing a first thermal image generated at a first position of the moving object and a second thermal image generated at a second position of the moving object; And
Calculating the actual distance through the stereo image method using the feature point of the thermal image and the displacement of the moving object
/ RTI >
삭제delete 제10항에 있어서,
상기 추출하는 단계는,
상기 제1 열상 이미지에서 온도가 높은 값의 제1 픽셀들을 추출하는 단계;
상기 제2 열상 이미지에서 온도가 높은 값의 제2 픽셀들을 추출하는 단계; 및
상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는 단계
를 포함하는 거리 측정 방법.
11. The method of claim 10,
Wherein the extracting comprises:
Extracting first pixels having a high temperature value in the first lunar image;
Extracting second pixels of a high temperature value from the second laminar image; And
Extracting a matching point in the first pixels and the second pixels as minutiae of the thermal image;
/ RTI >
제12항에 있어서,
상기 열상의 특징점으로 추출하는 단계는,
상기 제1픽셀들 및 상기 제2 픽셀들에서 일정 간격의 ROI(Region of Interest)를 지정하는 단계; 및
지정된 ROI에서 그레디언트(gradient) 및 픽셀값 중에서 적어도 하나를 이용하여 매칭되는 점을 찾는 단계
를 포함하는 거리 측정 방법.
13. The method of claim 12,
The step of extracting the feature points of the thermal image comprises:
Designating a region of interest (ROI) at a predetermined interval in the first pixels and the second pixels; And
Searching for a matching point using at least one of a gradient and a pixel value in a specified ROI
/ RTI >
제12항에 있어서,
상기 열상의 특징점으로 추출하는 단계는,
상기 제1 열상 이미지와 상기 제2 열상 이미지의 모습이 회전되지 않고 동일한 방향을 가지는 경우, SURF 기법을 이용하여 상기 제1 픽셀들과 상기 제2 픽셀들을 매칭하여 매칭되는 점을 찾는 단계
를 포함하는 거리 측정 방법.
13. The method of claim 12,
The step of extracting the feature points of the thermal image comprises:
If the first lunar image and the second lunar image have the same direction without being rotated, matching the first pixels with the second pixels using the SURF technique to find a matching point
/ RTI >
제12항에 있어서,
상기 열상의 특징점으로 추출하는 단계는,
딥러닝을 이용하여 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는 단계
를 포함하는 거리 측정 방법.
13. The method of claim 12,
The step of extracting the feature points of the thermal image comprises:
Extracting a matching point in the first pixels and the second pixels as deep feature points using deep learning;
/ RTI >
제10항에 있어서,
상기 실제 거리를 이용하여 상기 열상에 대응하는 객체의 3D 재구성을 수행하는 단계
를 더 포함하는 거리 측정 방법.
11. The method of claim 10,
Performing 3D reconstruction of the object corresponding to the lattice using the actual distance;
Further comprising:
제10항에 있어서,
상기 실제 거리는 상기 제1 위치로부터 상기 열상까지의 거리, 상기 제2 위치로부터 상기 열상까지의 거리, 및 상기 제1 위치와 상기 제2 위치의 중간 위치로부터 상기 열상까지의 거리 중에서 적어도 하나를 포함하는
거리 측정 방법.
11. The method of claim 10,
Wherein the actual distance includes at least one of a distance from the first position to the heat image, a distance from the second position to the heat image, and a distance from the intermediate position between the first and second positions to the heat image
Distance measurement method.
제10항에 있어서,
상기 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 단계는,
상기 제1 위치에서 측정된 제1 변위와 상기 제2 위치에서 측정된 제2 변위를 이용하여 상기 이동체가 이동한 거리를 계산하는 단계
를 포함하는 거리 측정 방법.
11. The method of claim 10,
Wherein the step of calculating the actual distance through the stereo-
Calculating a distance traveled by the moving object using the first displacement measured at the first position and the second displacement measured at the second position,
/ RTI >
KR1020180011646A 2017-09-19 2018-01-30 Distance measuring device using mono infrared camera and method thereof KR101918887B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170120234 2017-09-19
KR20170120234 2017-09-19

Publications (1)

Publication Number Publication Date
KR101918887B1 true KR101918887B1 (en) 2018-11-14

Family

ID=64328297

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180011646A KR101918887B1 (en) 2017-09-19 2018-01-30 Distance measuring device using mono infrared camera and method thereof

Country Status (1)

Country Link
KR (1) KR101918887B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020159165A1 (en) * 2019-02-01 2020-08-06 엘지전자 주식회사 Infrared stereo camera

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080260207A1 (en) * 2006-10-31 2008-10-23 Honda Motor Co., Ltd. Vehicle environment monitoring apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080260207A1 (en) * 2006-10-31 2008-10-23 Honda Motor Co., Ltd. Vehicle environment monitoring apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020159165A1 (en) * 2019-02-01 2020-08-06 엘지전자 주식회사 Infrared stereo camera

Similar Documents

Publication Publication Date Title
US9953461B2 (en) Navigation system applying augmented reality
US10580148B2 (en) Graphical coordinate system transform for video frames
US10282913B2 (en) Markerless augmented reality (AR) system
US10535160B2 (en) Markerless augmented reality (AR) system
JP6255085B2 (en) Locating system and locating method
US10086955B2 (en) Pattern-based camera pose estimation system
KR20210114952A (en) Target object detection method, apparatus, device and storage medium
Petrović et al. Stereo vision-based human tracking for robotic follower
US10451403B2 (en) Structure-based camera pose estimation system
CN106210538A (en) Show method and apparatus and the program of image based on light field on a user device
KR20170053007A (en) Method and apparatus for estimating pose
KR20200075727A (en) Method and apparatus for calculating depth map
US9858669B2 (en) Optimized camera pose estimation system
JP7204021B2 (en) Apparatus and method for obtaining a registration error map representing image sharpness level
WO2018087462A1 (en) Individual visual immersion device for a moving person with management of obstacles
JP7103354B2 (en) Information processing equipment, information processing methods, and programs
KR101918887B1 (en) Distance measuring device using mono infrared camera and method thereof
Cheng et al. Positioning and navigation of mobile robot with asynchronous fusion of binocular vision system and inertial navigation system
Chermak et al. Real-time smart and standalone vision/IMU navigation sensor
JP6154759B2 (en) Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program
WO2020144848A1 (en) Authoring device, authoring method, and authoring program
Liu et al. Depth estimation of traffic scenes from image sequence using deep learning
BR102018076778A2 (en) REMOVAL OF MESSENGED PICTURE SET BACKGROUND FOR OBJECT DETECTION
KR20140061164A (en) Apparatus and method for detecting finger using depth image
US11222430B2 (en) Methods, devices and computer program products using feature points for generating 3D images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant