KR101918887B1 - Distance measuring device using mono infrared camera and method thereof - Google Patents
Distance measuring device using mono infrared camera and method thereof Download PDFInfo
- Publication number
- KR101918887B1 KR101918887B1 KR1020180011646A KR20180011646A KR101918887B1 KR 101918887 B1 KR101918887 B1 KR 101918887B1 KR 1020180011646 A KR1020180011646 A KR 1020180011646A KR 20180011646 A KR20180011646 A KR 20180011646A KR 101918887 B1 KR101918887 B1 KR 101918887B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- distance
- pixels
- thermal
- extracting
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
아래 실시예들은 모노 적외선 카메라를 이용한 거리 측정 장치 및 그 방법에 관한 것이다.The following embodiments relate to a distance measuring apparatus and method using a mono infrared camera.
사람은 두 눈이 보는 영상의 차이를 이용하여, 3차원 물체를 인식할 수 있다. 이것을 그대로 적용한 것이 스테레오 카메라를 사용하여 거리를 인식하는 방법이며, 3D 영화를 제작할 때에도 이 방법을 사용한다.A person can recognize a three-dimensional object using the difference between the images seen by the two eyes. This is the method of recognizing distances by using a stereo camera, and this method is also used when producing 3D movies.
사람 눈처럼 일정 간격 떨어져 있는 2대의 카메라로 촬영한 두 영상을 가지고 떨어진 물체까지의 거리를 측정하기 위해서는, 찍힌 물체가 얼마나 변화하는지, 즉 화면에서 얼마나 이동되었는지를 보면 된다.To measure the distance to a distant object with two images taken by two cameras separated by a certain distance like a human eye, it is necessary to see how much the object has changed, that is, how far it has moved on the screen.
한편, 위와 비슷한 방법으로 한 쪽 눈이 실명된 사람도 3차원을 인식할 수 있다. 사람은 움직일 수 있기 때문에 고개를 돌리거나 걷는 동작만으로도 물체가 3차원인지 2차원인지 알 수 있다. 즉, 두 영상을 동시에 볼 수는 없지만, 짧은 시간 동안 연속적으로 촬영된 영상들을 가지고 물체와의 거리를 인식할 수 있다.On the other hand, a person who is blinded by one eye can recognize three dimensions in a similar manner. Since a person can move, it is possible to know whether the object is three-dimensional or two-dimensional by moving his head or walking. In other words, although two images can not be seen at the same time, distances to objects can be recognized with images taken continuously for a short time.
관련 선행기술로는 국내공개특허 제2005-0000766호가 있다A related prior art is disclosed in Korean Patent Publication No. 2005-0000766
실시예들은 모노 열화상 카메라를 사용하여 시차를 두고 얻어진 복수의 이미지 정보를 통해 거리 데이터 습득 및 3D 재구축 등의 스테레오 열화상 카메라의 기능을 수행할 수 있는 기술을 제공할 수 있다.Embodiments can provide a technique capable of performing the function of a stereo thermal camera such as distance data acquisition and 3D reconstruction through a plurality of image information obtained with a parallax using a mono thermal camera.
일 실시예에 따른 거리 측정 장치는 이동체와, 상기 이동체의 이동에 따라 상기 이동체의 변위를 측정하기 위한 센서와, 상기 이동체의 이동에 따라 열상 이미지들을 생성하기 위한 모노 열화상 카메라와, 상기 이동체의 변위 및 상기 열상 이미지들을 이용하여 열상까지의 실제 거리를 계산하는 컨트롤러를 포함한다.A distance measuring apparatus according to an embodiment of the present invention includes a moving body, a sensor for measuring a displacement of the moving body in accordance with the movement of the moving body, a mono thermal imaging camera for generating thermal images in accordance with the movement of the moving body, And a controller for calculating the actual distance to the thermal image using the thermal images.
상기 컨트롤러는 상기 이동체의 제1 위치에서 생성된 제1 열상 이미지와 상기 이동체의 제2 위치에서 생성된 제2 열상 이미지를 처리하여 상기 열상의 특징점을 추출하는 이미지 처리 모듈와, 상기 열상의 특징점 및 상기 이동체의 변위를 이용하여 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 거리 계산 모듈을 포함할 수 있다.The controller includes an image processing module for processing the first lunar image generated at the first position of the moving object and the second lunar image generated at the second position of the moving object to extract the feature points of the lunar image, And a distance calculation module for calculating the actual distance through a stereo graphic method using the displacement of the moving object.
상기 이미지 처리 모듈은 상기 제1 열상 이미지에서 온도가 높은 값의 제1 픽셀들을 추출하고, 상기 제2 열상 이미지에서 온도가 높은 값의 제2 픽셀들을 추출하고, 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출할 수 있다.Wherein the image processing module extracts first pixels of a high temperature value from the first lunar image, extracts second pixels of a high temperature value from the second lunar image, The points matched in the pixels can be extracted as feature points of the thermal image.
상기 이미지 처리 모듈은 상기 제1픽셀들 및 상기 제2 픽셀들에서 일정 간격의 ROI(Region of Interest)를 지정하고, 지정된 ROI에서 그레디언트(gradient) 및 픽셀값 중에서 적어도 하나를 이용하여 매칭되는 점을 찾을 수 있다.Wherein the image processing module specifies a region of interest (ROI) at a predetermined interval in the first pixels and the second pixels, and matches at least one of a gradient and a pixel value in a specified ROI Can be found.
상기 이미지 처리 모듈은 상기 제1 열상 이미지와 상기 제2 열상 이미지의 모습이 회전되지 않고 동일한 방향을 가지는 경우, SURF 기법을 이용하여 상기 제1 픽셀들과 상기 제2 픽셀들을 매칭하여 매칭되는 점을 찾을 수 있다.Wherein the image processing module matches the first pixels with the second pixels using the SURF technique when the first and second thermal images have the same direction without being rotated, Can be found.
상기 이미지 처리 모듈은 딥러닝을 이용하여 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출할 수 있다.상기 컨트롤러는 상기 실제 거리를 이용하여 상기 열상에 대응하는 객체의 3D 재구성을 수행하는 3D 생성 모듈을 더 포함할 수 있다.The image processing module may extract a matching point in the first pixels and the second pixels as deep feature points using deep running. The controller may use the actual distance to calculate And a 3D generation module for performing a 3D reconstruction of the object.
상기 실제 거리는 상기 제1 위치로부터 상기 열상까지의 거리, 상기 제2 위치로부터 상기 열상까지의 거리, 및 상기 제1 위치와 상기 제2 위치의 중간 위치로부터 상기 열상까지의 거리 중에서 적어도 하나를 포함할 수 있다.Wherein the actual distance includes at least one of a distance from the first position to the heat image, a distance from the second position to the heat image, and a distance from the intermediate position between the first position and the second position to the heat image .
상기 거리 계산 모듈은 상기 제1 위치에서 측정된 제1 변위와 상기 제2 위치에서 측정된 제2 변위를 이용하여 상기 이동체가 이동한 거리를 계산할 수 있다.The distance calculation module may calculate the distance traveled by the moving object by using the first displacement measured at the first position and the second displacement measured at the second position.
일 실시예에 따른 거리 측정 방법은 이동체의 이동에 따라 상기 이동체의 변위를 측정하는 단계와, 상기 이동체의 이동에 따라 모노 열화상 카메라에 의해 열상 이미지들을 생성하는 단계와, 상기 이동체의 변위 및 상기 열상 이미지들을 이용하여 열상까지의 실제 거리를 계산하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a distance measuring method comprising: measuring a displacement of a moving object in accordance with movement of a moving object; generating thermal images by a mono-thermal camera in accordance with movement of the moving object; And calculating the actual distance up to the thermal image using the thermal images.
상기 계산하는 단계는 상기 이동체의 제1 위치에서 생성된 제1 열상 이미지와 상기 이동체의 제2 위치에서 생성된 제2 열상 이미지를 처리하여 상기 열상의 특징점을 추출하는 단계와, 상기 열상의 특징점 및 상기 이동체의 변위를 이용하여 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 단계를 포함할 수 있다.Wherein the step of calculating includes extracting feature points of the thermal image by processing a first thermal image generated at a first position of the moving object and a second thermal image generated at a second position of the moving object, And calculating the actual distance through a stereo graphic method using the displacement of the moving object.
상기 추출하는 단계는 상기 제1 열상 이미지에서 온도가 높은 값의 제1 픽셀들을 추출하는 단계와, 상기 제2 열상 이미지에서 온도가 높은 값의 제2 픽셀들을 추출하는 단계와, 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는 단계를 포함할 수 있다.Wherein the extracting comprises extracting first pixels of a high temperature value in the first thermal image, extracting second pixels of a high temperature value in the second thermal image, And extracting a matching point in the second pixels as feature points of the thermal image.
상기 열상의 특징점으로 추출하는 단계는 상기 제1픽셀들 및 상기 제2 픽셀들에서 일정 간격의 ROI(Region of Interest)를 지정하는 단계와, 지정된 ROI에서 그레디언트(gradient) 및 픽셀값 중에서 적어도 하나를 이용하여 매칭되는 점을 찾는 단계를 포함할 수 있다.Wherein the step of extracting at least one of a gradient and a pixel value in a specified ROI comprises the steps of: specifying a region of interest (ROI) at a predetermined interval in the first pixels and the second pixels; And searching for a matching point using the search result.
상기 열상의 특징점으로 추출하는 단계는 상기 제1 열상 이미지와 상기 제2 열상 이미지의 모습이 회전되지 않고 동일한 방향을 가지는 경우, SURF 기법을 이용하여 상기 제1 픽셀들과 상기 제2 픽셀들을 매칭하여 매칭되는 점을 찾는 단계를 포함할 수 있다.The step of extracting the feature points of the thermal image includes matching the first pixels and the second pixels using the SURF technique when the first and second thermal images have the same direction without being rotated And searching for a matching point.
상기 열상의 특징점으로 추출하는 단계는 딥러닝을 이용하여 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는 단계를 포함할 수 있다.상기 방법은 상기 실제 거리를 이용하여 상기 열상에 대응하는 객체의 3D 재구성을 수행하는 단계를 더 포함할 수 있다.The step of extracting a feature point of the thermal image may include extracting a matching point of the first pixels and the second pixels as deep feature points using deep running. And performing a 3D reconstruction of the object corresponding to the thermal image using the 3D reconstruction.
상기 실제 거리는 상기 제1 위치로부터 상기 열상까지의 거리, 상기 제2 위치로부터 상기 열상까지의 거리, 및 상기 제1 위치와 상기 제2 위치의 중간 위치로부터 상기 열상까지의 거리 중에서 적어도 하나를 포함할 수 있다.Wherein the actual distance includes at least one of a distance from the first position to the heat image, a distance from the second position to the heat image, and a distance from the intermediate position between the first position and the second position to the heat image .
상기 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 단계는 상기 제1 위치에서 측정된 제1 변위와 상기 제2 위치에서 측정된 제2 변위를 이용하여 상기 이동체가 이동한 거리를 계산하는 단계를 포함할 수 있다.Wherein calculating the actual distance through the stereo graphic method comprises calculating a distance traveled by the moving object using the first displacement measured at the first position and the second displacement measured at the second position can do.
도 1은 일 실시예에 따른 거리 측정 장치의 개략적인 블록도이다.
도 2는 서로 다른 위치에서 열상 이미지를 촬영하는 거리 측정 장치의 예를 나타낸다.
도 3은 도 1에 도시된 컨트롤러의 개략적인 블록도이다.
도 4는 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 일 예를 설명하기 위한 도면이다.
도 5는 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 다른 예를 설명하기 위한 도면이다.
도 6은 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 또 다른 예를 설명하기 위한 도면이다.
도 7은 도 3에 도시된 거리 계산 모듈의 거리 계산 동작의 일 예를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 거리 측정 장치의 응용 예를 설명하기 위한 도면이다.1 is a schematic block diagram of a distance measuring device according to an embodiment.
Fig. 2 shows an example of a distance measuring apparatus for photographing a thermal image at different positions.
3 is a schematic block diagram of the controller shown in Fig.
FIG. 4 is a diagram for explaining an example of a feature point extraction operation of the image processing module shown in FIG.
5 is a view for explaining another example of the feature point extracting operation of the image processing module shown in FIG.
6 is a diagram for explaining another example of the feature point extraction operation of the image processing module shown in FIG.
7 is a view for explaining an example of a distance calculation operation of the distance calculation module shown in FIG.
8 is a view for explaining an application example of the distance measuring apparatus according to an embodiment.
본 명세서에서 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에서 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어를 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. It will be understood that, in this specification, the terms "comprises ", or" having ", and the like are to be construed as including the presence of stated features, integers, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.
도 1은 일 실시예에 따른 거리 측정 장치의 개략적인 블록도이고, 도 2는 서로 다른 위치에서 열상 이미지를 촬영하는 거리 측정 장치의 예를 나타낸다.Fig. 1 is a schematic block diagram of a distance measuring apparatus according to an embodiment, and Fig. 2 shows an example of a distance measuring apparatus for photographing a laminar image at different positions.
도 1 및 도 2를 참조하면, 거리 측정 장치(10)는 이동체(100), 센서(200), 열화상 카메라(300), 및 컨트롤러(400)를 포함한다. 거리 측정 장치(10)는 디스플레이(500)를 더 포함할 수 있다.1 and 2, the
이동체(100)는 이동하는 물체를 의미할 수 있다. 예를 들어, 이동체(100)는 움직이는 로봇(즉, 이동 로봇)을 포함할 수 있다The
이동체(100)는 컨트롤러(400)의 제어에 따라 이동할 수 있다. 예를 들어, 이동체(100)는 컨트롤러(400)의 제어에 따라 제1 위치에서 시차를 두고 제2 위치로 이동할 수 있다.The moving
센서(200)는 이동체(100)의 변위를 측정하고, 측정된 변위를 컨트롤러(400)로 전송할 수 있다. 예를 들어, 센서(200)는 이동체(100)의 제1 위치에서 제1 변위를 측정하고, 측정된 제1 변위를 컨트롤러(400)로 전송할 수 있다. 센서(200)는 이동체(100)가 이동한 제2 위치에서 제2 변위를 측정하고, 측정된 제2 변위를 컨트롤러(400)로 전송할 수 있다.The
센서(200)는 변위 측정 센서로 구현될 수 있다. 예를 들어, 변위 측정 센서는 주행 기록계(odometer) 및 IMU 센서 등 중에서 적어도 하나로 구현될 수 있다.The
열화상 카메라(300)는 컨트롤러(400)의 제어에 따라 이동체(100)가 이동한 위치에서 열상 이미지를 생성하고, 컨트롤러(400)로 전송할 수 있다. 예를 들어, 열화상 카메라(300)는 이동체(100)의 제1 위치에서 제1 열상 이미지를 생성하고, 생성된 제1 열상 이미지를 컨트롤러(400)로 전송할 수 있다. 열화상 카메라(300)는 이동체(100)가 이동한 제2 위치에서 제2 열상 이미지를 생성하고, 생성된 제2 열상 이미지를 컨트롤러(400)로 전송할 수 있다.The
열화상 카메라(200)는 적외선 카메라로 구현될 수 있다. 열화상 카메라(200)는 일반 카메라 대비 가시광선 영역보다 긴 파장을 사용하기 때문에 광량이 부족한 저조도 상황이나 연기 때문에 시계가 제한된 환경에서도 이미지, 즉 열상 이미지 획득이 가능하다.The
컨트롤러(400)는 센서(200)로부터 전송된 변위와 열화상 카메라(300)로부터 전송된 열상 이미지를 이용하여 열상, 예를 들어 열상을 나타내는 객체와 거리 측정 장치(10)간의 실제 거리를 계산할 수 있다. 실제 거리는 제1 위치로부터 열상까지의 거리, 제2 위치로부터 열상까지의 거리, 및/또는 제1 위치와 제2 위치의 중간 위치(또는 중간 지점)으로부터 열상까지의 거리를 포함할 수 있다.The
일반 영상을 기반으로 물체를 인식하는 경우에는 일반 카메라에서 객체를 검출하기 위해 이미지 전체의 픽셀들에 관하여 학습 알고리즘을 사용하기 때문에 많은 양의 연산이 요구되지만, 열화상 카메라(300)를 사용함으로써, 컨트롤러(400)는 열(예를 들어, 적외선)을 방출하는 객체에 포커스를 맞춰, 열상 검출에 대한 ROI를 줄일 수 있고, 객체의 특성을 활용하여 효과적으로 인지할 수 있다.In the case of recognizing an object based on a general image, a large amount of calculation is required because a learning algorithm is used for pixels in the entire image to detect an object in a general camera. However, by using the
또한, 컨트롤러(400)는 계산된 실제 거리, 예를 들어 거리 및/또는 깊이 데이터를 이용하여 열상에 대응하는 객체의 3D 재구성을 수행할 수 있다. 컨트롤러(400)는 객체의 3D 재구성을 디스플레이(500)로 전송하여 디스플레이할 수 있다.In addition, the
디스플레이(500)는 거리 측정 장치(10)에 구현될 수 있지만, 별도로 구현된 전자 장치에 구현될 수 있다. 전자 장치 PC(personal computer), 데이터 서버, 또는 휴대용 장치로 구현될 수 있다.The
휴대용 장치는 랩탑(laptop) 컴퓨터, 이동 전화기, 스마트 폰(smart phone), 태블릿(tablet) PC, 모바일 인터넷 디바이스(mobile internet device(MID)), PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP(portable multimedia player), PND(personal navigation device 또는 portable navigation device), 휴대용 게임 콘솔(handheld game console), e-북(e-book), 또는 스마트 디바이스(smart device)로 구현될 수 있다. 스마트 비다이스는 스마트 와치(smart watch), 스마트 밴드(smart band), 또는 스마트 링(smart ring)으로 구현될 수 있다.Portable devices include laptop computers, mobile phones, smart phones, tablet PCs, mobile internet devices (MIDs), personal digital assistants (PDAs), enterprise digital assistants (EDAs) A digital still camera, a digital video camera, a portable multimedia player (PMP), a personal navigation device or a portable navigation device (PND), a handheld game console, an e-book e-book, or a smart device. The smartvision can be implemented as a smart watch, a smart band, or a smart ring.
거리 측정 장치(10)는 이동체(100)의 변위(또는 변위 벡터)를 측정하여 모노 열화상 카메라(300)로 2대의 열화상 카메라, 즉 스테레오 열화상 카메라의 기능을 수행할 수 있다. 또한, 거리 측정 장치(10)는 이동 가능한 이동체(100)를 통해 가격 절감, 무게 감소, 부피 감소를 달성할 수 있다.The
또한, 거리 측정 장치(10)는 이동체(100)를 통해 모노 열화상 카메라(300)를 이동하여 시차(disparity)를 만들어 냄으로써 시차를 원하는 만큼 변화시킬 수 있기 때문에 측정하려는 물체의 거리가 가까울 경우에는 작은 시차로, 멀 때는 큰 시차를 사용하여 상황에 맞게 능동적으로 정확도를 향상시킬 수 있다.In addition, since the
도 3은 도 1에 도시된 컨트롤러의 개략적인 블록도이고, 도 4는 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 일 예를 설명하기 위한 도면이고, 도 5는 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 다른 예를 설명하기 위한 도면이고, 도 6은 도 3에 도시된 이미지 처리 모듈의 특징점 추출 동작의 또 다른 예를 설명하기 위한 도면이고, 도 7은 도 3에 도시된 거리 계산 모듈의 거리 계산 동작의 일 예를 설명하기 위한 도면이다.FIG. 3 is a schematic block diagram of the controller shown in FIG. 1, FIG. 4 is a diagram for explaining an example of a feature point extracting operation of the image processing module shown in FIG. 3, FIG. 6 is a view for explaining another example of the feature point extracting operation of the image processing module shown in FIG. 3, and FIG. 7 is a view for explaining another example of the feature point extracting operation of the image processing module shown in FIG. FIG. 4 is a diagram for explaining an example of the distance calculation operation of the distance calculation module. FIG.
도 3 내지 도 7을 참조하면, 컨트롤러(400)는 이미지 처리 모듈(410), 거리 계산 모듈(430), 및 3D 생성 모듈(450)을 포함할 수 있다.3 through 7, the
이미지 처리 모듈(410)은 열상 이미지들을 처리하여 열상 이미지들로부터 열상의 특징점을 추출하고, 하나 이상의 특징점을 거리 계산 모듈(430)로 출력할 수 있다. 예를 들어, 특징점은 이미지에서 픽셀의 색, 명암, 위치 및 분포 특성을 반영하여 구분되는 점(예를 들어, 픽셀)을 의미할 수 있다.The
이미지 처리 모듈(410)은 제1 열상 이미지에서 온도가 높은 값의 제1 픽셀들을 추출하고, 제2 열상 이미지에서 온도가 높은 값의 제2 픽셀들을 추출하고, 제1 픽셀들 및 제2 픽셀들에서 매칭되는 점을 특징점으로 결정할 수 있다.The
일 예로, 이미지 처리 모듈(410)은 제1 픽셀들 및 제2 픽셀들의 지역 주변 픽셀(예를 들어, 제1 열상 이미지와 제2 열상 이미지에서의 지역 주변 픽셀)과의 관계를 고려하여 제1 픽셀들 및 제2 픽셀들에서 매칭되는 점을 특징점으로 결정할 수 있다. 이미지 처리 모듈(410)의 특징점 추출의 일 예는 도 4에 도시된 바와 같을 수 있다.In one example, the
다른 예로, 이미지 처리 모듈(410)은 제1 픽셀들 및 제2 픽셀들에 일정 간격의 ROI(Region of Interest)를 지정하고, 지정된 ROI에서 그레디언트(gradient) 및/또는 픽셀값을 이용하여 매칭되는 점을 찾을 수 있다.In another example, the
예를 들어, 이미지 처리 모듈(410)은 비전 영상 기법을 수행하여 매칭되는 점을 찾을 수 있다. 비전 영상 기법은 SURF, BRIST, SIFT, DAISY, ASIFT 등의 기법을 포함할 수 있다.For example, the
도 5에 도시된 바와 같이, 제1 열상 이미지와 제2 열상 이미지의 모습이 회전되지 않고 동일한 방향을 가지는 경우, 이미지 처리 모듈(410)은 SURF 기법을 이용하여 빠르고 효과적으로 제1 픽셀들과 제2 픽셀들을 매칭하여 매칭되는 점을 찾을 수도 있다.As shown in FIG. 5, if the first lunar image and the second lunar image have the same orientation without being rotated, the
반드시 상술한 비전 영상 기법에 한정되는 것은 아니며, 다양한 영상 기법들을 이용하여 매칭되는 점을 찾을 수 있다.It is not necessarily limited to the above-described vision image technique, and a matching point can be found by using various image techniques.
또 다른 예로, 이미지 처리 모듈(410)은 딥러닝을 이용하여 제1 픽셀들 및 제2 픽셀들에서 매칭되는 점을 특징점으로 결정할 수 있다. 도 6에 도시된 바와 같이, 딥러닝 네트워크는 각 픽셀 온도 값이 나타난 제1 열상 이미지와 제2 열상 이미지를 입력으로 수신하고, 제1 픽셀들과 제2 픽셀들에서 매칭되는 점의 좌표를 특징점 좌표로 출력할 수 있다. 딥러닝 네트워크의 입력으로 열상 이미지의 전체 픽셀 값이 입력될 필요는 없으며, 실시예에 따라 제1 픽셀들 및 제2 픽셀들만이 딥러닝 네트워크의 입력으로 입력될 수 있다.As another example, the
거리 계산 모듈(430)은 특징점 및 변위를 이용하여 열상, 예를 들어 열상을 나타내는 객체와 거리 측정 장치(10)간의 실제 거리를 계산할 수 있다.The
도 7에 도시된 바와 같이, 거리 계산 모듈(430)은 스테레오그라피(stereography) 방식을 통해 거리 계산을 수행할 수 있다. 이때, 거리 계산 모듈(430)은 거리 계산을 위해 수학식 1을 이용할 수 있다.As shown in FIG. 7, the
여기서, x는 열상을 나타내는 객체와 거리 측정 장치(10)간의 실제 거리를 의미하고, L은 이동체(100)가 이동한 거리(예를 들어, 제1 위치와 제2 위치 사이의 거리)를 의미하고, f는 열화상 카메라(300)의 초점 거리를 의미할 수 있다.Here, x represents the actual distance between the object representing the thermal image and the
또한, dl은 제1 열상 이미지(예를 들어, 도 5에서 좌 이미지)에서 보여지는 특징점과 열화상 카메라(300)의 초점(예를 들어, 제1 위치에서의 초점)에 대응되는(또는 투영되는) 제1 열상 이미지의 중심점과의 거리를 의미할 수 있다. dr은 제2 열상 이미지(예를 들어, 도 5에서 우 이미지)에서 보여지는 특징점과 열화상 카메라(300)의 초점(예를 들어, 제2 위치에서의 초점)에 대응되는(또는 투영되는) 제2 열상 이미지의 중심점과의 거리를 의미할 수 있다.Also, dl may be a value corresponding to the feature point shown in the first lacquer image (e.g., the left image in FIG. 5) and the focus of the thermal imager 300 (e.g., the focus at the first position) And the center point of the first lunar image. dr is associated with the feature point shown in the second thermal image (e.g., the right image in FIG. 5) and the feature point corresponding (or projected) to the focus of the thermal imaging camera 300 (e.g., And the distance from the center point of the second thermal image.
거리 계산 모듈(430)은 제1 위치에서 측정된 제1 변위와 제2 위치에서 측정된 제2 변위를 이용하여 L을 계산할 수 있다. 거리 계산 모듈(430)은 특징점 및 f을 이용하여 dl 및 dr을 계산할 수 있다. 거리 계산 모듈(430)은 계산된 결과를 이용하여 x를 계산할 수 있다.The
x, 즉 실제 거리는 제1 위치로부터 열상까지의 거리, 제2 위치로부터 열상까지의 거리, 및/또는 제1 위치와 제2 위치의 중간 위치(또는 중간 지점)으로부터 열상까지의 거리를 포함할 수 있다.x, that is, the actual distance may include a distance from the first position to the heat, a distance from the second position to the heat, and / or a distance from the middle position (or intermediate point) have.
3D 생성 모듈(450)은 계산된 실제 거리를 이용하여 열상에 대응하는 객체의 3D 재구성을 수행할 수 있다. 3D 생성 모듈(450)은 객체의 3D 재구성을 디스플레이(500)로 전송하여 디스플레이할 수 있다.The
본 명세서에서의 모듈(module)은 본 명세서에서 설명되는 각 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다.A module in this specification may mean hardware capable of performing the functions and operations according to the respective names described in this specification and may mean computer program codes capable of performing specific functions and operations , Or an electronic recording medium, e.g., a processor or a microprocessor, equipped with computer program code capable of performing certain functions and operations.
다시 말해, 모듈이란 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및/또는 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.In other words, a module may mean a functional and / or structural combination of software for driving hardware and / or hardware for carrying out the technical idea of the present invention.
도 8은 일 실시예에 따른 거리 측정 장치의 응용 예를 설명하기 위한 도면이다.8 is a view for explaining an application example of the distance measuring apparatus according to an embodiment.
도 8을 참조하면, 거리 측정 장치(100)는 사람의 열상과 화염 검출이 가능할 수 있다. 재난 재해 상황에서 소방대원이 직접 진입할 수 없는 공간에는 거리 측정 장치(100)가 투입되어 요구조자와 화점의 위치 측정이 가능할 수 있다.Referring to FIG. 8, the
재난 상황에서는 전기 차단, 건물 붕괴 및 지하 공간에서의 재난 상황 등의 요인으로 인하여 빛이 차단될 가능성이 크므로, 기존 카메라 영상 이미지를 활용할 수 없는 어려움을 실시예에 따른 거리 측정 장치(100)를 통해 극복하고 실시예에 따른 거리 측정 기법을 바탕으로 객체의 3D 재구성을 실현하여 위험 지역 인지와 요구조자의 대피를 위한 지역 및 전역 경로 계획이 가능할 수 있다. 또한, 신속한 재난 대응과 구조대원 보조를 위한 효과적인 재난 대응 시스템 구축이 기대될 수 있다.In the event of a disaster, there is a high possibility that the light will be blocked due to factors such as electricity cut-off, building collapse, and disaster situation in the underground space. And realizing 3D reconstruction of objects based on the distance measurement technique according to the embodiment, it is possible to design a local and global path for recognizing a dangerous area and evacuating a demanding person. In addition, it can be expected that an effective disaster response system for rapid disaster response and rescue assistance will be established.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (18)
상기 이동체의 이동에 따라 상기 이동체의 변위를 측정하기 위한 센서;
상기 이동체의 이동에 따라 열상 이미지들을 생성하기 위한 모노 열화상 카메라; 및
상기 이동체의 변위 및 상기 열상 이미지들을 이용하여 열상까지의 실제 거리를 계산하는 컨트롤러
를 포함하고,
상기 컨트롤러는,
상기 이동체의 제1 위치에서 생성된 제1 열상 이미지와 상기 이동체의 제2 위치에서 생성된 제2 열상 이미지를 처리하여 상기 열상의 특징점을 추출하는 이미지 처리 모듈; 및
상기 열상의 특징점 및 상기 이동체의 변위를 이용하여 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 거리 계산 모듈
을 포함하는 거리 측정 장치.
Moving body;
A sensor for measuring a displacement of the moving object according to the movement of the moving object;
A mono thermal camera for generating thermal images according to the movement of the moving body; And
A controller for calculating a displacement of the moving body and an actual distance to the heat by using the thermal images,
Lt; / RTI >
The controller comprising:
An image processing module for processing the first lunar image generated at the first position of the moving object and the second lunar image generated at the second position of the moving object to extract the characteristic points of the lunar phase; And
A distance calculation module for calculating the actual distance through a stereo graphic method using the feature points of the thermal image and the displacement of the moving object,
.
상기 이미지 처리 모듈은,
상기 제1 열상 이미지에서 온도가 높은 값의 제1 픽셀들을 추출하고, 상기 제2 열상 이미지에서 온도가 높은 값의 제2 픽셀들을 추출하고, 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는
거리 측정 장치.
The method according to claim 1,
The image processing module comprising:
Extracting first pixels of a high temperature value from the first lunar image, extracting second pixels of a high temperature value from the second lunar image, Extracting a point as a feature point of the thermal image
Distance measuring device.
상기 이미지 처리 모듈은,
상기 제1픽셀들 및 상기 제2 픽셀들에서 일정 간격의 ROI(Region of Interest)를 지정하고, 지정된 ROI에서 그레디언트(gradient) 및 픽셀값 중에서 적어도 하나를 이용하여 매칭되는 점을 찾는
거리 측정 장치.
The method of claim 3,
The image processing module comprising:
A ROI (Region of Interest) at a predetermined interval is specified in the first pixels and the second pixels, and a matching point is found using at least one of a gradient and a pixel value in a specified ROI
Distance measuring device.
상기 이미지 처리 모듈은,
상기 제1 열상 이미지와 상기 제2 열상 이미지의 모습이 회전되지 않고 동일한 방향을 가지는 경우, SURF 기법을 이용하여 상기 제1 픽셀들과 상기 제2 픽셀들을 매칭하여 매칭되는 점을 찾는
거리 측정 장치.
The method of claim 3,
The image processing module comprising:
If the first and second thermal images have the same direction without being rotated, the first pixels and the second pixels are matched using the SURF technique to find a matching point
Distance measuring device.
상기 이미지 처리 모듈은,
딥러닝을 이용하여 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는
거리 측정 장치.
The method of claim 3,
The image processing module comprising:
A point matching in the first pixels and the second pixels is extracted as a feature point of the thermal image using deep running
Distance measuring device.
상기 컨트롤러는,
상기 실제 거리를 이용하여 상기 열상에 대응하는 객체의 3D 재구성을 수행하는 3D 생성 모듈
을 더 포함하는 거리 측정 장치.
The method according to claim 1,
The controller comprising:
A 3D generation module for performing a 3D reconstruction of an object corresponding to the lattice using the actual distance;
Further comprising a distance measuring device.
상기 실제 거리는 상기 제1 위치로부터 상기 열상까지의 거리, 상기 제2 위치로부터 상기 열상까지의 거리, 및 상기 제1 위치와 상기 제2 위치의 중간 위치로부터 상기 열상까지의 거리 중에서 적어도 하나를 포함하는
거리 측정 장치.
The method according to claim 1,
Wherein the actual distance includes at least one of a distance from the first position to the heat image, a distance from the second position to the heat image, and a distance from the intermediate position between the first and second positions to the heat image
Distance measuring device.
상기 거리 계산 모듈은,
상기 제1 위치에서 측정된 제1 변위와 상기 제2 위치에서 측정된 제2 변위를 이용하여 상기 이동체가 이동한 거리를 계산하는
거리 측정 장치.
The method according to claim 1,
The distance calculation module calculates,
Calculating a distance traveled by the moving object using the first displacement measured at the first position and the second displacement measured at the second position
Distance measuring device.
상기 이동체의 이동에 따라 모노 열화상 카메라에 의해 열상 이미지들을 생성하는 단계; 및
상기 이동체의 변위 및 상기 열상 이미지들을 이용하여 열상까지의 실제 거리를 계산하는 단계
를 포함하고,
상기 계산하는 단계는,
상기 이동체의 제1 위치에서 생성된 제1 열상 이미지와 상기 이동체의 제2 위치에서 생성된 제2 열상 이미지를 처리하여 상기 열상의 특징점을 추출하는 단계; 및
상기 열상의 특징점 및 상기 이동체의 변위를 이용하여 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 단계
를 포함하는 거리 측정 방법.
Measuring a displacement of the moving object in accordance with the movement of the moving object;
Generating thermal images by a mono thermal camera according to the movement of the moving body; And
Calculating a displacement of the moving body and an actual distance to the thermal image using the thermal images
Lt; / RTI >
Wherein the calculating step comprises:
Extracting feature points of the thermal image by processing a first thermal image generated at a first position of the moving object and a second thermal image generated at a second position of the moving object; And
Calculating the actual distance through the stereo image method using the feature point of the thermal image and the displacement of the moving object
/ RTI >
상기 추출하는 단계는,
상기 제1 열상 이미지에서 온도가 높은 값의 제1 픽셀들을 추출하는 단계;
상기 제2 열상 이미지에서 온도가 높은 값의 제2 픽셀들을 추출하는 단계; 및
상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는 단계
를 포함하는 거리 측정 방법.
11. The method of claim 10,
Wherein the extracting comprises:
Extracting first pixels having a high temperature value in the first lunar image;
Extracting second pixels of a high temperature value from the second laminar image; And
Extracting a matching point in the first pixels and the second pixels as minutiae of the thermal image;
/ RTI >
상기 열상의 특징점으로 추출하는 단계는,
상기 제1픽셀들 및 상기 제2 픽셀들에서 일정 간격의 ROI(Region of Interest)를 지정하는 단계; 및
지정된 ROI에서 그레디언트(gradient) 및 픽셀값 중에서 적어도 하나를 이용하여 매칭되는 점을 찾는 단계
를 포함하는 거리 측정 방법.
13. The method of claim 12,
The step of extracting the feature points of the thermal image comprises:
Designating a region of interest (ROI) at a predetermined interval in the first pixels and the second pixels; And
Searching for a matching point using at least one of a gradient and a pixel value in a specified ROI
/ RTI >
상기 열상의 특징점으로 추출하는 단계는,
상기 제1 열상 이미지와 상기 제2 열상 이미지의 모습이 회전되지 않고 동일한 방향을 가지는 경우, SURF 기법을 이용하여 상기 제1 픽셀들과 상기 제2 픽셀들을 매칭하여 매칭되는 점을 찾는 단계
를 포함하는 거리 측정 방법.
13. The method of claim 12,
The step of extracting the feature points of the thermal image comprises:
If the first lunar image and the second lunar image have the same direction without being rotated, matching the first pixels with the second pixels using the SURF technique to find a matching point
/ RTI >
상기 열상의 특징점으로 추출하는 단계는,
딥러닝을 이용하여 상기 제1 픽셀들 및 상기 제2 픽셀들에서 매칭되는 점을 상기 열상의 특징점으로 추출하는 단계
를 포함하는 거리 측정 방법.
13. The method of claim 12,
The step of extracting the feature points of the thermal image comprises:
Extracting a matching point in the first pixels and the second pixels as deep feature points using deep learning;
/ RTI >
상기 실제 거리를 이용하여 상기 열상에 대응하는 객체의 3D 재구성을 수행하는 단계
를 더 포함하는 거리 측정 방법.
11. The method of claim 10,
Performing 3D reconstruction of the object corresponding to the lattice using the actual distance;
Further comprising:
상기 실제 거리는 상기 제1 위치로부터 상기 열상까지의 거리, 상기 제2 위치로부터 상기 열상까지의 거리, 및 상기 제1 위치와 상기 제2 위치의 중간 위치로부터 상기 열상까지의 거리 중에서 적어도 하나를 포함하는
거리 측정 방법.
11. The method of claim 10,
Wherein the actual distance includes at least one of a distance from the first position to the heat image, a distance from the second position to the heat image, and a distance from the intermediate position between the first and second positions to the heat image
Distance measurement method.
상기 스테레오그라피 방식을 통해 상기 실제 거리를 계산하는 단계는,
상기 제1 위치에서 측정된 제1 변위와 상기 제2 위치에서 측정된 제2 변위를 이용하여 상기 이동체가 이동한 거리를 계산하는 단계
를 포함하는 거리 측정 방법.11. The method of claim 10,
Wherein the step of calculating the actual distance through the stereo-
Calculating a distance traveled by the moving object using the first displacement measured at the first position and the second displacement measured at the second position,
/ RTI >
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170120234 | 2017-09-19 | ||
KR20170120234 | 2017-09-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101918887B1 true KR101918887B1 (en) | 2018-11-14 |
Family
ID=64328297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180011646A KR101918887B1 (en) | 2017-09-19 | 2018-01-30 | Distance measuring device using mono infrared camera and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101918887B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020159165A1 (en) * | 2019-02-01 | 2020-08-06 | 엘지전자 주식회사 | Infrared stereo camera |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080260207A1 (en) * | 2006-10-31 | 2008-10-23 | Honda Motor Co., Ltd. | Vehicle environment monitoring apparatus |
-
2018
- 2018-01-30 KR KR1020180011646A patent/KR101918887B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080260207A1 (en) * | 2006-10-31 | 2008-10-23 | Honda Motor Co., Ltd. | Vehicle environment monitoring apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020159165A1 (en) * | 2019-02-01 | 2020-08-06 | 엘지전자 주식회사 | Infrared stereo camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9953461B2 (en) | Navigation system applying augmented reality | |
US10580148B2 (en) | Graphical coordinate system transform for video frames | |
US10282913B2 (en) | Markerless augmented reality (AR) system | |
US10535160B2 (en) | Markerless augmented reality (AR) system | |
JP6255085B2 (en) | Locating system and locating method | |
US10086955B2 (en) | Pattern-based camera pose estimation system | |
KR20210114952A (en) | Target object detection method, apparatus, device and storage medium | |
Petrović et al. | Stereo vision-based human tracking for robotic follower | |
US10451403B2 (en) | Structure-based camera pose estimation system | |
CN106210538A (en) | Show method and apparatus and the program of image based on light field on a user device | |
KR20170053007A (en) | Method and apparatus for estimating pose | |
KR20200075727A (en) | Method and apparatus for calculating depth map | |
US9858669B2 (en) | Optimized camera pose estimation system | |
JP7204021B2 (en) | Apparatus and method for obtaining a registration error map representing image sharpness level | |
WO2018087462A1 (en) | Individual visual immersion device for a moving person with management of obstacles | |
JP7103354B2 (en) | Information processing equipment, information processing methods, and programs | |
KR101918887B1 (en) | Distance measuring device using mono infrared camera and method thereof | |
Cheng et al. | Positioning and navigation of mobile robot with asynchronous fusion of binocular vision system and inertial navigation system | |
Chermak et al. | Real-time smart and standalone vision/IMU navigation sensor | |
JP6154759B2 (en) | Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program | |
WO2020144848A1 (en) | Authoring device, authoring method, and authoring program | |
Liu et al. | Depth estimation of traffic scenes from image sequence using deep learning | |
BR102018076778A2 (en) | REMOVAL OF MESSENGED PICTURE SET BACKGROUND FOR OBJECT DETECTION | |
KR20140061164A (en) | Apparatus and method for detecting finger using depth image | |
US11222430B2 (en) | Methods, devices and computer program products using feature points for generating 3D images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |