KR20180113807A - Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging) - Google Patents

Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging) Download PDF

Info

Publication number
KR20180113807A
KR20180113807A KR1020170045386A KR20170045386A KR20180113807A KR 20180113807 A KR20180113807 A KR 20180113807A KR 1020170045386 A KR1020170045386 A KR 1020170045386A KR 20170045386 A KR20170045386 A KR 20170045386A KR 20180113807 A KR20180113807 A KR 20180113807A
Authority
KR
South Korea
Prior art keywords
information
roi
thermal energy
energy information
extracting
Prior art date
Application number
KR1020170045386A
Other languages
Korean (ko)
Other versions
KR101935853B1 (en
Inventor
차인호
Original Assignee
주식회사 토비스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 토비스 filed Critical 주식회사 토비스
Priority to KR1020170045386A priority Critical patent/KR101935853B1/en
Publication of KR20180113807A publication Critical patent/KR20180113807A/en
Application granted granted Critical
Publication of KR101935853B1 publication Critical patent/KR101935853B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S17/936
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar

Abstract

The present invention provides a night vision system capable of providing forward image information to a driver by sensing a forward vehicle, a pedestrian, and an animal that cannot be seen by the driver′s eyes. A night vision information display method according to one aspect of the present invention includes: a first step of acquiring thermal energy information for at least one object through a far infra-red (FIR) camera; a second step of extracting first thermal energy information satisfying a predetermined condition among the thermal energy information; a third step of extracting a vertical edge from the thermal energy information; a fourth step of extracting second thermal energy information mapped to the extracted vertical edge of the first thermal energy information; a fifth step of extracting a vertical end point and the other end point of the object included in the second thermal energy information; a sixth step of generating a region of interest (ROI) using the one end point and the other end point; a seventh step of comparing a plurality of classifiers related to a first object to be identified with an object included in the ROI; an eighth step of extracting the ROI corresponding to at least one of the plurality of classifiers in the ROI; and displaying the extracted ROI through a display unit. A tenth step of acquiring additional information about the at least one object by using at least one of light detection and ranging (LIDAR) and radio detecting and ranging (RADAR) is performed between the first step and the fifth step. In the sixth step, the ROI may be generated by using the additional information and the one end point and the other end point.

Description

라이다 및 레이더를 이용한 나이트 비전 시스템 {Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging)}(Night Detection and Ranging) and RADAR (Night Detection and Ranging)

본 발명은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비전 방법 및 시스템에 관한 것이다.The present invention relates to a night vision method for detecting a forward vehicle, a pedestrian, and an animal which are out of sight of a driver secured by a headlight during nighttime driving and which can not be seen by the eyes of a driver, ≪ / RTI >

구체적으로 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 라이다 및 레이더를 통해 획득된 정보를 이용하여 연산량을 낮추며, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비전 방법 및 시스템에 관한 것이다.More particularly, the present invention relates to a method and apparatus for converting a digital image signal into a digital image signal when a FIR (Far Infra-Red) camera installed in a vehicle senses thermal energy of an object, reduces the amount of computation using information obtained through radars and radars, The present invention relates to a night vision method and system that analyze, correct, and supplement a signal through a specific algorithm (Algorithm) to display on a display or output an alarm so that a driver can know ahead of time.

일반적으로 원적외선(Far Infra-Red: FIR)을 이용한 열화상 카메라(Thermal Imaging Camera)는 가시광선 영역을 감지하는 것이 아니라 원적외선 영역을 감지한다. Generally, a thermal imaging camera using Far Infra-Red (FIR) detects a far-infrared ray region rather than a visible light region.

즉, 열화상 카메라는 피사체에서 발산하는 적외선 열에너지를 감지하고, 감지된 결과를 열 화상 이미지로 획득한다. That is, the infrared camera senses infrared heat energy emitted from the subject and acquires the sensed result as a thermal image.

이러한 특성으로 인해 열 화상 카메라는 체온을 갖는 사람을 감지하는데 활용될 수 있다.This feature allows the thermal imaging camera to be used to sense people with body temperature.

한편, 최근 FIR 카메라를 이용한 보행자 감지 장치가 차량에 적용되고 있다. Meanwhile, a pedestrian sensing apparatus using an FIR camera has recently been applied to a vehicle.

이러한 차량에 적용된 FIR 카메라는 현재 차량이 주행 환경에 무관하게 일관된 검출 성능을 제공해야 한다. FIR cameras applied to these vehicles must provide consistent detection performance regardless of the current vehicle environment.

즉, 차량에 적용된 FIR 카메라는 주변 광원들로 인해 난반사가 심한 도심이나 상기 주변 광원들로 인한 난반사가 심하지 않은 도심 외관지역에서도 일관된 보행자 검출 성능을 제공해야 한다.In other words, the FIR camera applied to the vehicle should provide consistent pedestrian detection performance even in an urban area with severe diffuse reflection due to the surrounding light sources or in a downtown area where diffuse reflection due to the surrounding light sources is not severe.

따라서, 종래의 차량에 적용된 FIR 카메라에는 일관된 검출 성능을 제공하기 위해 기본적으로 감도를 조절하는 기능이 부가된다. Therefore, the FIR camera applied to the conventional vehicle basically has the function of adjusting the sensitivity in order to provide consistent detection performance.

이러한 감도 조절은 촬영된 열화상의 대상체 간의 복사 온도차 설정을 조정하여 감도를 조절할 수 있다.This sensitivity adjustment can adjust the sensitivity by adjusting the setting of the radiation temperature difference between the photographed images of the degraded image.

그러나, 주변 건물에서 방출하는 광원, 주변 건물에 부착된 간판에서 방출하는 광원 등의 난반사(scattered reflection), 특히, 전, 후방 차량의 조명등의 난반사가 극심한 도심에서는 감도 조절에 한계가 있다.However, there is a limit to the sensitivity control in scattered reflections such as a light source emitting from a nearby building, a light source emitting from a signboard attached to a neighboring building, and particularly in a city where extreme diffuse reflection of the front and rear vehicle lights is severe.

더욱이, FIR 카메라는 고가의 장비로서, 상기와 같이 난반사가 극심한 도심에서는 사용자가 요구하는 가격 대비 검출 성능을 만족시키지 못하고 있는 실정이다.In addition, the FIR camera is an expensive device, and thus, the user can not satisfy the price detection performance demanded by the user in a city with severe diffuse reflection.

물론, FIR 카메라에 비해 상대적으로 저가인 CMOS 카메라를 이용한 보행자 검출도 가능하다. 그러나 CMOS 카메라는 피사체에서 발산하는 적외선 열에너지를 감지하는 방식으로 피사체의 이미지를 획득하는 방식이 아니기 때문에 피사체의 복사 온도차를 이용한 감도 조절 기능이 없다. Of course, it is also possible to detect pedestrians using CMOS cameras, which are relatively inexpensive compared to FIR cameras. However, since the CMOS camera is not a method of acquiring an image of a subject in such a manner that infrared heat energy emitted from the subject is sensed, there is no sensitivity control function using the temperature difference of the subject.

즉, 난반사가 극심한 도심에서, 특히 야간 보행자의 검출은 불가능하며, FIR 카메라와 같이, 대상체가 보행자 인지 동물인지 뚜렷이 구분하지 못한다.In other words, it is impossible to detect nighttime pedestrians, especially in urban areas with extreme diffuse reflections. As with FIR cameras, it is not possible to clearly distinguish whether an object is a pedestrian or an animal.

한편, 최근에는 교통 사고 중 보행자(자전거 탑승자 포함) 사고가 상당 부분을 차지하며, 이러한 보행자 사고는 일단 사고가 나면 사망 등의 큰 인명 사고로 이어진다는 점에서 반드시 방지해야만 하는 사고이다.In recent years, pedestrians (including those on a bicycle) occupy a large part of traffic accidents, and pedestrian accidents must be prevented in the sense that once an accident occurs, it leads to a big accident such as death.

따라서, 보행자(자전거 탑승자 포함) 보호에 대한 많은 연구들이 진행되고 있는 상황이다. Therefore, there are many studies on the protection of pedestrians (including cyclists).

그럼에도 불구하고, 종래의 보행자 보호 장치에서는, 보행자를 정확하게 인식하기 위해서 배제되어야 할 주변 건물, 주변 물체 등의 배경을 보행자와 정확히 구별하지 못하는 문제점이 여전히 있으며, 이로 인해, 제대로 된 보행자 보호를 하지 못하고 있는 실정이다.Nevertheless, in the conventional pedestrian protection apparatus, there is still a problem that the background of surrounding buildings, surrounding objects, etc., which should be excluded in order to correctly recognize the pedestrian, can not be distinguished from the pedestrian accurately, In fact.

또한, 종래의 FIR 카메라를 이용한 보행자 검출 장치는 보행자 검출에 적용 시 온도가 높게 나타나는 영역을 관심영역으로 설정하여 보행자 감지를 수행하였다.In addition, the conventional pedestrian detection apparatus using the FIR camera performs the pedestrian detection by setting the region where the temperature is high when it is applied to the detection of the pedestrian as the region of interest.

그러나, FIR 카메라를 이용한 보행자 검출 장치는 주/야간 등 환경에 따라 상대적으로 온도가 일정하지 않으므로, 온도가 높게 나타나는 영역에서는 일관된 성능을 기대하기가 어려웠다.However, since the temperature of the pedestrian detection device using the FIR camera is relatively constant depending on the environment such as day / night, it is difficult to expect a consistent performance in a region where the temperature is high.

또한, FIR 카메라를 이용한 보행자 검출 장치 외에도 다양한 보행자 검출 장치들이 제안되었으나, 주로 차량의 범퍼나 펜더(Fender)의 안과 같은 차량의 전방에 장착된 센서들을 포함한다. In addition, various pedestrian detection devices have been proposed in addition to a pedestrian detection device using an FIR camera, but they include sensors mounted in front of a vehicle such as a bumper of a vehicle or an eye of a fender.

이러한 센서를 포함하는 보행자 검출 장치들은 쉽사리 오류의 출력신호를 제공할 수 있어서, 예를 들면 도로의 원뿔체나 동물과 같은 타격에 타격되었을 때 안전 장치가 부적절하게 전개될 수도 있다.Pedestrian detection devices incorporating such sensors can readily provide an output signal of an error so that the safety device may be improperly deployed when struck by a hitting such as a cone of a road or an animal.

따라서 상기 문제점을 해소하고, 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비전 방법 및 시스템에 대한 필요성이 대두되고 있다.Accordingly, it is an object of the present invention to solve the above-mentioned problems and to provide a system and a method for detecting a vehicle, a pedestrian, an animal, etc. ahead of the driver's sight range secured by a headlight during night driving, There is a need for a night vision method and system.

대한민국 특허청 등록번호 제 10-1410215호Korean Intellectual Property Office Registration No. 10-1410215 대한민국 특허청 등록번호 제 10-1284892호Korean Intellectual Property Office Registration No. 10-1284892

본 발명은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비전 방법 및 시스템을 제공하고자 한다.The present invention relates to a night vision method for detecting a forward vehicle, a pedestrian, and an animal which are out of sight of a driver secured by a headlight during nighttime driving and which can not be seen by the eyes of a driver, System.

구체적으로 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 라이다 및 레이더를 통해 획득된 정보를 이용하여 연산량을 낮추며, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비전 방법 및 시스템을 사용자에게 제공하고자 한다.More particularly, the present invention relates to a method and apparatus for converting a digital image signal into a digital image signal when a FIR (Far Infra-Red) camera installed in a vehicle senses thermal energy of an object, reduces the amount of computation using information obtained through radars and radars, The present invention relates to a method and system for night vision that analyzes, corrects, and compensates a signal through a specific algorithm (Algorithm), displays it on a display, or outputs an alarm so that a driver can know ahead of time.

또한, 본 발명은 라이다 및 레이더를 통해 획득된 정보를 이용하여 ROI(Region of Interest)의 생성에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 하는 나이트 비전 방법 및 시스템을 사용자에게 제공하고자 한다.The present invention also provides a method and apparatus for reducing the amount of computation in the generation of a region of interest (ROI) using information obtained through radar and radar, Vision method and system to the user.

다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. It can be understood.

상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 나이트 비전 정보 표시 방법은, FIR(Far Infra-Red) 카메라를 통해 적어도 하나의 객체에 대한 열에너지 정보를 획득하는 제 1 단계; 상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하는 제 2 단계; 상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하는 제 3 단계; 상기 제 1 열에너지 정보 중 상기 추출된 버티컬 에지에 맵핑(mapping) 되는 제 2 열에너지 정보를 추출하는 제 4 단계; 상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하는 제 5 단계; 상기 일단과 타단 포인트를 이용하여 ROI(Region of Interest)를 생성하는 제 6 단계; 식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하는 제 7 단계; 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8 단계; 및 상기 추출한 ROI를 디스플레이부를 통해 표시하는 제 9 단계;를 포함하되, 상기 제 1 단계 내지 제 5 단계 사이에는, LiDAR(light detection and ranging) 및 RADAR(Radio Detecting And Ranging) 중 적어도 하나를 통해 상기 적어도 하나의 객체에 대한 추가정보를 획득하는 제 10 단계;를 더 포함하고, 상기 제 6 단계에서는, 상기 추가정보와 상기 일단과 타단 포인트를 함께 이용하여 ROI를 생성할 수 있다.According to an aspect of the present invention, there is provided a night vision information display method including: a first step of acquiring thermal energy information for at least one object through a Far Infra-Red (FIR) camera; A second step of extracting first thermal energy information satisfying a predetermined condition among the thermal energy information; A third step of extracting a vertical edge from the thermal energy information; A fourth step of extracting second thermal energy information mapped to the extracted vertical edge of the first thermal energy information; A fifth step of extracting a vertical one end point and another end point of the object included in the second thermal energy information; A sixth step of generating a region of interest (ROI) using the one end and the other end; A seventh step of comparing a plurality of classifiers related to a first object to be identified with an object included in the ROI; An eighth step of extracting an ROI corresponding to at least one of the plurality of classifiers in the ROI; And displaying the extracted ROI through a display unit. The method of claim 1, further comprising, during the first through fifth steps, displaying the extracted ROI through at least one of light detection and ranging (LiDAR) and radio detecting and ranging (RADAR) The method may further include acquiring additional information about at least one object. In the sixth step, ROI may be generated using the additional information and the one end and the other end together.

또한, 상기 제 6 단계에서는, 상기 추가정보를 이용하여 상기 적어도 하나의 객체의 배치를 확인하고, 상기 제 5 단계에서 추출된 일단과 타단 포인트 중 상기 확인된 배치에 대응되는 일단과 타단 포인트만을 이용하여 ROI를 생성할 수 있다.In the sixth step, the arrangement of the at least one object is confirmed using the additional information, and only one end and the other end point corresponding to the identified arrangement among the one and the other end points extracted in the fifth step are used The ROI can be generated.

또한, 상기 LiDAR는 상기 FIR 카메라로부터 미리 설정된 이격 거리 이내에 위치하는 상기 적어도 하나의 객체에 대한 정보를 획득하고, 상기 RADAR는 상기 FIR 카메라로부터 미리 설정된 이격 거리를 벗어나 위치하는 상기 적어도 하나의 객체에 대한 정보를 획득할 수 있다.In addition, the LiDAR obtains information about the at least one object located within a preset distance from the FIR camera, and the RADAR is for the at least one object located outside the predetermined distance from the FIR camera Information can be obtained.

또한, 상기 미리 설정된 조건은 미리 설정된 수치 이상의 밝기 값을 갖는 조건일 수 있다.In addition, the predetermined condition may be a condition having a brightness value equal to or greater than a predetermined value.

또한, 상기 미리 설정된 조건은 제 1 조건 및 제 2 조건을 포함하고, 상기 제 1 조건의 밝기 값은 상기 제 2 조건의 밝기 값보다 크며, 상기 제 4 단계는 상기 제 2 조건을 만족하는 제 1 열에너지 정보에 적용되고, 상기 제 5 단계는 상기 제 1 조건을 만족하는 제 1 열에너지 정보와 상기 제 2 에너지 정보를 이용하여 수행될 수 있다.In addition, the predetermined condition may include a first condition and a second condition, the brightness value of the first condition being greater than the brightness value of the second condition, and the fourth step may include a first condition And the fifth step is performed using the first thermal energy information satisfying the first condition and the second energy information.

또한, 상기 제 2 단계와 제 3 단계는 동시에 수행될 수 있다.In addition, the second step and the third step may be performed simultaneously.

또한, 상기 제 8 단계 및 제 9 단계 사이에는, 상기 일단과 타단 포인트 중 적어도 하나를 이용하여 상기 추출한 ROI에 포함된 객체를 트래킹(Tracking)하는 제 8-1 단계; 를 더 포함하고, 상기 제 9 단계에서는, 상기 제 8-1 단계에서 트래킹하는 정보를 표시할 수 있다.Between the eighth step and the ninth step, an object included in the extracted ROI is tracked using at least one of the one end and the other end; And in the ninth step, information to be tracked in the eighth step may be displayed.

또한, 상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고, 상기 반복 수행되는 제 6 단계는, 이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 6-1 단계; 상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 6-2 단계; 상기 제 1 객체와 관련된 배니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 6-3 단계; 및 상기 배니싱 영역 통계 정보와 상기 배니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 일단과 타단 포인트를 이용하여 ROI를 생성하는 제 6-4 단계; 를 포함할 수 있다.The first through ninth steps are repeatedly performed, and the sixth step repeatedly performs the vanishing operation on the vertical axis of the object included in the ROI extracted from the eighth step, 6-1 < / RTI > (6-2) setting a vanishing region based on the set vanishing line; 6-3) comparing the vanishing area statistical information related to the first object with the vanishing area; And (6) if the difference between the vanishing region statistical information and the vanishing region is within a predetermined range, generating the ROI using the one end and the other end point; . ≪ / RTI >

또한, 상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고, 상기 반복 수행되는 제 8 단계는, 이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 8-2 단계; 상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 8-3 단계; 상기 제 1 객체와 관련된 배니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 8-4 단계; 및 상기 배니싱 영역 통계 정보와 상기 배니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8-5 단계;를 더 포함할 수 있다.In addition, the first through ninth steps are repeatedly performed, and the eighth step repeatedly performs a step of performing a vanishing operation on the vertical axis of the object included in the ROI extracted from the eighth step, 8-2 < / RTI > 8-3) setting a vanishing region on the basis of the set vanishing line; Comparing the vanishing area statistical information associated with the first object and the vanishing area; And extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI when the difference between the vanishing region statistical information and the vanishing region is within a predetermined range, .

또한, 상기 제 1 객체는 전방의 차량, 보행자 및 동물을 포함하고, 상기 제 1 단계에서 상기 열에너지 정보는 야간에 획득될 수 있다.In addition, the first object includes a vehicle ahead, a pedestrian and an animal, and in the first step, the thermal energy information can be obtained at night.

한편, 상기의 기술적 과제를 달성하기 위한 본 발명의 다른 양상인 나이트 비전 정보 표시 장치는, 적어도 하나의 객체에 대한 열에너지 정보를 획득하는 FIR(Far Infra-Red) 카메라; 상기 적어도 하나의 객체에 대한 추가정보를 획득하는 LiDAR(light detection and ranging) 및 RADAR(Radio Detecting And Ranging); 상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하고, 상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하며, 상기 제 1 열에너지 정보 중 상기 추출된 “버티컬 에지”에 맵핑(mapping) 되는 제 2 열에너지 정보를 추출하고, 상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하며, 상기 추가정보와 상기 일단과 타단 포인트를 함께 이용하여 ROI를 생성하고, 식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하며, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제어부; 및 상기 추출한 ROI를 표시하는 디스플레이부;를 포함할 수 있다.According to another aspect of the present invention, there is provided an apparatus for displaying night vision information, comprising: a Far Infra-Red (FIR) camera for acquiring thermal energy information on at least one object; Light detection and ranging (LiDAR) and Radio Detecting And Ranging (RADAR) to obtain additional information about the at least one object; Extracting first thermal energy information satisfying a preset condition among the thermal energy information, extracting a vertical edge from the thermal energy information, mapping the extracted first thermal energy information to the extracted " vertical edge " Extracts a vertical end point and an end point of the object included in the second thermal energy information, generates an ROI using the additional information, the end point and the end point together, A control unit for comparing a plurality of classifiers related to one object with an object included in the ROI and extracting an ROI corresponding to at least one of the plurality of classifiers in the ROI; And a display unit displaying the extracted ROI.

본 발명은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비전 방법 및 시스템을 제공할 수 있다.The present invention relates to a night vision method for detecting a forward vehicle, a pedestrian, and an animal which are out of sight of a driver secured by a headlight during nighttime driving and which can not be seen by the eyes of a driver, System can be provided.

구체적으로 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 라이다 및 레이더를 통해 획득된 정보를 이용하여 연산량을 낮추며, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비전 방법 및 시스템을 사용자에게 제공할 수 있다.More particularly, the present invention relates to a method and apparatus for converting a digital image signal into a digital image signal when a FIR (Far Infra-Red) camera installed in a vehicle senses thermal energy of an object, reduces the amount of computation using information obtained through radars and radars, A night vision method and system can be provided to the user to analyze, correct and supplement the signal through a specific algorithm (Algorithm), display it on a display or output an alarm so that the driver can know ahead of time.

또한, 본 발명은 라이다 및 레이더를 통해 획득된 정보를 이용하여 ROI(Region of Interest)의 생성에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 하는 나이트 비전 방법 및 시스템을 사용자에게 제공할 수 있다.The present invention also provides a method and apparatus for reducing the amount of computation in the generation of a region of interest (ROI) using information obtained through radar and radar, Vision method and system to the user.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It should be understood, however, that the effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those skilled in the art from the following description It will be possible.

도 1a 및 도 1b는 본 발명과 관련하여 나이트 비전 시스템과 헤드램프 시스템의 야간 식별 거리를 비교하기 위한 도면이다.
도 2a 및 도 2b는 본 발명과 관련하여, 차량에 나이트 비전 시스템을 탑재한 구체적인 모습을 도시하는 도면이다.
도 3은 본 발명이 제안하는 나이트 비전 시스템의 블록 구성도를 도시한 것이다.
도 4는 도 3에서 설명한 본 발명에 따른 나이트 비전 시스템의 구체화된 블록 구성도의 일례를 도시한 것이다.
도 5는 본 발명에 따른 라이다 및 레이더를 이용한 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 구체적인 과정을 설명하는 순서도이다.
도 6a 내지 도 6e는 도 5에서 설명한 과정들 중 인풋 이미지를 통해 ROI를 생성하는 구체적인 과정을 설명하는 도면이다.
도 7은 도 5에서 설명한 과정들 중 기계학습(Machine Learning)에 따른 보행자 분류의 구체적인 과정을 설명하는 도면이다.
도 8a 및 도 8b는 도 5에서 설명한 과정들 중 Multi-Classifier를 이용한 오인지 제거 알고리즘 과정을 구체적으로 설명하기 위한 도면이다.
도 9a 및 도 9b는 도 5에서 설명한 과정들 중 Head Point 기반 Tracking 과정을 구체적으로 설명하기 위한 도면이다.
도 10은 본 발명에 따른 라이다 및 레이더를 이용한 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 일례를 설명하는 순서도이다.
도 11은 안개, 먼지 등 시야가 제한되는 상황에서, 본 발명에 따른 나이트 비전 시스템을 통해 운전자가 쉽게 주변상황을 확인할 수 있는 구체적인 모습을 도시한 것이다.
도 12는 본 발명에 따른 라이다 및 레이더를 이용한 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 과정을 설명하는 순서도이다.
FIGS. 1A and 1B are diagrams for comparing night vision distances of a night vision system and a headlamp system according to the present invention. FIG.
Figs. 2A and 2B are views showing a concrete state in which a vehicle is equipped with a night vision system, in the context of the present invention. Fig.
FIG. 3 is a block diagram of a night vision system proposed by the present invention.
FIG. 4 illustrates an exemplary block diagram of a night vision system according to an embodiment of the present invention. Referring to FIG.
FIG. 5 is a flowchart illustrating a detailed process of displaying information according to a specific algorithm by detecting thermal energy of an FIR camera through a night vision system using a radar and a radar according to the present invention.
6A to 6E are diagrams for explaining a specific process of generating an ROI through an input image among the processes described with reference to FIG.
FIG. 7 is a view for explaining a concrete process of classifying a pedestrian according to machine learning among the processes described in FIG. 5. FIG.
8A and 8B are diagrams for explaining the procedure of the false recognition algorithm using the multi-classifier among the processes described in FIG.
FIGS. 9A and 9B are views for specifically explaining the HeadPoint-based Tracking process among the processes described in FIG.
10 is a flowchart for explaining another example in which the FIR camera senses thermal energy of an object and displays information according to a specific algorithm through a night vision system using a radar and a radar according to the present invention.
FIG. 11 is a view showing a specific situation in which the driver can easily check the surrounding situation through the night vision system according to the present invention in a situation where the field of view such as fog and dust is limited.
12 is a flowchart illustrating another process of displaying information according to a specific algorithm by detecting thermal energy of an FIR camera through a night vision system using a radar and a radar according to the present invention.

일반적으로, 차량에서는 내비게이션 시스템(Navigation system)을 이용하여 원하는 목적지까지의 경로 정보를 확인하고, 내비게이션을 통해 안내되는 경로 정보에 따라 편리하게 목적지를 찾아가게 된다.Generally, in a vehicle, a navigation system (navigation system) is used to confirm route information to a desired destination, and navigates to a destination conveniently according to route information that is navigated through navigation.

이러한 내비게이션 시스템은 경로 안내, 텔레비전 시청, 차량 속도 정보 표시 등과 같은 정보는 제공해주나, 도루 주행 중 보행자 또는 동물을 감지하여 이를 경고해주는 것은 불가능하다.Such a navigation system provides information such as route guidance, television viewing, vehicle speed information display, etc., but it is impossible to detect a pedestrian or an animal while driving on the stern and warn it.

차량의 주행 중 운전자는 육안으로 보행자나 동물들의 출현 등을 직접 확인하고, 육안으로 식별한 감지 정보에 근거해 차량 운행을 제어하게 된다.During the driving of the vehicle, the driver visually confirms the appearance of pedestrians or animals, and controls the vehicle operation based on the sensed information detected by the naked eye.

여기서 낮에는 인간의 육안으로 대부분의 보행자나 동물의 식별이 가능하나, 인간의 눈은 조도가 낮은 밤에는 보행자나 동물의 식별이 거의 불가능하다. In the daytime, it is possible to identify most pedestrians and animals with the naked eye, but human eyes can not distinguish pedestrians or animals at night with low illumination.

따라서 조도가 낮은 야간에 보행자 또는 동물의 식별이 어려워 빈번하게 보행자 또는 동물과 차량이 충돌하는 사고가 발생하고 있다.Therefore, it is difficult to identify a pedestrian or an animal at a low illuminance at night, and an accident occurs frequently in which a vehicle collides with a pedestrian or an animal.

최근에는 FIR 카메라를 이용한 보행자 감지 장치가 차량에 적용되고 있다. Recently, pedestrian sensing devices using FIR cameras have been applied to vehicles.

그러나 종래의 FIR 카메라를 이용한 보행자 감지 장치는 주변 건물에서 방출하는 광원, 주변 건물에 부착된 간판에서 방출하는 광원 등의 난반사(scattered reflection), 특히, 전, 후방 차량의 조명등의 난반사가 극심한 도심에서는 감도 조절에 한계가 있다.However, the conventional pedestrian sensing apparatus using the FIR camera has a problem in that scattered reflections of a light source emitted from a neighboring building and a light emitted from a signboard attached to a neighboring building, and particularly, There is a limit to the sensitivity control.

더욱이, FIR 카메라는 고가의 장비로서, 상기와 같이 난반사가 극심한 도심에서는 사용자가 요구하는 가격 대비 검출 성능을 만족시키지 못하고 있다.In addition, the FIR camera is an expensive apparatus, and does not satisfy the price detection performance required by the user in a city with severe diffuse reflection as described above.

즉, 난반사가 극심한 도심에서, 특히 야간 보행자의 검출은 불가능하며, FIR 카메라와 같이, 대상체가 보행자 인지 동물인지 뚜렷이 구분하지 못하고 있다.In other words, it is impossible to detect nighttime pedestrians, especially in urban areas with extreme diffuse reflections. As with FIR cameras, it is not possible to clearly distinguish whether the object is a pedestrian or an animal.

또한, 종래의 FIR 카메라를 이용한 보행자 보호 장치에서는, 보행자를 정확하게 인식하기 위해서 배제되어야 할 주변 건물, 주변 물체 등의 배경을 보행자와 정확히 구별하지 못하는 문제점이 여전히 있으며, 이로 인해, 제대로 된 보행자 보호를 하지 못하고 있다.Further, in the conventional pedestrian protection apparatus using the FIR camera, there is still a problem that the background of surrounding buildings, surrounding objects, etc., which should be excluded in order to correctly recognize the pedestrian, can not be distinguished from the pedestrian accurately. I can not.

또한, 종래의 FIR 카메라를 이용한 보행자 검출 장치는 주/야간 등 환경에 따라 상대적으로 온도가 일정하지 않으므로, 온도가 높게 나타나는 영역에서는 일관된 성능을 기대하기가 어렵다는 문제점이 있다.In addition, the conventional pedestrian detection apparatus using the FIR camera has a problem that it is difficult to expect consistent performance in a region where the temperature is high, because the temperature is relatively constant depending on the environment such as night and day.

따라서 본 명세서에서는 상기 문제점을 해소하는 나이트 비전 방법 및 시스템을 제공하고자 한다.Accordingly, the present invention provides a night vision method and system for solving the above problems.

본 발명이 제안하는 나이트 비전 시스템(Night Vision System, NVS)은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 운전자 보조 시스템이다.The night vision system (NVS) proposed by the present invention detects a vehicle, a pedestrian, and an animal ahead of the driver's sight beyond the visual range of the driver secured by the headlight during night driving, It is a driver assistance system for providing more forward image information.

도 1a 및 도 1b는 본 발명과 관련하여 나이트 비전 시스템과 헤드램프 시스템의 야간 식별 거리를 비교하기 위한 도면이다.FIGS. 1A and 1B are diagrams for comparing night vision distances of a night vision system and a headlamp system according to the present invention. FIG.

도 1a를 참조하면, 본 발명에 따른 나이트 비전 시스템은 일반 Head Lamp의 하향등을 켰을 때보다 3~5배 더 넓은 시야 확보가 가능하다.Referring to FIG. 1A, the night vision system according to the present invention is capable of securing a field of vision three to five times wider than that when the downward light of a general head lamp is turned on.

또한, 도 1b를 참조하면, 전조등을 조사하여 육안으로 식별할 수 있는 거리는 60m 이내로 제한되는 반면, 본 발명에 따른 나이트 비전 시스템을 통한 전방 보행자 인지는 130m까지 가능하여 전방 시야 확보에 더욱 효과적이다.In addition, referring to FIG. 1B, the distance that can be visually recognized by irradiating the headlight is limited to within 60m, while the recognition of a forward pedestrian through the night vision system according to the present invention is possible up to 130m, which is more effective in securing a forward view.

한편, 도 2a 및 도 2b는 본 발명과 관련하여, 차량에 나이트 비전 시스템을 탑재한 구체적인 모습을 도시하는 도면이다.Figs. 2A and 2B are diagrams showing concrete details of mounting a night vision system on a vehicle in accordance with the present invention. Fig.

도 2a에 도시된 것과 같이, 차량 그릴 안쪽에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 통합 ECU에서 디지털 영상 신호로 변환하게 된다.As shown in FIG. 2A, when an FIR (Far Infra-Red) camera installed inside the vehicle grill senses thermal energy of an object, the integrated ECU converts the digital image signal.

이후, 변환된 영상 신호는 영상 알고리즘(Algorithm)을 통해 분석, 수정 및 보완되고, 상기 처리가 완료된 영상 신호가 Display에 표시되거나 경고음이 출력됨으로써, 운전자가 사전에 전방 상황을 알 수 있게 해준다.Thereafter, the converted video signal is analyzed, corrected and supplemented through an image algorithm, and the processed video signal is displayed on the display or a warning sound is output, thereby allowing the driver to know the forward situation in advance.

도 2b는 FIR(Far Infra-Red) 카메라를 통해 감지된 보행자가 디스플레이 부를 통해 표시되는 구체적인 모습을 도시한 것이다.FIG. 2B shows a specific view of a pedestrian detected through a Far Infra-Red (FIR) camera through a display unit.

본 발명의 구체적인 동작을 설명하기에 앞서, 본 발명이 제안하는 나이트 비전 시스템의 구성에 대해 선결적으로 설명한다.Before describing the specific operation of the present invention, the configuration of the night vision system proposed by the present invention will be described in detail.

도 3은 본 발명이 제안하는 나이트 비전 시스템의 블록 구성도를 도시한 것이다.FIG. 3 is a block diagram of a night vision system proposed by the present invention.

도 3을 참조하면, 본 발명이 제안하는 나이트 비전 시스템(100)은 원적외선 카메라(122), 제어부(180) 및 디스플레이 부(151)를 포함할 수 있다.Referring to FIG. 3, the night vision system 100 proposed by the present invention may include a far infrared ray camera 122, a control unit 180, and a display unit 151.

여기서 원적외선 카메라(122)는 원적외선(Far Infrared, Longwave Infrared, FIR)을 이용하여 적어도 하나의 객체를 촬영하는 카메라이다.The far infrared ray camera 122 is a camera that photographs at least one object using Far Infrared (Far Infrared, FIR).

원적외선은 통상 파장이 8㎛ 이상인 적외선을 의미하고, 가시광선보다 파장이 길어서 눈에 보이지 않고 열작용이 크며 침투력이 강하다. Far infrared rays usually mean infrared rays having a wavelength of 8 탆 or more, and are longer than wavelengths of visible light, so they are invisible to the naked eye, have a large thermal effect, and have high penetration.

본 발명에 따른 원적외선 카메라(122)의 특성을 설명한다.Characteristics of the far-infrared camera 122 according to the present invention will be described.

일반 CCD, CMOS 소자를 사용하는 카메라는 가시광 영역의 빛을 감지하여 투영하는 역할을 하기 때문에 사람의 눈으로 보는 것과 비슷한 영상을 획득할 수 있다. Since a camera using a general CCD or a CMOS device serves to sense and project light in a visible light region, it is possible to acquire an image similar to that of a human eye.

반면, 원적외선 카메라(122)는 사람이 보지 못하는 적외선 대역의 빛을 투영한다. On the other hand, the far-infrared camera 122 projects the light in the infrared band that is not seen by a person.

적외선은 빛의 파장 중 750nm에서 1mm의 대역의 빛을 말하는 것으로서, 이러한 적외선 대역 중에서도 NIR(Near Infra-Red)의 빛은 700nm에서 1400nm의 파장을 말하며, NIR 대역의 빛은 사람의 눈에는 보이지 않지만 CCD나 CMOS 소자로도 감지가 가능하며 필터를 이용하면 NIR 대역의 빛만을 감지할 수 있다. Infrared light refers to light in the wavelength range of 750 nm to 1 mm among the wavelengths of light. Among these infrared bands, the light of NIR (near infra-red) refers to the wavelength of 700 to 1400 nm and the light of NIR band is not visible to human eyes It can be detected by CCD or CMOS device, and it can detect only NIR band light by using filter.

이에 비해, FIR의 빛은 LWIR(Long Wavelength Infra-Red)라고도 하며 적외선은 빛의 파장 중 8μm에서 15μm의 대역을 나타낸다. On the other hand, the light of the FIR is also referred to as LWIR (Long Wavelength Infra-Red), and the infrared ray represents a band of 8 μm to 15 μm in the wavelength of light.

특히, FIR 대역은 온도에 따라 파장이 변하기 때문에 온도를 구별할 수 있는 장점이 있다. In particular, the FIR band has the advantage of being able to distinguish the temperature because the wavelength varies according to the temperature.

원적외선 카메라(122)의 대상인 사람(보행자)의 체온은 10μm의 파장을 가진다.The body temperature of the person (pedestrian) which is the object of the far-infrared camera 122 has a wavelength of 10 mu m.

또한, 제어부(180)는 나이트 비전 시스템(100)의 전반적인 동작을 제어한다.In addition, the control unit 180 controls the overall operation of the night vision system 100.

특히, 원적외선 카메라(122)를 통해 획득된 정보를 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하며, 상기 처리가 완료된 영상 신호가 디스플레이부(151)를 통해 출력되도록 제어할 수 있다.Particularly, the information obtained through the far infrared ray camera 122 is converted into a digital image signal, the converted image signal is analyzed, corrected and supplemented through a specific algorithm, and the processed image signal is displayed on the display unit 151 ).

제어부(180)는 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The control unit 180 may be implemented in a recording medium that can be read by a computer or similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 제어부(180)는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. According to a hardware implementation, the control unit 180 may be implemented as an application specific integrated circuit (ASIC), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays processors, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions.

소프트웨어적인 구현에 의하면, 제어부(180)는 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 후술하는 메모리(160)에 저장될 수 있다.According to the software implementation, the control unit 180 may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software codes may be stored in the memory 160, which will be described later.

또한, 디스플레이부(151)는 제어부(180)에 의해 처리된 정도를 외부로 출력하는 기능을 제공한다.Also, the display unit 151 provides a function of outputting the degree processed by the control unit 180 to the outside.

여기서, 디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. Here, the display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) a flexible display, and a 3D display.

이하에서는 도 4를 이용하여 도 3에서 설명한 본 발명이 제안하는 나이트 비전 시스템(100)의 구체적인 구성에 대해 설명한다.Hereinafter, with reference to FIG. 4, a specific configuration of the night vision system 100 proposed by the present invention described in FIG. 3 will be described.

도 4를 참조하면, 나이트 비전 시스템(100)은 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 4, the night vision system 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, A memory 160, an interface unit 170, a control unit 180, a power supply unit 190, and the like.

단, 도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 나이트 비전 시스템이 구현될 수도 있다.However, the components shown in Fig. 4 are not essential, so that a night vision system having components with fewer components or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 나이트 비전 시스템과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The wireless communication unit 110 may include one or more modules that enable wireless communication between the night vision system and the wireless communication system or between the device and the network in which the device is located.

예를 들어, 무선 통신부(110)는 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.For example, the wireless communication unit 110 may include a mobile communication module 112, a wireless Internet module 113, a short distance communication module 114, a location information module 115, and the like.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 기기, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module 112 transmits and receives a radio signal to at least one of a base station, an external device, and a server on a mobile communication network.

문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. And various types of data according to transmission / reception of text / multimedia messages.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 나이트 비전 시스템에 내장되거나 외장 될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and may be embedded in a night vision system or externally. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-WideBand), ZigBee, 와이파이(Wireless Fidelity, Wi-Fi) 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IRDA), Ultra-WideBand (UWB), ZigBee, Wireless Fidelity, Wi-Fi Can be used.

위치정보 모듈(115)은 나이트 비전 시스템의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The position information module 115 is a module for obtaining the position of the night vision system, and a representative example thereof is a Global Position System (GPS) module.

도 4를 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 4, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes an image frame such as a still image or a moving image obtained by the image sensor in the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

다음으로, 원적외선 카메라(122)는 사람이 보지 못하는 적외선 대역의 빛을 투영하여 촬영한다. Next, the far-infrared camera 122 projects the infrared ray of the band that the person can not see.

FIR의 빛은 LWIR(Long Wavelength Infra Red)라고도 하며 적외선은 빛의 파장 중 8μm에서 15μm의 대역을 나타내고, FIR 대역은 온도에 따라 파장이 변하기 때문에 온도를 구별할 수 있다.The light of the FIR is also referred to as LWIR (Long Wavelength Infra Red). Infrared light has a wavelength of 8 μm to 15 μm in the wavelength of the light. In the FIR band, the temperature can be distinguished because the wavelength varies with temperature.

원적외선 카메라(122)의 대상인 사람(보행자)의 체온은 10μm의 파장을 가지고, 원적외선 카메라(122)를 통해, 야간에서도 특정 객체에 대한 이미지, 동영상 등을 촬영하는 것이 가능하다.The body temperature of the person (pedestrian) which is the object of the far infrared ray camera 122 has a wavelength of 10 mu m and it is possible to photograph images, moving images, and the like of a specific object even at night through the far infrared ray camera 122. [

다음으로, 사용자 입력부(130)는 사용자가 나이트 비전 시스템의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. Next, the user input unit 130 generates input data for controlling the operation of the night vision system by the user. The user input unit 130 may include a key pad dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.

센싱부(140)는 나이트 비전 시스템의 개폐 상태, 나이트 비전 시스템의 위치, 사용자 접촉 유무, 나이트 비전 시스템의 방위, 나이트 비전 시스템의 가속/감속 등과 같이 나이트 비전 시스템의 현 상태를 감지하여 나이트 비전 시스템의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The sensing unit 140 senses the current state of the night vision system, such as the open / close state of the night vision system, the position of the night vision system, the presence or absence of user contact, the orientation of the night vision system, And generates a sensing signal for controlling the operation of the sensor.

센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. The sensing unit 140 may sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like.

또한, 본 발명에 따른 센싱부(140)는 LiDAR(light detection and ranging, 141)를 포함할 수 있다.In addition, the sensing unit 140 according to the present invention may include LiDAR (light detection and ranging) 141.

여기서 LiDAR(141)는 light detection and ranging의 머리 글자를 따서 라이더라고도 한다. Here LiDAR (141) is also called rider after the initials of light detection and ranging.

원리적으로는 종래의 레이더에 있어서 마이크로파를 레이저광으로 대치한 것으로서, 표적까지의 거리 측정 장치이다. In principle, it is a distance measuring device up to a target, in which a microwave is replaced by a laser beam in a conventional radar.

레이저광을 사용함으로써 레이더(142)에 비해 거리 측정 정밀도와 방위 분해능, SN 비 등에서 개선된다. By using laser light, the distance measurement accuracy, azimuth resolution, SN ratio, and the like are improved as compared with the radar 142.

파장이 짧기 때문에 공기중의 미립자도 검출할 수 있다.Since the wavelength is short, fine particles in the air can be detected.

레이저 라만 레이더는 라만 산란을 이용하여 특정한 분자를 검출하는 것으로서, 대기나 해상 오염의 감시에 쓰이고 있다.The laser Raman radar detects specific molecules using Raman scattering and is used to monitor air and marine pollution.

본 발명에서는 LiDAR(141)는 차량의 전방 등에 위치한 객체를 인식함과 동시에 제어부(180)가 ROI(Region of Interest)의 생성함에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 할 수 있다.In the present invention, the LiDAR 141 recognizes an object located in front of a vehicle or the like, and at the same time, the control unit 180 greatly reduces the amount of computation in generating ROI (Region of Interest) It can be made known in advance.

또한, 본 발명에 따른 센싱부(140)는 RADAR(Radio Detecting And Ranging, 142)를 포함할 수 있다.In addition, the sensing unit 140 according to the present invention may include a radio detecting and ranging (RADAR)

여기서 RADAR(142)는 무선탐지와 거리측정(Radio Detecting And Ranging)의 약어로 마이크로파(극초단파, 10cm~100cm 파장) 의 전자기파를 물체에 발사시켜 그 물체에서 반사되는 전자기파를 수신하여 물체와의 거리, 방향, 고도 등을 알아내는 무선감시장치이다.The RADAR 142 is an abbreviation of Radio Detection and Ranging, which emits an electromagnetic wave of a microwave (microwave, 10 cm to 100 cm wavelength) to an object, receives an electromagnetic wave reflected from the object, Direction, altitude, and so on.

RADAR(142)에 이용되는 마이크로파는 파장이 길어서 빛과 같은 직진성을 가지며 전리층에서 반사되지 않으므로 방향성 안테나에서 발산된 전파는 목표물까지 직선으로 진행한 후 반사하여 돌아온다. Since the microwave used in the RADAR 142 has a long wavelength and has a straightness like light and is not reflected by the ionosphere, the radio wave emitted from the directional antenna travels straight to the target and then reflects back.

이때, 반사되어 돌아온 전자기파의 시간을 측정하여 목표물의 거리, 방향, 고도를 알아낼 수 있으며, 이러한 정보를 통해 목표물의 위치, 지형, 구름의 형성 등을 알아낸다.At this time, it is possible to find the distance, direction and altitude of the target by measuring the time of the reflected electromagnetic waves. Through this information, the position of the target, the topography, and the formation of the cloud are found.

레이더(142)를 이용하여 광학적 방법보다 더 정밀한 거리 측정이 가능하며 위성의 표면 상태에 대한 연구가 가능하다. By using the radar 142, it is possible to measure the distance more precisely than the optical method, and it is possible to study the surface state of the satellite.

레이더(142)는 구름의 물방울, 얼음 결정, 빗방울, 우박 등도 감지할 수 있기 때문에 기상학에서도 지상 레이더나 공중 레이더의 정보를 이용하여 수백km 떨어진 곳의 폭풍을 탐지하고 추적할 수 있다. Because the radar 142 can detect cloud droplets, ice crystals, raindrops, hail, etc., meteorology can also detect and track storms hundreds of kilometers away using ground or radar information.

레이더(142)의 회로 및 보조기구들이 소형화되면서 휴대가 가능하게 되면서, 경찰이 사용하는 속도감지용 레이더건(radar gun)이나 광학 레이더 탐지 소자(optical radar sensory device)를 이용하여 맹인을 위한 지팡이에 레이더 기술을 사용하기도 한다.As the circuits and auxiliary devices of the radar 142 are miniaturized and portable, it is possible to use a radar gun or an optical radar sensor device for speed sensing used by the police, Technology.

본 발명에서는 RADAR(142)는 차량의 전방 등에 위치한 객체를 인식함과 동시에 제어부(180)가 ROI(Region of Interest)의 생성함에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 할 수 있다.In the present invention, the RADAR 142 recognizes an object located in front of the vehicle or the like, and at the same time, the control unit 180 greatly reduces the amount of computation in generating ROI (Region of Interest), and transmits the forward information having higher accuracy to the driver It can be made known in advance.

한편, 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155), 헤드업 디스플레이(head-up display, HUD), 헤드 마운티드 디스플레이(head mounted display, HMD) 등이 포함될 수 있다.The output unit 150 generates an output related to a visual, auditory or tactile sense and includes a display unit 151, an audio output module 152, an alarm unit 153, a haptic module 154, Module 155, a head-up display (HUD), a head mounted display (HMD), and the like.

디스플레이부(151)는 나이트 비전 시스템에서 처리되는 정보를 표시(출력)한다. The display unit 151 displays (outputs) information processed in the night vision system.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparent OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 나이트 비전 시스템 바디의 디스플레이부(151)가 차지하는 영역을 통해 나이트 비전 시스템 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the night vision system body through the area occupied by the display unit 151 of the night vision system body.

나이트 비전 시스템의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 나이트 비전 시스템에는 복수의 디스플레이부들이 하나의 면에 이격 되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 depending on the implementation of the night vision system. For example, in a night vision system, a plurality of display portions may be spaced apart from one another, or may be disposed integrally with each other, or may be disposed on different surfaces, respectively.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 나이트 비전 시스템의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed within an interior region of the night vision system that is enclosed by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch & The act of actually touching the pointer on the screen is called "contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 나이트 비전 시스템에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a recording mode, a voice recognition mode, a broadcast receiving mode, or the like. The sound output module 152 also outputs sound signals related to functions performed in the night vision system. The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 나이트 비전 시스템의 이벤트 발생을 알리기 위한 신호를 출력한다. The alarm unit 153 outputs a signal for notifying the occurrence of an event of the night vision system.

알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration.

상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The video signal or the audio signal may be output through the display unit 151 or the audio output module 152 so that they may be classified as a part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the hit module 154 can be controlled.

예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or suction force of the air through the injection port or the suction port, a touch on the skin surface, contact of an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 나이트 비전 시스템의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. The haptic module 154 may include two or more haptic modules 154 according to the configuration of the night vision system.

프로젝터 모듈(155)은, 나이트 비전 시스템을 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이 되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이 할 수 있다.The projector module 155 is a component for performing an image project function using the night vision system and is configured to have the same or at least the same image displayed on the display unit 151 in accordance with a control signal of the controller 180 Some can display other images on an external screen or wall.

구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the projector module 155 includes a light source (not shown) that generates light (for example, laser light) for outputting an image to the outside, a light source And a lens (not shown) for enlarging and outputting the image at a predetermined focal distance to the outside. Further, the projector module 155 may include a device (not shown) capable of mechanically moving the lens or the entire module to adjust the image projection direction.

프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The projector module 155 can be divided into a CRT (Cathode Ray Tube) module, an LCD (Liquid Crystal Display) module and a DLP (Digital Light Processing) module according to the type of the display means. In particular, the DLP module may be advantageous for miniaturization of the projector module 151 by enlarging and projecting an image generated by reflecting light generated from a light source on a DMD (Digital Micromirror Device) chip.

바람직하게, 프로젝터 모듈(155)은, 나이트 비전 시스템의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 나이트 비전 시스템의 어느 위치에라도 구비될 수 있음은 당연하다.Preferably, the projector module 155 may be provided longitudinally on the side, front, or back of the night vision system. Of course, it is needless to say that the projector module 155 may be provided at any position of the night vision system, if necessary.

또한, 헤드업 디스플레이(head-up display, HUD, 156)는 차량 등에서 차량 현재 속도, 연료 잔량, 내비게이션 길안내 정보 등을 운전자 바로 앞 유리창 부분에 그래픽 이미지로 투영해주는 장치를 의미한다.In addition, the head-up display (HUD) 156 refers to a device for projecting the current vehicle speed, remaining fuel amount, navigation route information, and the like in a vehicle or the like as a graphic image on a window portion in front of the driver.

원적외선 카메라(122)를 통해 획득된 정보는 상기 헤드업 디스플레이(156)를 통해 출력되는 것도 가능하다.The information obtained through the far infrared camera 122 may also be output through the head-up display 156.

또한, 헤드 마운티드 디스플레이(head mounted display, HMD, 157)는 가상 현실(Virtual reality) 정보를 출력할 수 있는 대표적인 장치이다.In addition, a head mounted display (HMD) 157 is a typical device capable of outputting virtual reality information.

가상 현실(Virtual reality)이란 컴퓨터를 통해 어떤 특정한 환경이나 상황을 입체감 있는 3D 컨텐츠로 제작하여, 그 3D 컨텐츠를 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스 등을 총칭한다.Virtual reality is a process of creating a 3D environment in which a specific environment or situation is created through a computer and creating a human-computer interaction that makes the person using the 3D content appear as if they are interacting with the actual surroundings and environment. And the like.

일반적으로 사람이 지각하는 입체감은 관찰하는 물체의 위치에 따른 수정체의 두께 변화 정도, 양쪽 눈과 대상물과의 각도 차이, 그리고 좌우 눈에 보이는 대상물의 위치 및 형태의 차이, 대상물의 운동에 따라 생기는 시차, 그 밖에 각종 심리 및 기억에 의한 효과 등이 복합적으로 작용하여 생긴다.Generally, the three-dimensional sensation perceived by a person depends on the degree of thickness change of the lens according to the position of the observed object, the angle difference between the eyes and the object, the position and shape difference of the object on the left and right eyes, , And various other psychological and memory effects.

그 중 사람이 입체감을 느끼는 가장 중요한 요인은, 사람의 두 눈이 가로 방향으로 약 6.5㎝가량 떨어져 있음으로써, 나타나게 되는 양안 시차(binocular disparity)이다. 즉, 양안 시차에 의해 대상물에 대한 각도 차이를 가지고 바라보게 되고, 이 차이로 인해 각각의 눈에 들어오는 이미지가 서로 다른 상을 갖게 되며 이 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이 두 개의 정보를 정확히 서로 융합하여 본래의 3D 입체 영상을 느낄 수 있는 것이다.Among them, binocular disparity is the most important factor for a person to feel the stereoscopic effect, as the eyes of a person are about 6.5 cm apart in the horizontal direction. In other words, the binocular parallax causes the angle of the object to be viewed with the difference. Due to this difference, the images coming into each eye have different phases. When these two images are transmitted to the brain through the retina, The 3D stereoscopic image of the original can be felt.

이러한 입체감있는 3D 컨텐츠들은 이미 여러 미디어 분야에 두루 이용되어 소비자들로부터 호평을 받아오고 있다. 예를 들어 3D 영화, 3D 게임 및 체험 디스플레이와 같은 것들이 대표적이다.These stereoscopic 3D contents have already been widely used in various media fields and have been well received by consumers. For example, 3D movies, 3D games, and experience displays are examples.

이와 같이 가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다.As described above, in addition to the universalization of virtual reality technology 3D contents, there is a need to develop a technology capable of providing a more immersive virtual reality service.

일반적으로 이미지 디스플레이 장치는 눈과 매우 근접한 위치에서 발생하는 영상광을 정밀한 광학 장치를 이용하여 먼 거리에 가상의 대형화면이 구성될 수 있도록 초점을 형성함으로써 사용자로 하여금 확대된 허상을 볼 수 있도록 하는 화상 표시 장치를 말한다.2. Description of the Related Art Generally, an image display device forms a focal point so that a virtual large-sized screen can be formed at a long distance by using a precision optical device, which is generated in a position very close to an eye, so that a user can view an enlarged virtual image An image display device.

또한, 이미지 디스플레이 장치는, 주위 환경은 볼 수 없고 디스플레이 소자에서 발산된 영상광만을 볼 수 있는 밀폐형(See-close)과, 윈도우를 통해 주위 환경을 볼 수 있으면서도 디스플레이 소자에서 발산된 영상광을 동시에 볼 수 있는 투과식(See-through)으로 나뉠 수 있다.In addition, the image display device is configured to include a see-close type in which only the image light emitted from the display device can not be seen in the surrounding environment, and a see-close mode in which the image light emitted from the display device (See-through) that can be seen.

본 발명에 따른 헤드 마운티드 디스플레이(head mounted display, HMD, 157)란 안경처럼 머리에 착용하여 멀티미디어 컨텐츠를 제공받을 수 있도록 하는 각종디지털 디바이스를 말한다. 디지털 디바이스의 경량화 및 소량화 추세에 따라, 다양한 웨어러블 컴퓨터(Wearable Computer)가 개발되고 있으며, HMD 또한 널리 사용되고 있다. HMD(157)는 단순한 디스플레이 기능을 넘어 증강 현실 기술, N 스크린 기술 등과 조합되어 유저에게 다양한 편의를 제공할 수 있다.The head mounted display (HMD) 157 according to the present invention refers to various digital devices such as glasses that are worn on the head to receive multimedia contents. Various wearable computers (Wearable Computers) have been developed in accordance with the trend of weight reduction and miniaturization of digital devices, and HMDs are also widely used. The HMD 157 can be combined with augmented reality technology, N-screen technology, etc., beyond a simple display function, to provide various convenience to the user.

예를 들어, HMD(157)에 마이크와 스피커가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 전화 통화를 수행할 수 있다. 또한, 예를 들어, HMD(157)에 원적외선 카메라(122)가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 유저가 원하는 방향의 이미지를 캡쳐 할 수 있다.For example, when a microphone and a speaker are mounted on the HMD 157, the user can perform a telephone conversation while wearing the HMD 157. [ For example, when the far infrared ray camera 122 is mounted on the HMD 157, the user can capture an image of a desired direction in a state in which the HMD 157 is worn by the user.

또한, 메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력 시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.In addition, the memory unit 160 may store a program for processing and controlling the control unit 180 and temporarily store the input / output data (e.g., message, audio, still image, For example. The frequency of use of each of the data may be stored in the memory unit 160 as well. In addition, the memory unit 160 may store data on vibration and sound of various patterns output when the touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 나이트 비전 시스템은 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The night vision system may operate in association with a web storage that performs the storage function of the memory 160 on the Internet.

인터페이스부(170)는 나이트 비전 시스템에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송 받거나, 전원을 공급받아 나이트 비전 시스템 내부의 각 구성 요소에 전달하거나, 나이트 비전 시스템 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path for communication with all external devices connected to the night vision system. The interface unit 170 receives data from an external device, supplies power to each component in the night vision system, or allows data in the night vision system to be transmitted to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 나이트 비전 시스템의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 나이트 비전 시스템과 연결될 수 있다. The identification module is a chip for storing various information for authenticating the usage right of the night vision system and includes a user identification module (UIM), a subscriber identity module (SIM), a universal user authentication module Identity Module, USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Thus, the identification device can be connected to the night vision system through the port.

상기 인터페이스부는 나이트 비전 시스템이 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 나이트 비전 시스템에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the night vision system is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the night vision system or various command signals input from the cradle by the user are transmitted to the mobile device It can be a passage. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile device is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 나이트 비전 시스템의 전반적인 동작을 제어한다. The controller 180 typically controls the overall operation of the night vision system.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the control unit 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

한편, 전술한 본 발명의 구성을 기초로, 원적외선 카메라(122)가 열에너지를 통해 획득한 객체 관련 컨텐츠(문서, 이미지, 동영상 등)를 제어부(180)가 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하며, 디스플레이(151)가 처리된 컨텐츠를 표시하도록 제어하는 구체적인 동작에 대해 설명한다.On the other hand, based on the above-described configuration of the present invention, the control unit 180 converts object-related contents (document, image, moving image, etc.) acquired by the far-infrared camera 122 through thermal energy into a digital image signal, The specific operation in which the signal is analyzed, corrected and supplemented through a specific algorithm (Algorithm), and the display 151 is controlled to display the processed content will be described.

제 1 방법First Method

도 5는 본 발명에 따른 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 구체적인 과정을 설명하는 순서도이다.FIG. 5 is a flowchart illustrating a detailed process of displaying information according to a specific algorithm by sensing thermal energy of an object through an FIR camera through a night vision system according to the present invention.

또한, 도 6a 내지 도 6e는 도 5에서 설명한 과정들 중 인풋 이미지를 통해 ROI를 생성하는 구체적인 과정을 설명하는 도면이다.6A to 6E are diagrams for explaining a specific process of generating an ROI through an input image among the processes described with reference to FIG.

도 5를 참조하면, 가장 먼저, 원적외선 카메라(122)를 통해 적어도 하나의 객체의 열에너지에 대한 이미지를 획득하는 단계(S100)가 진행된다.Referring to FIG. 5, first, an image of thermal energy of at least one object is obtained through a far infrared ray camera 122 (S100).

도 6a를 참조하면, 본 발명의 원적외선 카메라(122)를 통해 복수의 객체의 열에너지 이미지가 획득된 구체적인 모습이 도시되어 있다.Referring to FIG. 6A, a detailed view of a thermal energy image of a plurality of objects is obtained through the far-infrared camera 122 of the present invention.

S100 단계가 진행되면, 제어부(180)는 인풋된 이미지 중 기 설정된 수치 이상의 밝기 값을 갖는 높은 쓰레스홀드(Threshold)의 이미지를 추출하는 단계(S110)를 수행한다.In operation S100, the control unit 180 extracts a threshold image having a brightness value greater than a predetermined value from the input image (S110).

여기서 쓰레스홀드 값(임계값)은 영상의 평균, 표준편차, 히스토그램 등을 이용하여 통계적으로 추정하거나, 사용자가 임의의 값을 입력하는 것으로 설정 가능하다.Here, the threshold value (threshold value) can be statistically estimated using the average, standard deviation, histogram, etc. of the image, or can be set by the user to input an arbitrary value.

이는 보통 사람(보행자)의 밝기 값은 주변 배경보다 밝다는 사실을 근거로 1차적으로 보행자를 추출하기 위한 방법을 적용한 것이다.This is based on the fact that the brightness value of the ordinary person (pedestrian) is brighter than the surrounding background.

도 6b를 참조하면, 일정 영역을 원적외선 카메라(122) 통해 열에너지 이미지로 촬영하였고, 촬영된 이미지 중 기 설정된 수치 이상의 밝기 값을 갖는 높은 쓰레스홀드 (Threshold)의 밝은 객체가 도시되어 있다.Referring to FIG. 6B, a certain area is photographed with a thermal energy image through a far-infrared camera 122, and a high threshold bright object having a brightness value of a preset value or more among the photographed images is shown.

그러나 원적외서 카메라(122)로부터 인접한 보행자와 멀리 떨어진 보행자의 획득되는 이미지 특성이 다르고, 하나의 보행자가 아닌 복수의 보행자가 인접해 있거나 날씨가 매우 춥거나 매우 더운 경우에는 S110 단계에서의 하나의 쓰레스홀드 (Threshold)로는 모든 보행자를 놓치지 않고 촬영하는 것이 어려울 수 있다.However, if the obtained image characteristics of the pedestrian far away from the camera 122 outside the original are different from each other, and a plurality of pedestrians other than one pedestrian are adjacent to each other, or the weather is extremely cold or very hot, With the threshold, it can be difficult to shoot all the pedestrians without missing them.

따라서 S110 단계와 달리 밝기 값을 낮춰서 낮은 쓰레스홀드 (Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하는 단계(S120)를 병렬적으로 수행한다.Accordingly, unlike step S110, the step S120 of extracting all the object images which are brighter on the lower threshold by lowering the brightness value is performed in parallel.

여기서 쓰레스홀드 값(임계값)은 영상의 평균, 표준편차, 히스토그램 등을 이용하여 통계적으로 추정하거나, 사용자가 임의의 값을 입력하는 것으로 설정 가능하다.Here, the threshold value (threshold value) can be statistically estimated using the average, standard deviation, histogram, etc. of the image, or can be set by the user to input an arbitrary value.

단, S120 단계에서는 타겟팅 하는 보행자 등 이외에 불필요한 노이즈들이 빈번하게 포함되어 추출될 수 있다.However, in step S120, unnecessary noise other than the targeted pedestrian may be frequently included and extracted.

따라서 이러한 문제점을 해소하기 위해, S100 단계에서 인풋된 이미지를 에지(edge)를 기준으로 추출하는 S130 단계를 함께 수행한다.Therefore, in order to solve such a problem, step S100 of extracting the input image based on an edge is performed together with step S100.

이는, 사람(보행자)의 경우, 신체 특성상 버티컬(VERTICAL) 에지 외곽성분 즉, 세로의 에지 외곽 성분이 강하게 나타나므로, 이를 이용하여 S120 단계에서 획득된 불필요한 노이즈를 제거하기 위한 것이다.This is because, in the case of a person (pedestrian), the outer edge component of the vertical edge, that is, the edge outer edge component of the vertical edge, is strongly displayed in terms of body characteristics, so that unnecessary noise obtained in step S120 is removed using this edge.

edge 영상은 sobel filter, canny edge detector, laplacian filter로부터 추정할 수 있다.The edge image can be estimated from the sobel filter, the canny edge detector, and the laplacian filter.

제어부(180)는 S120 단계에서 낮은 쓰레스홀드 (Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하고, S130 단계에서의 에지(edge)를 기준으로 추출된 이미지를 서로 곱하게 된다.The control unit 180 extracts all the object images brightly rising on the low threshold in step S120 and multiplies the extracted images on the basis of the edge in step S130.

따라서 S120 단계에서 낮은 쓰레스홀드 (Threshold)를 넘겨 객체로 추출이 되더라도 버티컬 에지 성분이 없는 객체는 사라지게 된다.Therefore, even if the object is extracted as an object by passing a low threshold in step S120, the object having no vertical edge component disappears.

예를 들어, 보행자가 도로 위에 서있는 경우, 보행자와 도로가 하나의 객체로 취급되어 S120 단계에서 이미지로 추출될 수 있다.For example, when a pedestrian stands on the road, the pedestrian and the road are treated as one object and can be extracted as an image in step S120.

그러나 S130 단계에 의해, 도로는 버티컬 에지 성분이 없으므로, 결국 도로 위에 위치한 보행자의 이미지 요소만 남게 된다.However, in step S130, since the road does not have a vertical edge component, only the image elements of the pedestrian located on the road remain.

또한, S120 단계와 S130 단계를 곱하는 것은 버티컬 에지 성분을 가진 객체를 추출하는 것 이외에 완전하게 추출되지 못한 객체를 보완하는 마스킹 기능이 수행될 수도 있다.In addition, multiplying S120 and S130 may be performed by performing a masking function to complement an object that has not been completely extracted, in addition to extracting an object having a vertical edge component.

즉, S120 단계에서 보행자가 완전하게 하나의 연결된 밝은 열 이미지로 추출되는 것이 아니라 중간이 끊긴 형상으로 추출될 수 있다.That is, in step S120, the pedestrian may not be extracted as a single bright light image, but may be extracted as a broken shape.

이때, S130 단계에서의 에지 성분이 추출된 요소를 S120 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹이 수행될 수 있다.At this time, by applying the extracted edge component in step S130 to step S120, masking that the broken space is filled can be performed.

도 6c를 참조하면, 중간이 끊긴 형상의 객체가 존재하고, S130 단계에서의 에지 성분이 추출된 요소를 S120 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹을 수행할 수 있다.Referring to FIG. 6C, it is possible to perform masking in which the broken space is filled by applying an element in which an intermediate shape is broken and an edge component extracted in step S130 is extracted to step S120.

제어부는 S110 단계와 S120 단계 및 S130 단계를 순차적으로 수행할 수도 있고, 각각의 단계를 병렬적으로 동시에 수행하는 것도 가능하다.The control unit may perform step S110, step S120 and step S130 in order, or may perform the respective steps in parallel at the same time.

S110 단계와 S120 및 S130 단계에서는 전술한 마스킹 작업과 유사하게, 레이블링(Labeling) 작업을 추가적으로 수행할 수 있다.In steps S110, S120, and S130, a labeling operation may be additionally performed, similar to the above-described masking operation.

레이블링(Labeling) 작업은 근접하게 이격 되어 떨어져 있는 덩어리, 세그먼트들을 붙여주는 작업으로서, 같은 객체이나 열에너지의 명확한 획득 실패로 인해 분리되어 있는 객체를 묶어주는 작업으로 볼 수 있다.Labeling work can be seen as a task of sticking closely spaced chunks or segments, which tie together objects that are separated by the same object or thermal energy failing to acquire clearly.

S110 단계 내지 S130 단계 이후에 헤드 포인트 정보를 추출하는 단계(S140)가 수행된다.The step of extracting head point information (S140) is performed after steps S110 to S130.

S140 단계에서는 S110 단계에서 추출된 이미지와 S120 및 S130 단계가 동시에 적용되어 추출된 이미지에서 객체의 머리(헤드) 포인트를 추출하게 된다.In step S140, the image extracted in step S110 and the steps S120 and S130 are simultaneously applied to extract the head point of the object from the extracted image.

즉, 추출한 이미지 중 밝은 부분이 끝나는 최상단 영역을 헤드 포인트 영역으로 결정할 수 있다.That is, the uppermost region where the bright portion ends of the extracted image can be determined as the head point region.

여기서 Head 포인트 추출은 skeletonization(세선화), local maximum 추출, 학습을 통한 head 인식 등에 의해 수행될 수 있다.Head point extraction can be performed by skeletonization, local maximum extraction, head recognition through learning, and so on.

또한, S140 단계와 동시에 또는 S140 단계와 순차적으로 객체의 풋(foot) 라인을 추출하는 단계(S150)가 수행될 수 있다.In addition, step S150 may be performed simultaneously with step S140 or sequentially extracting a foot line of the object in step S140.

S150 단계는 S120 단계와 S130 단계가 함께 적용되어 추출된 이미지를 이용하는 것이 아니라 단순하게 에지 성분만을 가지고 에지 맵을 추출하는 S130 단계에서의 정보를 통해 수행된다.In operation S150, the extracted image is extracted using only the edge components, but the edge map is extracted in operation S130.

S150 단계에서는 획득된 이미지의 최 하단에서 세로 방향으로 올라오다가 추출된 각 이미지와 만나는 지점을 찾고, 만나는 지점을 해당 객체의 풋라인으로 결정하게 된다.In step S150, the image is ascended in the vertical direction at the lowermost end of the acquired image, and the point of meeting with the extracted images is found, and the point of meeting is determined as the foot line of the object.

여기서, 풋 라인(발끝) 정보 추출은 입력된 영상 중 dilation을 수행하여 변환하고, 세로 방향으로의 미분 값에 기반하여 추출할 수 있다(예를 들면 255-> 0로 변하는 위치).Here, the foot line (toe) information extraction can be performed by performing dilation among inputted images and extracting based on the differential value in the vertical direction (for example, a position changing from 255 to 0).

S120, S130, S140 및 S150 단계 등을 수행하는 이유는 제어부(180)가 열화상 이미지를 획득함에 있어 계산 처리량을 줄이기 위함이다.The reason why the steps S120, S130, S140, and S150 are performed is to reduce the calculation throughput when the controller 180 acquires the thermal image.

여기서 획득된 모든 이미지 상에 존재하는 객체를 확인하여 보행자를 최종적으로 검출해내는 것이 아니라 S120, S130, S140 및 S150 단계 등을 통해 노이즈로 명확히 판별될 수 있는 요소들은 작업의 전반부에서 미리 제거하고 과정을 진행하기 위한 것이다.Instead of finally detecting the pedestrian by confirming the objects existing on all images acquired here, the elements that can be clearly discriminated by noise through steps S120, S130, S140 and S150 are removed in advance in the first part of the work, .

결국, 열화상 나이트 비전 시스템(100)의 보행자 인식률을 위해 보행자를 놓치지 않으면서 계절이나 날씨에 변화에 민감하지 않은 ROI 생성 방법을 제안하는 것이다.As a result, the ROI generation method is not sensitive to changes in seasons or weather without missing a pedestrian for the pedestrian recognition rate of the thermal night vision system 100. [

상기 S120 단계 내지 S150 단계를 거치더라도 원하지 않는 노이즈는 포함될 수 있는데, 이는 S160 단계 내지 S180 단계를 통해 제거될 수 있다.Despite steps S120 through S150, unwanted noise may be included, which may be removed through steps S160 through S180.

한편, 추후에 있을 ROI(Region of Interest)의 생성에 있어, 계산량을 효율적으로 줄이기 위해, 본 발명에서는 LiDAR(141)는 차량의 전방 등에 위치한 객체를 인식한 정보와 RADAR(142)가 차량의 전방 등에 위치한 객체를 인식한 정보를 획득하는 단계(S400)가 추가될 수 있다.In order to efficiently reduce the amount of computation in future generation of ROIs, the LiDAR 141 may include information that recognizes an object located in front of the vehicle or the like, and information in which the RADAR 142 is located in front of the vehicle (S400) may be added to the information of the object.

즉, 열화상 카메라(123)와 Radar(142), LiDAR(141)를 별도로 이용하는 경우에는, 객체 인식에 따른 100% 의 효과를 거두기는 어려우나 열화상 카메라(123)와 Radar(142), LiDAR(141)에서 획득한 정보를 함께 이용하여 객체 인식을 향상 할 수 있는 방법을 본 발명에서는 적용한다.That is, when the thermal camera 123, the radar 142, and the LiDAR 141 are used separately, it is difficult to achieve 100% effect according to the object recognition. However, the thermal camera 123, the radar 142, The present invention is applied to a method capable of improving object recognition by using information acquired in the present invention.

구체적으로 본 발명에서는 S400 단계를 통해, Radar(142) 및 LiDAR(141)를 통해 획득된 정보를 통해 영상에서 먼저 객체 배치(localization)를 확인 한 후, 열화상 카메라(123)를 통해 획득된 정보를 기초로 이미지를 분석하여 객체(보행자, 차량, 동물)을 인식할 수 있다.More specifically, in the present invention, the localization is first confirmed in the image through the information obtained through the Radar 142 and the LiDAR 141 through step S400, and then the information acquired through the thermal camera 123 (Pedestrian, vehicle, animal) by analyzing the image based on the image.

즉, 본 기술에서는 원거리는 Radar(142)를 이용하고, 중거리 또는 근거리는 LiDAR(141)를 이용하여 선 판단하고, 열화상 카메라(123)를 통해 획득된 열화상 영상에 대한 이미지 분석을 통해 보행자, 차량, 동물에 대한 객체 인식을 할 수 있다.That is, in this technique, the radar 142 is used for a long distance, the LiDAR 141 is used for a medium distance or a short distance, and the image of the thermal image obtained through the infrared camera 123 is analyzed, , Vehicles, and animals.

또한, 열화상 카메라(123)를 단독으로 이용하는 경우, 낮은 resolution의 결과가 도출될 수 있으나 Radar(142) 및 LiDAR(141)를 함께 이용하는 경우에는 낮은 resolution에서도 정확한 객체 인식이 가능해진다.In addition, when the thermal camera 123 is used alone, a low resolution result can be obtained. However, when the Radar 142 and the LiDAR 141 are used together, accurate object recognition becomes possible even at a low resolution.

결국, 객체와의 거리 정보는 Radar(142) 또는 LiDAR(141)를 통해 확보하고, 객체에 대한 인식을 열화상 카메라(123)를 통해 확인을 함으로써, 차량이나 보행자 등 위험인자에 대한 판단이 가능해진다.As a result, the distance information to the object is obtained through the Radar 142 or the LiDAR 141, and the recognition of the object is confirmed through the infrared camera 123, so that the risk factors such as the vehicle and the pedestrian can be judged It becomes.

다시 도 5로 복귀하여, S140 단계 및 S150 단계를 통해, 헤드 포인트와 풋 라인을 검출하고, S400 단계를 통해 LiDAR(141) 및 RADAR(142) 정보를 획득하게 되면, 이들의 조합을 통해 ROI(Region of Interest)를 생성할 수 있다(S160).5, the head point and foot line are detected through steps S140 and S150, and the LiDAR 141 and the RADAR 142 information are obtained through step S400. Region of Interest) (S160).

도 6d를 참조하면, 특정 객체의 헤드와 풋 라인을 검출한 구체적인 일례가 도시되어 있다.Referring to FIG. 6D, a specific example of detecting a head and a foot line of a specific object is shown.

S160 단계에서 생성되는 ROI 영역은 head 후보와 대응하는 발끝 후보의 길이에 기반하여 특정 비율(예를 들면 2:1)의 박스로 결정될 수 있다.The ROI area generated in step S160 may be determined as a box of a specific ratio (for example, 2: 1) based on the head candidate and the length of the foot candidate corresponding thereto.

도 6e를 참조하면, head 후보와 대응하는 풋 라인(발끝 후보)의 길이에 기반하여 특정 비율의 박스 형태인 ROI의 구체적인 모습이 도시되어 있다.Referring to FIG. 6E, the specific shape of the ROI is shown in a box-shaped form at a specific ratio based on the length of the head candidate and the corresponding foot line (toe candidate).

결과적으로 S110 단계 내지 S160 단계는 입력 열화상 영상을 획득하는 단계, 입력영상에 기반하여 적어도 하나 이상의 임계 값을 추정하는 단계, 추정된 임계 값에 의해 영상을 분할하는 제 1 분할 영상을 생성하는 단계, 입력영상에 대해 edge영상을 계산하는 단계, 계산된 edge영상에 기반하여 임계 값을 추정하는 단계, edge 영상으로부터 추정된 임계 값에 의해 상기 edge 영상을 분할 하는 제 2 분할 영상을 생성하는 단계, 제 1분할 영상과 상기 제 2 분할 영상에 대해 곱 연산을 수행하여 제 3 분할 영상을 생성하는 단계, 제 3 분할 영상을 Labeling하는 단계, Label 각각에 대해 head 후보를 추출하는 단계, 제 1, 2, 3 분할 영상으로부터 풋 라인(발끝 후보)을 추출하는 단계, head 후보점과 상기 풋 라인(발끝 후보)을 조합하여 ROI영역을 생성하는 단계로 구성될 수 있다.As a result, steps S110 to S160 may include obtaining an input thermal image, estimating at least one threshold based on the input image, generating a first divided image for dividing the image by the estimated threshold, Calculating an edge image for the input image, estimating a threshold value based on the calculated edge image, generating a second divided image for dividing the edge image by a threshold value estimated from the edge image, Generating a third divided image by performing a multiplication operation on the first divided image and the second divided image, labeling the third divided image, extracting a head candidate for each of the Label, Extracting a foot line (toe candidate) from the three-divided image, and combining the head candidate point and the foot line (toe candidate) to generate an ROI region.

한편, S160 단계에서 ROI를 생성함에 있어, 배니싱 라인(Vanishing line)을 추가적으로 이용할 수 있다.In step S160, a vanishing line may be additionally used in generating the ROI.

배니싱 라인(Vanishing line)은 후술하는 S180 단계에서 오인지를 줄이는 역할을 할 수도 있고, S160 단계에서 ROI 자체를 생성하기 위한 기준으로 이용될 수도 있다.The vanishing line may serve to reduce false positives in step S180 described later or may be used as a criterion for generating the ROI itself in step S160.

배니싱 라인(Vanishing line)은 보이지 않는 가상의 공간 상의 라인으로서, 보행자의 세로축 중심은 거리와 관계없이 Vanishing line을 지나간다는 가정을 기초로 이용된다.The vanishing line is an invisible virtual space line, and the center of the vertical axis of the pedestrian is used based on the assumption that it passes through the vanishing line regardless of the distance.

즉, 보행자의 크기가 다르고, 보행자와 카메라 간의 거리가 다르다는 점에서 유도되는 문제점을 해소하기 위해, 보행자의 세로축 중심은 크기 및 거리와 관계없이 Vanishing line을 지나간다는 가정을 이용하는 것이다.In other words, in order to solve the problem derived from the fact that the pedestrian size is different and the distance between the pedestrian and the camera is different, the center of the vertical axis of the pedestrian is assumed to pass the vanishing line regardless of the size and the distance.

S100 단계를 통해 획득된 적어도 1 frame 이상의 입력 영상으로부터 보행자 인식을 수행하는 경우, S160 단계에서는 상기 인식된 보행자 영역의 세로축 중심 좌표로부터 기준 vanishing line을 추정할 수 있다.If pedestrian recognition is performed from at least one frame of the input image obtained in step S100, the reference vanishing line can be estimated from the coordinates of the center of ordinate of the recognized pedestrian area in step S160.

또한, 제어부(180)는 ROI를 생성하기 이전에, 상기 기준 vanishing line을 기반으로 vanishing region을 설정하고, vanishing region에 기반하여 현재 frame의 보행자 인식을 수행할 수 있다.Also, the control unit 180 may set the vanishing region based on the reference vanishing line and perform the pedestrian recognition of the current frame based on the vanishing region before generating the ROI.

이때, 미리 제어부(180)는 메모리(160)에 저장된 보행자들의 세로축 중심 좌표에 대해 vanishing region 통계치를 로딩하고, 상기 인식된 보행자들의 세로축 중심 좌표에 대해 vanishing region과의 통계치의 차를 계산하게 된다.At this time, the controller 180 loads the vanishing region statistics for the coordinates of the longitudinal axis of the pedestrians stored in the memory 160, and calculates the difference between the statistics of the vanishing region and the coordinates of the longitudinal axis of the recognized pedestrians.

제어부(180)는 상기 통계치의 차에 기반하여 미리 정해진 임계 값보다 차 값이 클 경우, 보행자에 대한 객체가 아니라고 판단하여 ROI 자체를 생성하지 않을 수 있다.If the difference value is larger than a predetermined threshold value based on the difference of the statistic, the controller 180 determines that the object is not an object for the pedestrian, and may not generate the ROI itself.

예를 들어, 이전의 보행자들로부터 감지(디텍트)된 객체들의 포인트를 누적하여 가우시안 분포의 통계치를 계속적으로 누적할 수 있고, 누적된 정보는 확률모델로서 메모리(160)에 저장될 수 있다.For example, the points of objects detected from previous pedestrians can be accumulated to continuously accumulate the statistics of the Gaussian distribution, and the accumulated information can be stored in the memory 160 as a probability model.

ROI는 사람(보행자)을 둘러싸는 박스로 취급할 수 있는데, 박스의 센터가 상기 확률모델과의 관계에서 미리 설정된 차이인 0.5 이하인 경우에만 ROI로 생성하게 되는 것이다.The ROI can be treated as a box that surrounds a person (pedestrian), and is created as an ROI only when the center of the box is 0.5 or less, which is a predetermined difference in relation to the probability model.

S160 단계에서 배니싱 라인(Vanishing line)을 통해 생성하는 ROI의 개수가 적어지게 되면, 결국 제어부(180)가 분산 처리하는 과정을 효율적으로 줄일 수 있게 된다.If the number of ROIs generated through the vanishing line is decreased in step S160, the process of distributing the ROI by the controller 180 can be effectively reduced.

S160 단계에서 ROI 생성에 있어, 이전 프레임에서 추출된 헤드 포인트 정보를 이용하는 방법도 적용될 수 있다.In the ROI generation in step S160, a method of using the head point information extracted from the previous frame may also be applied.

즉, 이전 프레임에서 헤드 포인트로 추출된 경우, 다음 프레임에서의 헤드 포인트 위치는 제어부(180)에 의해 예상될 수 있다.That is, when extracted from the previous frame to the head point, the position of the head point in the next frame can be predicted by the control unit 180. [

따라서 다음 프레임에서는 예상된 헤드 포인트 지점과 대응되는 특정 영역을 헤드 포인트로 인정하고, 나머지는 이용하지 않고, 기존의 정보를 이용함으로써, ROI 생성에 이용되는 계산과정을 축소시키는 것도 가능하다.Therefore, in the next frame, it is also possible to reduce the calculation process used for ROI generation by using the existing information without recognizing the specific region corresponding to the expected head point point as a head point and using the rest as the head point.

S160 단계가 진행되면, N개의 ROI가 생성될 수 있다.When step S160 is performed, N ROIs can be generated.

제어부(180)는 생성된 N개의 ROI를 병렬처리를 위해 모으고, 기계학습(Machine Learning)에 따라 보행자 분류를 수행한다.The control unit 180 collects the generated N ROIs for parallel processing, and performs the pedestrian classification according to the machine learning.

즉, 제어부(180)는 보행자에 대응되는 복수의 분류자(classifier)를 메모리(160)에 미리 저장하고, 상기 N개의 ROI에 포함된 보행자 후보 객체 중 저장된 복수의 분류자(classifier)에 대응되는 객체 이미지만을 추출하게 된다.That is, the controller 180 stores a plurality of classifiers corresponding to the pedestrians in advance in the memory 160, and stores a plurality of classifiers corresponding to the plurality of stored classifiers of the pedestrian candidate objects included in the N ROIs Only the object image is extracted.

도 7은 도 5에서 설명한 과정들 중 기계학습(Machine Learning)에 따른 보행자 분류의 구체적인 과정을 설명하는 도면이다.FIG. 7 is a view for explaining a concrete process of classifying a pedestrian according to machine learning among the processes described in FIG. 5. FIG.

도 7을 참조하면, 메모리(160)에 저장된 트레이닝 데이터 셋이 제어부(180)에 의해 로딩되고, 제어부(180)는 N개의 ROI에 포함된 보행자 후보 영상과 로딩된 복수의 분류자(classifier)를 서로 비교하여, 대응되는 객체들만을 추출하게 된다.Referring to FIG. 7, the training data set stored in the memory 160 is loaded by the controller 180, and the controller 180 stores a plurality of classifiers loaded with the pedestrian candidate image included in the N ROIs And only the corresponding objects are extracted.

S170 단계에서 서로 다른 기준의 복수의 분류자(classifier)를 이용하여 오인지를 제거할 수도 있다.In step S170, a plurality of classifiers having different criteria may be used to remove false positives.

도 8a 및 도 8b는 도 5에서 설명한 과정들 중 Multi-Classifier를 이용한 오인지 제거 알고리즘 과정을 구체적으로 설명하기 위한 도면이다.8A and 8B are diagrams for explaining the procedure of the false recognition algorithm using the multi-classifier among the processes described in FIG.

도 8a 및 도 8b를 참조하면, 서로 다른 분류자(classifier)를 적용하면 오인지의 양상이 서로 다르다는 것을 확인할 수 있다.Referring to FIGS. 8A and 8B, when different classifiers are applied, it can be seen that the aspects of false positives are different from each other.

도 8a 및 도 8b에서 빨간 박스는 LBP-Cascade 방법으로 추정한 보행자이고, 파란 박스는 Haar-Cascade 방법으로 추정한 보행자이며, 녹색 박스는 LBP-Haar가 동시에 추정한 보행자를 나타낸다.8A and 8B, the red box is a pedestrian estimated by the LBP-Cascade method, the blue box is a pedestrian estimated by the Haar-Cascade method, and the green box represents a pedestrian estimated by LBP-Haar at the same time.

따라서 서로 다른 복수의 분류자(classifier)를 적용하여 누락되는 부분을 상호 보완하는 것이 가능하다.Therefore, it is possible to complement the missing parts by applying a plurality of different classifiers.

S170 단계 이후, 제어부(180)는 헤드 포인트 기반 트래킹(Tracking) 단계를 수행한다(S180).After step S170, the controller 180 performs a head-point-based tracking step (S180).

S180 단계에서 제어부(180)는 Particle Filter, Mean Shift, Kalman Filter 등을 이용할 수 있다.In step S180, the controller 180 may use a particle filter, a mean shift, a Kalman filter, and the like.

도 9a 및 도 9b는 도 5에서 설명한 과정들 중 Head Point 기반 Tracking 과정을 구체적으로 설명하기 위한 도면이다.FIGS. 9A and 9B are views for specifically explaining the HeadPoint-based Tracking process among the processes described in FIG.

도 9a는 헤드 포인트 기반 트래킹(Tracking) 단계(S180)을 구체화한 순서도로서, 제어부(180)는 먼저, Motion Vector를 추출한다(S181).FIG. 9A is a flowchart illustrating a head point-based tracking step (S180). The controller 180 first extracts a motion vector (S181).

이후, 제어부(180)는 Tracking 후보에 대해서 Histogram을 비교하는 단계(S182)를 수행한다.Thereafter, the control unit 180 performs a step S182 of comparing the histogram with respect to the tracking candidate.

S182 단계 이후에 제어부(180)는 Best Matching을 결정(S183)하고, 최종적으로 Tracking 여부를 판단하게 된다(S184).After step S182, the control unit 180 determines Best Matching (S183), and finally determines whether or not it is tracking (S184).

도 9b는 제어부(180)가 헤드 포인트를 기초로 트래킹(Tracking)하는 구체적인 모습을 도시한 것이다.FIG. 9B shows a concrete state in which the control unit 180 performs tracking based on the head point.

이러한 헤드 포인트 기초 트래킹을 통해, 제어부(180)가 수행하는 계산량을 획기적으로 줄일 수 있다.With this headpoint basis tracking, the amount of calculation performed by the control unit 180 can be drastically reduced.

S180 단계에서의 트래킹은 2개의 목적을 달성하기 위함일 수 있다.The tracking in step S180 may be for achieving two purposes.

먼저, 트래킹은 디스플레이부(151)를 통해 표시되는 영상이 끊김이 없이 표시되기 위해 이용된다.First, tracking is used to display images displayed through the display unit 151 without interruption.

즉, 제어부(180)를 통한 보행자의 인식이 연속적으로 이루어지지 못하는 경우, 보행자는 특정 프레임에서는 등장하고, 다름 프레임에서는 등장하지 못하여 깜빡 거리는 현상이 나타날 수 있다.That is, when the pedestrian recognition through the controller 180 can not be continuously performed, the pedestrian may appear in a specific frame, and may not appear in the different frame and flicker may occur.

따라서 S180 단계에서의 트래킹을 통해 특정 프레임에서 보행자가 인식되지 않더라도 이전 프레임에서의 보행자의 내용을 추적하여 디스플레이부(151) 상에 표시함으로써, 스무스(smooth)한 영상을 구현해 낼 수 있다.Therefore, even if the pedestrian is not recognized in the specific frame through tracking in step S180, the contents of the pedestrian in the previous frame are tracked and displayed on the display unit 151, so that a smooth image can be realized.

이때, 원하는 객체가 아닌 오인지의 경우에는 특정 프레임에서만 유일하게 존재하고 다름 프레임들에서는 계속적으로 등장하지 않게 된다.In this case, if the object is not a desired object, it exists only in a specific frame, and does not appear continuously in different frames.

따라서 이러한 대상은 트래킹을 통해 오인지로 취급하고, 디스플레이부(151) 상에 표시하지 않는다.Therefore, such an object is treated as an error through tracking, and is not displayed on the display unit 151.

원하는 객체인 보행자는 몇 개의 프레임에서는 감지가 되지 않을 수 있으나 대부분의 프레임에서는 감지가 되므로, 제어부(180)는 이 경우에는 트래킹을 통해 디스플레이부(151) 상에 연속적으로 객체가 표시되도록 제어할 수 있다.The pedestrian, which is a desired object, may not be sensed in a few frames but is sensed in most frames, so that the control unit 180 can continuously control the object to be displayed on the display unit 151 through tracking have.

다음으로, S180 단계의 목적은 오인지 제거를 위한 것이다.Next, the purpose of step S180 is to remove the cognitive impairment.

S160 단계와 마찬가지로 S180 단계에서도 오인지 제거를 위해 배니싱 라인(Vanishing line)을 이용할 수 있다.As in step S160, a vanishing line can also be used to remove false positives in step S180.

전술한 것과 같이, 배니싱 라인(Vanishing line)은 보이지 않는 가상의 공간 상의 라인으로서, 보행자의 세로축 중심은 거리와 관계없이 Vanishing line을 지나간다는 가정을 기초로 이용된다. 즉, 보행자의 크기가 다르고, 보행자와 카메라 간의 거리가 다르다는 점에서 유도되는 문제점을 해소하기 위해, 보행자의 세로축 중심은 크기 및 거리와 관계없이 Vanishing line을 지나간다는 가정을 이용한다.As described above, the vanishing line is an invisible virtual space line, and the center of the vertical axis of the pedestrian is used based on the assumption that it passes through the vanishing line regardless of the distance. In other words, the pedestrian's center of the vertical axis is assumed to pass through the vanishing line regardless of its size and distance in order to solve the problem that the pedestrian size is different and the distance between the pedestrian and the camera is different.

획득된 적어도 1 frame 이상의 입력 영상으로부터 보행자 인식을 수행하는 경우, S180 단계에서는 상기 인식된 보행자 영역의 세로축 중심 좌표로부터 기준 vanishing line을 추정할 수 있다.When the pedestrian recognition is performed from the obtained input image of at least one frame, in step S180, the reference vanishing line can be estimated from the coordinates of the vertical axis of the recognized pedestrian area.

또한, 제어부(180)는 기준 vanishing line을 기반으로 vanishing region을 설정하고, vanishing region에 기반하여 현재 frame의 보행자 인식을 수행할 수 있다.In addition, the controller 180 may set the vanishing region based on the reference vanishing line and perform the pedestrian recognition of the current frame based on the vanishing region.

이때, 미리 제어부(180)는 메모리(160)에 저장된 보행자들의 세로축 중심 좌표에 대해 vanishing region 통계치를 로딩하고, 상기 인식된 보행자들의 세로축 중심 좌표에 대해 vanishing region과의 통계치의 차를 계산하게 된다.At this time, the controller 180 loads the vanishing region statistics for the coordinates of the longitudinal axis of the pedestrians stored in the memory 160, and calculates the difference between the statistics of the vanishing region and the coordinates of the longitudinal axis of the recognized pedestrians.

제어부(180)는 상기 통계치의 차에 기반하여 미리 정해진 임계 값보다 차 값이 클 경우, 보행자에 대한 객체가 아니라고 판단하여 오인지로 취급하고 당해 객체 정보는 버리게 된다.If the difference value is larger than a predetermined threshold value based on the difference of the statistical values, the controller 180 determines that the object is not an object for a pedestrian, treats it as false, and discards the object information.

S180 단계의 오인지 제거 목적을 위해 추가적으로 S150 단계에서 획득한 풋 라인 정보를 이용할 수도 있다.The foot line information obtained in step S150 may be used for the purpose of eliminating the observer in step S180.

즉, ROI로 인식된 박스를 기준으로 풋 라인을 잡고, 보행자가 아닌 경우에는 박스를 기준으로 풋라인의 형태 변화가 크므로, 이를 통해 당해 ROI를 오인지로 취급하고 제거할 수도 있다.That is, if the foot line is held based on the box recognized as the ROI, and if the pedestrian is not the pedestrian, the shape of the foot line changes greatly with respect to the box, so that the ROI can be treated as false and can be removed.

이후, 제어부(180)는 최종적으로 추출된 열화상 정보가 디스플레이 부(151)를 통해 출력되도록 제어할 수 있다(S190).Thereafter, the control unit 180 may control the finally extracted thermal image information to be outputted through the display unit 151 (S190).

제 2 방법Second Method

한편, 도 5의 방법 이외에도 다른 순서에 따라 보행자에 대한 열화상 정보를 추출하는 방법이 적용될 수도 있다.In addition to the method of FIG. 5, a method of extracting thermal image information for a pedestrian may be applied in a different order.

도 10은 본 발명에 따른 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 일례를 설명하는 순서도이다.10 is a flowchart for explaining another example in which the FIR camera senses thermal energy of an object through a night vision system according to the present invention and displays information according to a specific algorithm.

도 10에서 S200 단계 및 S240 단계 내지 S280 단계는 도 5의 S100 단계 및 S150 단계 내지 S190 단계 각각과 대응되므로, 명세서의 간명화를 위해 반복적인 설명은 생략한다.In FIG. 10, steps S200 and S240 to S280 correspond to steps S100, S150, and S190 in FIG. 5, respectively, and therefore, a repetitive description thereof will be omitted for simplicity.

도 10에서의 방법은 S210 단계 내지 S230 단계에서 도 5의 방법과 차이점이 있다.The method in FIG. 10 differs from the method in FIG. 5 in steps S210 to S230.

즉, 도 10을 참조하면, 도 5에서의 방법과 달리 S200 단계가 진행되면, 제어부(180)는 높은 쓰레스홀드(Threshold)와 낮은 쓰레스홀드를 구분하지 않고, 하나의 쓰레스홀드 값만을 이용하여 이미지를 추출한다(S210).Referring to FIG. 10, in contrast to the method shown in FIG. 5, when the step S200 is performed, the controller 180 does not distinguish between a high threshold and a low threshold but only one threshold And extracts an image using the image (S210).

여기서 쓰레스홀드 값(임계값)은 영상의 평균, 표준편차, 히스토그램 등을 이용하여 통계적으로 추정하거나, 사용자가 임의의 값을 입력하는 것으로 설정 가능하다.Here, the threshold value (threshold value) can be statistically estimated using the average, standard deviation, histogram, etc. of the image, or can be set by the user to input an arbitrary value.

이는 보통 사람(보행자)의 밝기 값은 주변 배경보다 밝다는 사실을 근거로 1차적으로 보행자를 추출하기 위한 방법을 적용한 것이다.This is based on the fact that the brightness value of the ordinary person (pedestrian) is brighter than the surrounding background.

이때, S210 단계에서는 타겟팅 하는 보행자 등 이외에 불필요한 노이즈들이 빈번하게 포함되어 추출될 수 있다.At this time, in step S210, unnecessary noise other than the targeted pedestrian may be frequently included and extracted.

따라서 이러한 문제점을 해소하기 위해, S200 단계에서 인풋된 이미지를 에지(edge)를 기준으로 추출하는 S220 단계를 함께 수행한다.Accordingly, in order to solve this problem, step S220 is performed in which the input image is extracted on the basis of an edge.

이는, 사람(보행자)의 경우, 신체 특성상 버티컬(VERTICAL) 에지 외곽성분 즉, 세로의 에지 외곽 성분이 강하게 나타나므로, 이를 이용하여 S210 단계에서 획득된 불필요한 노이즈를 제거하기 위한 것이다.This is because, in the case of a person (pedestrian), the outer edge component of the vertical edge, that is, the edge edge component of the vertical edge, is strongly displayed in terms of body characteristics, and thus unnecessary noise obtained in step S210 is removed by using this.

edge 영상은 sobel filter, canny edge detector, laplacian filter로부터 추정할 수 있다.The edge image can be estimated from the sobel filter, the canny edge detector, and the laplacian filter.

제어부(180)는 S210 단계에서 쓰레스홀드(Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하고, S220 단계에서의 에지(edge)를 기준으로 추출된 이미지를 서로 곱하게 된다.The control unit 180 extracts all the object images brighter on the threshold in step S210 and multiplies the extracted images on the basis of the edge in step S220.

따라서 S210 단계에서 쓰레스홀드(Threshold)를 넘겨 객체로 추출이 되더라도 버티컬 에지 성분이 없는 객체는 사라지게 된다.Therefore, even though the object is extracted by passing the threshold in step S210, the object having no vertical edge component disappears.

또한, S210 단계와 S220 단계를 곱하는 것은 버티컬 에지 성분을 가진 객체를 추출하는 것 이외에 완전하게 추출되지 못한 객체를 보완하는 마스킹 기능이 수행될 수도 있다.The step S210 and the step S220 may be performed by extracting an object having a vertical edge component and performing a masking function to complement an object that has not been completely extracted.

즉, S210 단계에서 보행자가 완전하게 하나의 연결된 밝은 열 이미지로 추출되는 것이 아니라 중간이 끊긴 형상으로 추출될 수 있다.That is, in step S210, the pedestrian may not be extracted as a single bright light image, but may be extracted as a broken shape.

이때, S220 단계에서의 에지 성분이 추출된 요소를 S210 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹이 수행될 수 있다.At this time, by applying the extracted element of the edge component in step S220 to step S210, the masking in which the broken space is filled can be performed.

제어부는 S210 단계와 S220 단계를 순차적으로 수행할 수도 있고, 각각의 단계를 병렬적으로 동시에 수행하는 것도 가능하다.The control unit may perform steps S210 and S220 in sequence, or may perform the respective steps in parallel at the same time.

S210 단계와 S220 단계에서는 전술한 마스킹 작업과 유사하게, 레이블링(Labeling) 작업을 추가적으로 수행할 수 있다.In steps S210 and S220, a labeling operation may be additionally performed similarly to the above-described masking operation.

레이블링(Labeling) 작업은 근접하게 이격 되어 떨어져 있는 덩어리, 세그먼트들을 붙여주는 작업으로서, 같은 객체이나 열에너지의 명확한 획득 실패로 인해 분리되어 있는 객체를 묶어주는 작업으로 볼 수 있다.Labeling work can be seen as a task of sticking closely spaced chunks or segments, which tie together objects that are separated by the same object or thermal energy failing to acquire clearly.

S210 단계 및 S220 단계 이후, 곱한 정보를 통해 헤드 포인트 정보를 추출하는 단계(S230)가 수행된다.After steps S210 and S220, the head point information is extracted through the multiplied information (S230).

S230 단계에서는 S210 단계에서 추출된 이미지와 S220 단계가 동시에 적용되어 추출된 이미지에서 객체의 머리(헤드) 포인트를 추출하게 된다.In step S230, the image extracted in step S210 and the step S220 are simultaneously applied to extract the head point of the object from the extracted image.

즉, 추출한 이미지 중 밝은 부분이 끝나는 최상단 영역을 헤드 포인트 영역으로 결정할 수 있다.That is, the uppermost region where the bright portion ends of the extracted image can be determined as the head point region.

여기서 Head 포인트 추출은 skeletonization(세선화), local maximum 추출, 학습을 통한 head 인식 등에 의해 수행될 수 있다.Head point extraction can be performed by skeletonization, local maximum extraction, head recognition through learning, and so on.

한편, 추후에 있을 ROI(Region of Interest)의 생성에 있어, 계산량을 효율적으로 줄이기 위해, 본 발명에서는 LiDAR(141)는 차량의 전방 등에 위치한 객체를 인식한 정보와 RADAR(142)가 차량의 전방 등에 위치한 객체를 인식한 정보를 획득하는 단계(S400)가 추가될 수 있다.In order to efficiently reduce the amount of computation in future generation of ROIs, the LiDAR 141 may include information that recognizes an object located in front of the vehicle or the like, and information in which the RADAR 142 is located in front of the vehicle (S400) may be added to the information of the object.

즉, 열화상 카메라(123)와 Radar(142), LiDAR(141)를 별도로 이용하는 경우에는, 객체 인식에 따른 100% 의 효과를 거두기는 어려우나 열화상 카메라(123)와 Radar(142), LiDAR(141)에서 획득한 정보를 함께 이용하여 객체 인식을 향상 할 수 있는 방법을 본 발명에서는 적용한다.That is, when the thermal camera 123, the radar 142, and the LiDAR 141 are used separately, it is difficult to achieve 100% effect according to the object recognition. However, the thermal camera 123, the radar 142, The present invention is applied to a method capable of improving object recognition by using information acquired in the present invention.

구체적으로 본 발명에서는 S400 단계를 통해, Radar(142) 및 LiDAR(141)를 통해 획득된 정보를 통해 영상에서 먼저 객체 배치(localization)를 확인 한 후, 열화상 카메라(123)를 통해 획득된 정보를 기초로 이미지를 분석하여 객체(보행자, 차량, 동물)을 인식할 수 있다.More specifically, in the present invention, the localization is first confirmed in the image through the information obtained through the Radar 142 and the LiDAR 141 through step S400, and then the information acquired through the thermal camera 123 (Pedestrian, vehicle, animal) by analyzing the image based on the image.

즉, 본 기술에서는 원거리는 Radar(142)를 이용하고, 중거리 또는 근거리는 LiDAR(141)를 이용하여 선 판단하고, 열화상 카메라(123)를 통해 획득된 열화상 영상에 대한 이미지 분석을 통해 보행자, 차량, 동물에 대한 객체 인식을 할 수 있다.That is, in this technique, the radar 142 is used for a long distance, the LiDAR 141 is used for a medium distance or a short distance, and the image of the thermal image obtained through the infrared camera 123 is analyzed, , Vehicles, and animals.

또한, 열화상 카메라(123)를 단독으로 이용하는 경우, 낮은 resolution의 결과가 도출될 수 있으나 Radar(142) 및 LiDAR(141)를 함께 이용하는 경우에는 낮은 resolution에서도 정확한 객체 인식이 가능해진다.In addition, when the thermal camera 123 is used alone, a low resolution result can be obtained. However, when the Radar 142 and the LiDAR 141 are used together, accurate object recognition becomes possible even at a low resolution.

결국, 객체와의 거리 정보는 Radar(142) 또는 LiDAR(141)를 통해 확보하고, 객체에 대한 인식을 열화상 카메라(123)를 통해 확인을 함으로써, 차량이나 보행자 등 위험인자에 대한 판단이 가능해진다.As a result, the distance information to the object is obtained through the Radar 142 or the LiDAR 141, and the recognition of the object is confirmed through the infrared camera 123, so that the risk factors such as the vehicle and the pedestrian can be judged It becomes.

다시 도 10으로 복귀하여, 이후, S240 단계 내지 S280 단계는 도 5에서의 S150 단계 내지 S190 단계 각각에 대응되어 진행된다.The process returns to FIG. 10, and then steps S240 to S280 are performed corresponding to steps S150 to S190 in FIG.

도 11은 전술한 알고리즘에 따라 나이트 비전 시스템을 적용한 결과를 도시한 것이다.11 shows a result of applying the night vision system according to the above-described algorithm.

도 11의 (a)는 일반적인 카메라(121)를 통해 획득된 영상으로서, 안개로 인해 보행자가 보이지 않는 구체적인 모습을 도시하고 있다.11 (a) shows a specific image in which a pedestrian is not seen due to fog, which is an image obtained through a general camera 121

이에 반해, 본 발명이 제안하는 알고리즘에 따른 원적외선 카메라(123)의 영상은 4명의 보행자를 인식하고, 인식된 결과를 운전자에게 안내할 수 있게 된다.On the other hand, the image of the far-infrared camera 123 according to the algorithm proposed by the present invention recognizes four pedestrians and can guide the recognized result to the driver.

한편, 도 12는 본 발명에 따른 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 과정을 설명하는 순서도이다.12 is a flowchart illustrating another process of displaying information according to a specific algorithm by sensing thermal energy of an object through an FIR camera through a night vision system according to the present invention.

도 12에서의 S300 내지 S390 단계는 도 5의 S100 내지 S190 각각의 단계에 대응되나 S310, S320 및 S340 단계에서 차이가 있다.Steps S300 to S390 in FIG. 12 correspond to steps S100 to S190 in FIG. 5, respectively, but differ in steps S310, S320, and S340.

도 12를 참조하면, S310 단계는 S330 단계보다는 빈번하지 않지만 타겟팅 하는 보행자 등 이외에 불필요한 포함되어 추출될 수 있다.Referring to FIG. 12, the step S310 may be unnecessarily included in the target pedestrian other than the step S330.

따라서 도 12의 순서도에서는 S310 단계에 대해서도 이러한 문제점을 해소하기 위해, S300 단계에서 인풋된 이미지를 에지(edge)를 기준으로 추출하는 S320 단계를 함께 수행할 수 있다.Therefore, in order to solve this problem in step S310 in the flowchart of FIG. 12, step S320 of extracting the input image based on an edge in step S300 may be performed together.

이는, 사람(보행자)의 경우, 신체 특성상 버티컬(VERTICAL) 에지 외곽성분 즉, 세로의 에지 외곽 성분이 강하게 나타나므로, 이를 이용하여 S310 단계에서 획득된 불필요한 노이즈를 제거하기 위한 것이다.This is because, in the case of a person (pedestrian), the outer edge component of the vertical edge, that is, the edge outer edge component of the vertical edge, is strongly displayed in terms of body characteristics, and thus unnecessary noise obtained in step S310 is removed using the extracted edge component.

여기서 edge 영상은 sobel filter, canny edge detector, laplacian filter로부터 추정할 수 있다.Here, the edge image can be estimated from the sobel filter, the canny edge detector, and the laplacian filter.

제어부(180)는 S310 단계에서 높은 쓰레스홀드(Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하고, S320 단계에서의 에지(edge)를 기준으로 추출된 이미지를 서로 곱하게 된다.The control unit 180 extracts all the object images brightly rising on the high threshold in step S310 and multiplies the extracted images on the basis of the edge in step S320.

따라서 S310 단계에서 높은 쓰레스홀드(Threshold)를 넘겨 객체로 추출이 되더라도 버티컬 에지 성분이 없는 객체는 사라지게 된다.Therefore, in step S310, an object having no vertical edge component disappears even if it is extracted as an object by passing a high threshold value.

또한, S310 단계와 S320 단계를 곱하는 것은 버티컬 에지 성분을 가진 객체를 추출하는 것 이외에 완전하게 추출되지 못한 객체를 보완하는 마스킹 기능이 수행될 수도 있다.Multiplication of steps S310 and S320 may be performed not only for extracting an object having a vertical edge component but also for masking an object that has not been completely extracted.

즉, S310 단계에서 보행자가 완전하게 하나의 연결된 밝은 열 이미지로 추출되는 것이 아니라 중간이 끊긴 형상으로 추출될 수 있다.That is, in step S310, the pedestrian may not be extracted as a single bright light image, but may be extracted as a broken shape.

이때, S320 단계에서의 에지 성분이 추출된 요소를 S310 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹이 수행될 수 있다.At this time, by applying the extracted element of the edge component in step S320 to step S310, masking that the broken space is filled can be performed.

또한, 도 12의 실시예에서도, ROI(Region of Interest)의 생성에 있어, 계산량을 효율적으로 줄이기 위해, 본 발명에서는 LiDAR(141)는 차량의 전방 등에 위치한 객체를 인식한 정보와 RADAR(142)가 차량의 전방 등에 위치한 객체를 인식한 정보를 획득하는 단계(S400)가 추가될 수 있다.In the embodiment of FIG. 12, in order to efficiently reduce the amount of calculation in the generation of ROI (region of interest), in the present invention, LiDAR 141 transmits information recognizing an object located in front of the vehicle, (S400) of acquiring information that recognizes an object located in front of the vehicle or the like may be added.

즉, 열화상 카메라(123)와 Radar(142), LiDAR(141)를 별도로 이용하는 경우에는, 객체 인식에 따른 100% 의 효과를 거두기는 어려우나 열화상 카메라(123)와 Radar(142), LiDAR(141)에서 획득한 정보를 함께 이용하여 객체 인식을 향상 할 수 있는 방법을 본 발명에서는 적용한다.That is, when the thermal camera 123, the radar 142, and the LiDAR 141 are used separately, it is difficult to achieve 100% effect according to the object recognition. However, the thermal camera 123, the radar 142, The present invention is applied to a method capable of improving object recognition by using information acquired in the present invention.

구체적으로 본 발명에서는 S400 단계를 통해, Radar(142) 및 LiDAR(141)를 통해 획득된 정보를 통해 영상에서 먼저 객체 배치(localization)를 확인 한 후, 열화상 카메라(123)를 통해 획득된 정보를 기초로 이미지를 분석하여 객체(보행자, 차량, 동물)을 인식할 수 있다.More specifically, in the present invention, the localization is first confirmed in the image through the information obtained through the Radar 142 and the LiDAR 141 through step S400, and then the information acquired through the thermal camera 123 (Pedestrian, vehicle, animal) by analyzing the image based on the image.

즉, 본 기술에서는 원거리는 Radar(142)를 이용하고, 중거리 또는 근거리는 LiDAR(141)를 이용하여 선 판단하고, 열화상 카메라(123)를 통해 획득된 열화상 영상에 대한 이미지 분석을 통해 보행자, 차량, 동물에 대한 객체 인식을 할 수 있다.That is, in this technique, the radar 142 is used for a long distance, the LiDAR 141 is used for a medium distance or a short distance, and the image of the thermal image obtained through the infrared camera 123 is analyzed, , Vehicles, and animals.

또한, 열화상 카메라(123)를 단독으로 이용하는 경우, 낮은 resolution의 결과가 도출될 수 있으나 Radar(142) 및 LiDAR(141)를 함께 이용하는 경우에는 낮은 resolution에서도 정확한 객체 인식이 가능해진다.In addition, when the thermal camera 123 is used alone, a low resolution result can be obtained. However, when the Radar 142 and the LiDAR 141 are used together, accurate object recognition becomes possible even at a low resolution.

결국, 객체와의 거리 정보는 Radar(142) 또는 LiDAR(141)를 통해 확보하고, 객체에 대한 인식을 열화상 카메라(123)를 통해 확인을 함으로써, 차량이나 보행자 등 위험인자에 대한 판단이 가능해진다.As a result, the distance information to the object is obtained through the Radar 142 or the LiDAR 141, and the recognition of the object is confirmed through the infrared camera 123, so that the risk factors such as the vehicle and the pedestrian can be judged It becomes.

이후, S360 단계에서는 검출된 헤드 포인트와 풋 라인과 S400 단계를 통해 획득된 LiDAR(141) 및 RADAR(142) 정보의 조합을 통해 ROI(Region of Interest)를 생성할 수 있다(S360).In operation S360, a region of interest (ROI) may be generated through a combination of the detected head point and the foot line and the LiDAR 141 and RADAR 142 information obtained in operation S400.

전술한 본 발명의 구성 및 방법이 적용되는 경우, 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비전 방법 및 시스템이 사용자에게 제공될 수 있다.When the structure and method of the present invention described above are applied, it is possible to detect a forward vehicle, a pedestrian, and an animal that are out of sight of the driver and can not be seen by the driver's eyes, A night vision method and system for providing image information can be provided to the user.

즉, 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비전 방법 및 시스템을 사용자에게 제공할 수 있다.That is, according to the present invention, when a Far Infra-Red (FIR) camera installed in a vehicle senses heat energy of an object, it converts it into a digital image signal, analyzes the converted image signal through a specific algorithm, A night vision method and system can be provided to the user to support the driver to know the forward situation in advance.

또한, 본 발명은 라이다 및 레이더를 통해 획득된 정보를 이용하여 ROI(Region of Interest)의 생성에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 하는 나이트 비전 방법 및 시스템을 사용자에게 제공할 수 있다.The present invention also provides a method and apparatus for reducing the amount of computation in the generation of a region of interest (ROI) using information obtained through radar and radar, Vision method and system to the user.

상술한 본 발명의 실시 예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시 예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. The above-described embodiments of the present invention can be implemented by various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시 예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention may be implemented in one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices Field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시 예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, a procedure, or a function for performing the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various well-known means.

상술한 바와 같이 개시된 본 발명의 바람직한 실시 예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시 예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시 예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The foregoing detailed description of preferred embodiments of the invention disclosed herein is provided to enable any person skilled in the art to make and use the present invention. While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. For example, those skilled in the art can utilize each of the configurations described in the above-described embodiments in a combination of them. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation in the claims may be combined to form an embodiment or be included in a new claim by amendment after the filing.

Claims (11)

FIR(Far Infra-Red) 카메라를 통해 적어도 하나의 객체에 대한 열에너지 정보를 획득하는 제 1 단계;
상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하는 제 2 단계;
상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하는 제 3 단계;
상기 제 1 열에너지 정보 중 상기 추출된 버티컬 에지에 맵핑(mapping) 되는 제 2 열에너지 정보를 추출하는 제 4 단계;
상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하는 제 5 단계;
상기 일단과 타단 포인트를 이용하여 ROI(Region of Interest)를 생성하는 제 6 단계;
식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하는 제 7 단계;
상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8 단계; 및
상기 추출한 ROI를 디스플레이부를 통해 표시하는 제 9 단계; 를 포함하되,
상기 제 1 단계 내지 제 5 단계 사이에는,
LiDAR(light detection and ranging) 및 RADAR(Radio Detecting And Ranging) 중 적어도 하나를 통해 상기 적어도 하나의 객체에 대한 추가정보를 획득하는 제 10 단계; 를 더 포함하고,
상기 제 6 단계에서는,
상기 추가정보와 상기 일단과 타단 포인트를 함께 이용하여 ROI를 생성하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.
A first step of acquiring thermal energy information for at least one object through a Far Infra-Red (FIR) camera;
A second step of extracting first thermal energy information satisfying a predetermined condition among the thermal energy information;
A third step of extracting a vertical edge from the thermal energy information;
A fourth step of extracting second thermal energy information mapped to the extracted vertical edge of the first thermal energy information;
A fifth step of extracting a vertical one end point and another end point of the object included in the second thermal energy information;
A sixth step of generating a region of interest (ROI) using the one end and the other end;
A seventh step of comparing a plurality of classifiers related to a first object to be identified with an object included in the ROI;
An eighth step of extracting an ROI corresponding to at least one of the plurality of classifiers in the ROI; And
Displaying the extracted ROI through a display unit; , ≪ / RTI &
Between the first step and the fifth step,
A step 10) of obtaining additional information about the at least one object through at least one of light detection and ranging (LiDAR) and radio detaching and ranging (RADAR); Further comprising:
In the sixth step,
And the ROI is generated using the additional information and the one end and the other end point together.
제 1항에 있어서,
상기 제 6 단계에서는,
상기 추가정보를 이용하여 상기 적어도 하나의 객체의 배치를 확인하고,
상기 제 5 단계에서 추출된 일단과 타단 포인트 중 상기 확인된 배치에 대응되는 일단과 타단 포인트만을 이용하여 ROI를 생성하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.
The method according to claim 1,
In the sixth step,
Confirm the placement of the at least one object using the additional information,
Wherein the ROI is generated using only one end point and the other end point corresponding to the identified arrangement among the one end point and the other end point extracted in the fifth step.
제 1항에 있어서,
상기 LiDAR는 상기 FIR 카메라로부터 미리 설정된 이격 거리 이내에 위치하는 상기 적어도 하나의 객체에 대한 정보를 획득하고,
상기 RADAR는 상기 FIR 카메라로부터 미리 설정된 이격 거리를 벗어나 위치하는 상기 적어도 하나의 객체에 대한 정보를 획득하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.
The method according to claim 1,
Wherein the LiDAR obtains information about the at least one object located within a preset distance from the FIR camera,
Wherein the RADAR obtains information on the at least one object located outside a preset separation distance from the FIR camera.
제 1항에 있어서,
상기 미리 설정된 조건은 미리 설정된 수치 이상의 밝기 값을 갖는 조건인 것을 특징으로 하는 나이트 비전 정보 표시 방법.
The method according to claim 1,
Wherein the preset condition is a condition having a brightness value equal to or greater than a predetermined value.
제 4항에 있어서,
상기 미리 설정된 조건은 제 1 조건 및 제 2 조건을 포함하고,
상기 제 1 조건의 밝기 값은 상기 제 2 조건의 밝기 값보다 크며,
상기 제 4 단계는 상기 제 2 조건을 만족하는 제 1 열에너지 정보에 적용되고,
상기 제 5 단계는 상기 제 1 조건을 만족하는 제 1 열에너지 정보와 상기 제 2 에너지 정보를 이용하여 수행되는 것을 특징으로 하는 나이트 비전 정보 표시 방법.
5. The method of claim 4,
Wherein the predetermined condition includes a first condition and a second condition,
Wherein the brightness value of the first condition is greater than the brightness value of the second condition,
Wherein the fourth step is applied to the first thermal energy information satisfying the second condition,
Wherein the fifth step is performed using the first thermal energy information and the second energy information satisfying the first condition.
제 1항에 있어서,
상기 제 2 단계와 제 3 단계는 동시에 수행되는 것을 특징으로 하는 나이트 비전 정보 표시 방법.
The method according to claim 1,
Wherein the second step and the third step are simultaneously performed.
제 1항에 있어서,
상기 제 8 단계 및 제 9 단계 사이에는,
상기 일단과 타단 포인트 중 적어도 하나를 이용하여 상기 추출한 ROI에 포함된 객체를 트래킹(Tracking)하는 제 8-1 단계; 를 더 포함하고,
상기 제 9 단계에서는, 상기 제 8-1 단계에서 트래킹하는 정보를 표시하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.
The method according to claim 1,
Between the eighth step and the ninth step,
An eighth step of tracking an object included in the extracted ROI using at least one of the one end and the other end; Further comprising:
And the ninth step displays the information to be tracked in the eighth step.
제 1항에 있어서,
상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고,
상기 반복 수행되는 제 6 단계는,
이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 6-1 단계;
상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 6-2 단계;
상기 제 1 객체와 관련된 배니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 6-3 단계; 및
상기 배니싱 영역 통계 정보와 상기 배니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 일단과 타단 포인트를 이용하여 ROI를 생성하는 제 6-4 단계; 를 포함하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.
The method according to claim 1,
The first to ninth steps are repeatedly performed,
The sixth step, which is repeatedly performed,
A sixth step of setting a vanishing line around the vertical axis of the object included in the extracted ROI from the eighth step performed previously;
(6-2) setting a vanishing region based on the set vanishing line;
6-3) comparing the vanishing area statistical information related to the first object with the vanishing area; And
If the difference between the vanishing region statistical information and the vanishing region is within a preset range, generating an ROI using the one end and the other end; And displaying the night vision information.
제 1항에 있어서,
상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고,
상기 반복 수행되는 제 8 단계는,
이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 8-2 단계;
상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 8-3 단계;
상기 제 1 객체와 관련된 배니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 8-4 단계; 및
상기 배니싱 영역 통계 정보와 상기 배니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8-5 단계; 를 더 포함하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.
The method according to claim 1,
The first to ninth steps are repeatedly performed,
In the eighth step,
An 8-2 step of setting a vanishing line around the vertical axis of the object included in the extracted ROI from the eighth step performed previously;
8-3) setting a vanishing region on the basis of the set vanishing line;
Comparing the vanishing area statistical information associated with the first object and the vanishing area; And
Extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI when the difference between the vanishing region statistical information and the vanishing region is within a preset range; And displaying the night vision information.
제 1항에 있어서,
상기 제 1 객체는 전방의 차량, 보행자 및 동물을 포함하고,
상기 제 1 단계에서 상기 열에너지 정보는 야간에 획득되는 것을 특징으로 하는 나이트 비전 정보 표시 방법.
The method according to claim 1,
Wherein the first object comprises a forward vehicle, a pedestrian and an animal,
Wherein the thermal energy information is obtained at night in the first step.
적어도 하나의 객체에 대한 열에너지 정보를 획득하는 FIR(Far Infra-Red) 카메라;
상기 적어도 하나의 객체에 대한 추가정보를 획득하는 LiDAR(light detection and ranging) 및 RADAR(Radio Detecting And Ranging);
상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하고, 상기 열에너지 정보에서 버티컬 엣지(Vertical Edgy)를 추출하며, 상기 제 1 열에너지 정보 중 상기 추출된 버티컬 엣지에 맵핑(mapping) 되는 제 2 열에너지 정보를 추출하고, 상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하며, 상기 추가정보와 상기 일단과 타단 포인트를 함께 이용하여 ROI를 생성하고, 식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하며, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제어부; 및
상기 추출한 ROI를 표시하는 디스플레이 부; 를 포함하는 나이트 비전 정보 표시 장치.
A Far Infra-Red (FIR) camera that obtains thermal energy information for at least one object;
Light detection and ranging (LiDAR) and Radio Detecting And Ranging (RADAR) to obtain additional information about the at least one object;
The first thermal energy information extracting unit extracts first thermal energy information satisfying a predetermined condition among the thermal energy information, extracts a vertical edge from the thermal energy information, and maps the first thermal energy information to the extracted vertical edge Extracting two thermal energy information, extracting vertical and other end points of the object included in the second thermal energy information, generating an ROI using the additional information, the one end and the other end point together, A controller for comparing a plurality of classifiers associated with the classifier and an object included in the ROI and extracting an ROI corresponding to at least one of the plurality of classifiers in the ROI; And
A display unit for displaying the extracted ROI; The night vision information display device comprising:
KR1020170045386A 2017-04-07 2017-04-07 Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging) KR101935853B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170045386A KR101935853B1 (en) 2017-04-07 2017-04-07 Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170045386A KR101935853B1 (en) 2017-04-07 2017-04-07 Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging)

Publications (2)

Publication Number Publication Date
KR20180113807A true KR20180113807A (en) 2018-10-17
KR101935853B1 KR101935853B1 (en) 2019-01-07

Family

ID=64099406

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170045386A KR101935853B1 (en) 2017-04-07 2017-04-07 Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging)

Country Status (1)

Country Link
KR (1) KR101935853B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190070951A (en) * 2016-11-17 2019-06-21 주식회사 토비스 Night vision system
CN110933796A (en) * 2019-12-18 2020-03-27 深圳美电科技有限公司 Far infrared temperature measurement module heating device and use method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003302470A (en) * 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detection device and pedestrian detection method
KR101543105B1 (en) * 2013-12-09 2015-08-07 현대자동차주식회사 Method And Device for Recognizing a Pedestrian and Vehicle supporting the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190070951A (en) * 2016-11-17 2019-06-21 주식회사 토비스 Night vision system
CN110933796A (en) * 2019-12-18 2020-03-27 深圳美电科技有限公司 Far infrared temperature measurement module heating device and use method

Also Published As

Publication number Publication date
KR101935853B1 (en) 2019-01-07

Similar Documents

Publication Publication Date Title
US10958896B2 (en) Fusing measured multifocal depth data with object data
JP6036065B2 (en) Gaze position detection device and gaze position detection method
US10504214B2 (en) System and method for image presentation by a vehicle driver assist module
CN109427199B (en) Augmented reality method and device for driving assistance
US11242068B2 (en) Vehicle display device and vehicle
EP2857886B1 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
KR101359660B1 (en) Augmented reality system for head-up display
Eum et al. Enhancing light blob detection for intelligent headlight control using lane detection
US20190005727A1 (en) Display system, information presentation system, control method of display system, storage medium, and mobile body
US20160121794A1 (en) In-vehicle display apparatus and program product
KR101944607B1 (en) An acquisition system of distance information in direction signs for vehicle location information and method
JP2015114757A (en) Information processing apparatus, information processing method, and program
JP2007257286A (en) Display system for vehicle
JP2006338594A (en) Pedestrian recognition system
CN111273765B (en) Vehicle display control device, vehicle display control method, and storage medium
KR102033858B1 (en) Prediction system for traffic accident
KR20200082109A (en) Feature data extraction and application system through visual data and LIDAR data fusion
US20170116488A1 (en) Method for identifying an incoming vehicle and corresponding system
CN110546026A (en) Adjusting device, display system and adjusting method
GB2550472A (en) Adaptive display for low visibility
JP2020032866A (en) Vehicular virtual reality providing device, method and computer program
KR101935853B1 (en) Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging)
JP2010070117A (en) Image irradiation system and image irradiation method
KR102169885B1 (en) Night vision system displaying thermal energy information and its control method
KR102169884B1 (en) Night vision system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant