KR102169884B1 - Night vision system - Google Patents

Night vision system Download PDF

Info

Publication number
KR102169884B1
KR102169884B1 KR1020197014134A KR20197014134A KR102169884B1 KR 102169884 B1 KR102169884 B1 KR 102169884B1 KR 1020197014134 A KR1020197014134 A KR 1020197014134A KR 20197014134 A KR20197014134 A KR 20197014134A KR 102169884 B1 KR102169884 B1 KR 102169884B1
Authority
KR
South Korea
Prior art keywords
roi
energy information
thermal energy
information
extracted
Prior art date
Application number
KR1020197014134A
Other languages
Korean (ko)
Other versions
KR20190070951A (en
Inventor
이광희
정철준
Original Assignee
주식회사 토비스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 토비스 filed Critical 주식회사 토비스
Publication of KR20190070951A publication Critical patent/KR20190070951A/en
Application granted granted Critical
Publication of KR102169884B1 publication Critical patent/KR102169884B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera

Abstract

본 발명은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비젼 방법 및 시스템에 관한 것이다. 본 발명의 일 양상인 나이트 비젼 정보 표시 방법은, FIR(Far Infra-Red) 카메라를 통해 적어도 하나의 객체에 대한 열에너지 정보를 획득하는 제 1 단계; 상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하는 제 2 단계; 상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하는 제 3 단계; 상기 제 1 열에너지 정보 중 상기 추출된 버티컬 에지에 매핑(mapping) 되는 제 2 열에너지 정보를 추출하는 제 4 단계; 상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하는 제 5 단계; 상기 일단과 타단 포인트를 이용하여 ROI(Region of Interest)를 생성하는 제 6 단계; 식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하는 제 7 단계; 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8 단계; 및 상기 추출한 ROI를 디스플레이부를 통해 표시하는 제 9 단계;를 포함할 수 있다.The present invention provides a night vision method for providing more forward image information to a driver by detecting vehicles, pedestrians, animals, etc. in front that cannot be seen by the driver's eyes outside the driver's field of view secured by a headlight during night driving, and It's about the system. According to an aspect of the present invention, a method for displaying night vision information includes: a first step of obtaining thermal energy information for at least one object through a Far Infra-Red (FIR) camera; A second step of extracting first heat energy information satisfying a preset condition from among the heat energy information; A third step of extracting a vertical edge from the thermal energy information; A fourth step of extracting second thermal energy information mapped to the extracted vertical edge from among the first thermal energy information; A fifth step of extracting the vertical one end and the other end point of the object included in the second thermal energy information; A sixth step of generating a region of interest (ROI) using the one end and the other end point; A seventh step of comparing an object included in the ROI with a plurality of classifiers related to the first object to be identified; An eighth step of extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI; And a ninth step of displaying the extracted ROI through a display unit.

Description

나이트 비젼 시스템Night vision system

본 발명은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비젼 방법 및 시스템에 관한 것이다.The present invention provides a night vision method for providing more forward image information to a driver by detecting vehicles, pedestrians, animals, etc. in front that cannot be seen by the driver's eyes outside the driver's field of view secured by a headlight during night driving, and It's about the system.

구체적으로 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비젼 방법 및 시스템에 관한 것이다.Specifically, in the present invention, when the FIR (Far Infra-Red) camera installed in the vehicle detects the thermal energy of an object, it converts it into a digital image signal, and analyzes, corrects, and supplements the converted image signal through a specific algorithm to display It relates to a night vision method and system that supports the driver to know the situation ahead by displaying on or outputting an alarm.

일반적으로 원 적외선(Far Infra-Red: FIR)을 이용한 열 화상 카메라(Thermal Imaging Camera)는 가시광 영역을 감지하는 것이 아니라 원적외선 영역을 감지한다.In general, a thermal imaging camera using Far Infra-Red (FIR) detects a far infrared region rather than a visible region.

즉, 열 화상 카메라는 피사체에서 발산하는 적외선 열에너지를 감지하고, 감지된 결과를 열 화상 이미지로 획득한다.That is, the thermal imaging camera detects infrared thermal energy emitted from a subject, and acquires the detected result as a thermal image.

이러한 특성으로 인해 열 화상 카메라는 체온을 갖는 사람을 감지하는데 활용될 수 있다.Due to these characteristics, thermal imaging cameras can be used to detect people with body temperature.

한편, 최근 FIR 카메라를 이용한 보행자 감지 장치가 차량에 적용되고 있다. Meanwhile, a pedestrian detection device using an FIR camera has recently been applied to a vehicle.

이러한 차량에 적용된 FIR 카메라는 현재 차량이 주행 환경에 무관하게 일관된 검출 성능을 제공해야 한다.FIR cameras applied to such vehicles must provide consistent detection performance regardless of the current vehicle driving environment.

즉, 차량에 적용된 FIR 카메라는 주변 광원들로 인해 난반사가 심한 도심이나 상기 주변 광원들로 인한 난반사가 심하지 않은 도심 외관지역에서도 일관된 보행자 검출 성능을 제공해야 한다.That is, the FIR camera applied to a vehicle must provide consistent pedestrian detection performance even in a city center where diffuse reflection is severe due to ambient light sources or an urban exterior area where diffuse reflection is not severe due to the ambient light sources.

따라서, 종래의 차량에 적용된 FIR 카메라에는 일관된 검출 성능을 제공하기 위해 기본적으로 감도를 조절하는 기능이 부가된다.Therefore, the FIR camera applied to a conventional vehicle is basically added with a function of adjusting sensitivity in order to provide consistent detection performance.

이러한 감도 조절은 촬영된 열화상의 대상체 간의 복사 온도차 설정을 조정하여 감도를 조절할 수 있다.This sensitivity control may adjust the sensitivity by adjusting the radiation temperature difference setting between objects in the photographed thermal image.

그러나, 주변 건물에서 방출하는 광원, 주변 건물에 부착된 간판에서 방출하는 광원 등의 난반사(scattered reflection), 특히, 전,후방 차량의 조명등의 난반사가 극심한 도심에서는 감도 조절에 한계가 있다.However, there is a limit to sensitivity control in urban areas where scattered reflections such as light sources emitted from surrounding buildings and light sources emitted from signboards attached to surrounding buildings, and particularly, diffuse reflections of lights from front and rear vehicles, are extreme.

더욱이, FIR 카메라는 고가의 장비로서, 상기와 같이 난반사가 극심한 도심에서는 사용자가 요구하는 가격 대비 검출 성능을 만족시키지 못하고 있는 실정이다.Moreover, FIR cameras are expensive equipment, and in urban areas where diffuse reflections are severe as described above, they do not satisfy the price/detection performance required by users.

물론, FIR 카메라에 비해 상대적으로 저가인 CMOS 카메라를 이용한 보행자 검출도 가능하다. 그러나 CMOS 카메라는 피사체에서 발산하는 적외선 열에너지를 감지하는 방식으로 피사체의 이미지를 획득하는 방식이 아니기 때문에 피사체의 복사 온도차를 이용한 감도 조절 기능이 없다. Of course, pedestrian detection using a CMOS camera, which is relatively inexpensive compared to FIR cameras, is also possible. However, since the CMOS camera does not acquire an image of a subject by detecting infrared heat energy emitted from the subject, there is no sensitivity control function using the difference in radiation temperature of the subject.

즉, 난반사가 극심한 도심에서, 특히 야간 보행자의 검출은 불가능하며, FIR 카메라와 같이, 대상체가 보행자 인지 동물인지 뚜렷이 구분하지 못한다.That is, it is impossible to detect pedestrians at night, especially in urban areas where diffuse reflection is severe, and it is not possible to clearly distinguish whether the object is a pedestrian or an animal, like an FIR camera.

한편, 최근에는 교통 사고 중 보행자(자전거 탑승자 포함) 사고가 상당 부분을 차지하며, 이러한 보행자 사고는 일단 사고가 나면 사망 등의 큰 인명 사고로 이어진다는 점에서 반드시 방지해야만 하는 사고이다.On the other hand, in recent years, pedestrians (including bicycle occupants) occupy a significant portion of traffic accidents, and these accidents are accidents that must be prevented in that once an accident occurs, it leads to major accidents such as death.

따라서, 보행자(자전거 탑승자 포함) 보호에 대한 많은 연구들이 진행되고 있는 상황이다. Therefore, many studies on the protection of pedestrians (including bicycle occupants) are in progress.

그럼에도 불구하고, 종래의 보행자 보호 장치에서는, 보행자를 정확하게 인식하기 위해서 배제되어야 할 주변 건물, 주변 물체 등의 배경을 보행자와 정확히 구별하지 못하는 문제점이 여전히 있으며, 이로 인해, 제대로 된 보행자 보호를 하지 못하고 있는 실정이다.Nevertheless, in the conventional pedestrian protection device, there is still a problem that the background of surrounding buildings, surrounding objects, etc., which should be excluded in order to accurately recognize the pedestrian, cannot be accurately distinguished from the pedestrian, and due to this, proper pedestrian protection cannot be provided. There is a situation.

또한, 종래의 FIR 카메라를 이용한 보행자 검출 장치는 보행자 검출에 적용 시 온도가 높게 나타나는 영역을 관심영역으로 설정하여 보행자 감지를 수행하였다.In addition, a pedestrian detection apparatus using a conventional FIR camera performs pedestrian detection by setting a region in which the temperature is high when applied to pedestrian detection as a region of interest.

그러나, FIR 카메라를 이용한 보행자 검출 장치는 주/야간 등 환경에 따라 상대적으로 온도가 일정하지 않으므로, 온도가 높게 나타나는 영역에서는 일관된 성능을 기대하기가 어려웠다.However, since the temperature of the pedestrian detection device using the FIR camera is not relatively constant depending on the environment such as day/night, it is difficult to expect consistent performance in a region where the temperature is high.

또한, FIR 카메라를 이용한 보행자 검출 장치 외에도 다양한 보행자 검출 장치들이 제안되었으나, 주로 차량의 범퍼나 펜더(Fender)의 안과 같은 차량의 전방에 장착된 센서들을 포함한다.In addition, in addition to the pedestrian detection device using the FIR camera, various pedestrian detection devices have been proposed, but mainly include sensors mounted in the front of the vehicle, such as the inside of a bumper or a fender of a vehicle.

이러한 센서를 포함하는 보행자 검출 장치들은 쉽사리 오류의 출력신호를 제공할 수 있어서, 예를 들면 도로의 원뿔체나 동물과 같은 타격에 타격되었을 때 안전 장치가 부적절하게 전개될 수도 있다.Pedestrian detection devices including such sensors can easily provide an output signal of an error, so that the safety device may be inappropriately deployed when a hit such as, for example, a cone of a road or an animal is hit.

따라서 상기 문제점을 해소하고, 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비젼 방법 및 시스템에 대한 필요성이 대두되고 있다.Therefore, to solve the above problem and to provide more forward image information to the driver by detecting vehicles, pedestrians, and animals in front that are outside the driver's field of view secured by the headlight during night driving and cannot be seen by the driver's eyes. There is a need for a night vision method and system.

대한민국 특허청 등록번호 제 10-1410215호Korean Intellectual Property Office Registration No. 10-1410215 대한민국 특허청 등록번호 제 10-1284892호Korean Intellectual Property Office Registration No. 10-1284892

본 발명은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비젼 방법 및 시스템을 제공하고자 한다.The present invention provides a night vision method for providing more forward image information to a driver by detecting vehicles, pedestrians, animals, etc. in front that cannot be seen by the driver's eyes outside the driver's field of view secured by a headlight during night driving, and We want to provide a system.

구체적으로 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비젼 방법 및 시스템을 사용자에게 제공하고자 한다.Specifically, in the present invention, when the FIR (Far Infra-Red) camera installed in the vehicle detects the thermal energy of an object, it converts it into a digital image signal, and analyzes, corrects, and supplements the converted image signal through a specific algorithm to display It is intended to provide users with a night vision method and system that supports the driver to know the situation ahead by displaying on or outputting an alarm.

다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned are clearly to those of ordinary skill in the technical field to which the present invention belongs from the following description. It will be understandable.

상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 나이트 비젼 정보 표시 방법은, FIR(Far Infra-Red) 카메라를 통해 적어도 하나의 객체에 대한 열에너지 정보를 획득하는 제 1 단계; 상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하는 제 2 단계; 상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하는 제 3 단계; 상기 제 1 열에너지 정보 중 상기 추출된 버티컬 에지에 매핑(mapping) 되는 제 2 열에너지 정보를 추출하는 제 4 단계; 상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하는 제 5 단계; 상기 일단과 타단 포인트를 이용하여 ROI(Region of Interest)를 생성하는 제 6 단계; 식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하는 제 7 단계; 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8 단계; 및 상기 추출한 ROI를 디스플레이부를 통해 표시하는 제 9 단계;를 포함할 수 있다.A method for displaying night vision information according to an aspect of the present invention for achieving the above technical problem includes: a first step of obtaining thermal energy information for at least one object through a Far Infra-Red (FIR) camera; A second step of extracting first heat energy information satisfying a preset condition from among the heat energy information; A third step of extracting a vertical edge from the thermal energy information; A fourth step of extracting second thermal energy information mapped to the extracted vertical edge from among the first thermal energy information; A fifth step of extracting the vertical one end and the other end point of the object included in the second thermal energy information; A sixth step of generating a region of interest (ROI) using the one end and the other end point; A seventh step of comparing an object included in the ROI with a plurality of classifiers related to the first object to be identified; An eighth step of extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI; And a ninth step of displaying the extracted ROI through a display unit.

또한, 상기 미리 설정된 조건은 미리 설정된 수치 이상의 밝기 값을 갖는 조건일 수 있다.In addition, the preset condition may be a condition having a brightness value equal to or greater than a preset value.

또한, 상기 미리 설정된 조건은 제 1 조건 및 제 2 조건을 포함하고, 상기 제 1 조건의 밝기 값은 상기 제 2 조건의 밝기 값보다 크며, 상기 제 4 단계는 상기 제 2 조건을 만족하는 제 1 열에너지 정보에 적용되고, 상기 제 5 단계는 상기 제 1 조건을 만족하는 제 1 열에너지 정보와 상기 제 2 에너지 정보를 이용하여 수행될 수 있다.Further, the preset condition includes a first condition and a second condition, the brightness value of the first condition is greater than the brightness value of the second condition, and the fourth step is a first condition that satisfies the second condition. It is applied to thermal energy information, and the fifth step may be performed by using the first thermal energy information and the second energy information satisfying the first condition.

또한, 상기 제 2 단계와 제 3 단계는 동시에 수행될 수 있다.In addition, the second step and the third step may be performed simultaneously.

또한, 상기 제 8 단계 및 제 9 단계 사이에는, 상기 일단과 타단 포인트 중 적어도 하나를 이용하여 상기 추출한 ROI에 포함된 객체를 트래킹(Tracking)하는 제 8-1 단계;를 더 포함하고, 상기 제 9 단계에서는, 상기 제 8-1 단계에서 트래킹하는 정보를 표시할 수 있다.In addition, between the eighth and ninth steps, a step 8-1 of tracking an object included in the extracted ROI by using at least one of the one end and the other end point; further includes, and the th In step 9, information tracked in step 8-1 may be displayed.

또한, 상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고, 상기 반복 수행되는 제 6 단계는, 이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 6-1 단계; 상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 6-2 단계; 상기 제 1 객체와 관련된 베니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 6-3 단계; 및 상기 베니싱 영역 통계 정보와 상기 베니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 일단과 타단 포인트를 이용하여 ROI를 생성하는 제 6-4 단계;를 포함할 수 있다.In addition, the first to ninth steps are repeatedly performed, and the sixth step, which is repeatedly performed, is a vanishing line around the vertical axis of the object included in the extracted ROI from the eighth step previously performed. step 6-1 of setting line); Step 6-2 of setting a vanishing region based on the set vanishing line; A 6-3 step of comparing the vanishing area statistical information related to the first object with the vanishing area; And a 6-4 step of generating an ROI using the one end point and the other end point when the difference between the vanishing area statistical information and the vanishing area is within a preset range.

또한, 상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고, 상기 반복 수행되는 제 8 단계는, 이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 8-2 단계; 상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 8-3 단계; 상기 제 1 객체와 관련된 베니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 8-4 단계; 및 상기 베니싱 영역 통계 정보와 상기 베니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8-5 단계;를 더 포함할 수 있다.In addition, the first to ninth steps are repeatedly performed, and the eighth step, which is repeatedly performed, is a vanishing line around the vertical axis of the object included in the extracted ROI from the previously performed eighth step. line) setting; An 8-3 step of setting a vanishing region based on the set vanishing line; An 8-4th step of comparing the vanishing area statistical information related to the first object with the vanishing area; And a step 8-5 of extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI when the difference between the vanishing area statistical information and the vanishing area is within a preset range. I can.

또한, 상기 제 1 객체는 전방의 차량, 보행자 및 동물을 포함하고, 상기 제 1 단계에서 상기 열에너지 정보는 야간에 획득될 수 있다.In addition, the first object includes a vehicle, a pedestrian, and an animal in front, and in the first step, the thermal energy information may be obtained at night.

또한, 상기 제 9 단계 이후에는, 상기 추출한 ROI를 외부에 전송하는 제 10 단계;를 더 포함하고, 상기 전송에는 근거리 통신 또는 원거리 통신이 이용되며, 상기 근거리 통신은, Wi-Fi(Wireless Fidelity), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 기술 중 적어도 하나를 이용하고, 상기 원거리 통신은, CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 기술 중 적어도 하나를 이용할 수 있다.In addition, after the ninth step, a tenth step of transmitting the extracted ROI to the outside; further comprising, a short-range communication or a long-distance communication is used for the transmission, and the short-range communication is Wi-Fi (Wireless Fidelity) , Bluetooth, Radio Frequency Identification (RFID), infrared communication (IrDA, infrared Data Association), Ultra Wideband (UWB), and at least one of ZigBee technology is used, and the long-distance communication is CDMA (code division multiple access) , At least one of frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA) techniques may be used.

한편, 상기의 기술적 과제를 달성하기 위한 본 발명의 다른 양상인 나이트 비젼 정보 표시 장치는, 적어도 하나의 객체에 대한 열에너지 정보를 획득하는 FIR(Far Infra-Red) 카메라; 상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하고, 상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하며, 상기 제 1 열에너지 정보 중 상기 추출된 버티컬 에지에 매핑(mapping) 되는 제 2 열에너지 정보를 추출하고, 상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하며, 상기 일단과 타단 포인트를 이용하여 ROI(Region of Interest)를 생성하고, 식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하며, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제어부; 및 상기 추출한 ROI를 표시하는 디스플레이부;를 포함할 수 있다.On the other hand, a night vision information display device according to another aspect of the present invention for achieving the above technical problem, FIR (Far Infra-Red) camera for obtaining thermal energy information on at least one object; A first thermal energy information that satisfies a preset condition is extracted from among the thermal energy information, a vertical edge is extracted from the thermal energy information, and is mapped to the extracted vertical edge among the first thermal energy information. 2 Extract thermal energy information, extract vertical one end and the other end point of the object included in the second heat energy information, generate a region of interest (ROI) using the one end and the other end point, and identify the first object A control unit for comparing a plurality of classifiers related to the object included in the ROI and extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI; And a display unit that displays the extracted ROI.

본 발명은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비젼 방법 및 시스템을 제공할 수 있다.The present invention provides a night vision method for providing more forward image information to a driver by detecting vehicles, pedestrians, animals, etc. in front that cannot be seen by the driver's eyes outside the driver's field of view secured by a headlight during night driving, and System can be provided.

구체적으로 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비젼 방법 및 시스템을 사용자에게 제공할 수 있다.Specifically, in the present invention, when the FIR (Far Infra-Red) camera installed in the vehicle detects the thermal energy of an object, it converts it into a digital image signal, and analyzes, corrects, and supplements the converted image signal through a specific algorithm to display A night vision method and system that supports the driver to know the situation ahead by displaying on or outputting an alarm can be provided to the user.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description. I will be able to.

도 1a 및 도 1b는 본 발명과 관련하여 나이트 비젼 시스템과 헤드램프 시스템의 야간 식별 거리를 비교하기 위한 도면이다.
도 2a 및 도 2b는 본 발명과 관련하여, 차량에 나이트 비젼 시스템을 탑재한 구체적인 모습을 도시하는 도면이다.
도 3은 본 발명이 제안하는 나이트 비젼 시스템의 블록 구성도를 도시한 것이다.
도 4는 도 3에서 설명한 본 발명에 따른 나이트 비젼 시스템의 구체화된 블록 구성도의 일례를 도시한 것이다.
도 5는 본 발명에 따른 나이트 비젼 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 구체적인 과정을 설명하는 순서도이다.
도 6a 내지 도 6e는 도 5에서 설명한 과정들 중 인풋 이미지를 통해 ROI를 생성하는 구체적인 과정을 설명하는 도면이다.
도 7은 도 5에서 설명한 과정들 중 기계학습(Machine Learning)에 따른 보행자 분류의 구체적인 과정을 설명하는 도면이다.
도 8a 및 도 8b는 도 5에서 설명한 과정들 중 Multi-Classifier를 이용한 오인지 제거 알고리즘 과정을 구체적으로 설명하기 위한 도면이다.
도 9a 및 도 9b는 도 5에서 설명한 과정들 중 Head Point 기반 Tracking 과정을 구체적으로 설명하기 위한 도면이다.
도 10은 본 발명에 따른 나이트 비젼 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 일례를 설명하는 순서도이다.
도 11은 안개, 먼지 등 시야가 제한되는 상황에서, 본 발명에 따른 나이트 비젼 시스템을 통해 운전자가 쉽게 주변상황을 확인할 수 있는 구체적인 모습을 도시한 것이다.
도 12는 본 발명에 따른 나이트 비젼 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 과정을 설명하는 순서도이다.
1A and 1B are diagrams for comparing night vision distances of a night vision system and a headlamp system according to the present invention.
2A and 2B are diagrams showing a specific state of mounting a night vision system in a vehicle in connection with the present invention.
3 shows a block diagram of a night vision system proposed by the present invention.
4 shows an example of a detailed block diagram of a night vision system according to the present invention described in FIG. 3.
5 is a flowchart illustrating a specific process of displaying information according to a specific algorithm by an FIR camera sensing thermal energy of an object through the night vision system according to the present invention.
6A to 6E are diagrams for explaining a detailed process of generating an ROI through an input image among the processes described in FIG. 5.
7 is a diagram illustrating a specific process of classifying a pedestrian according to machine learning among the processes described in FIG. 5.
8A and 8B are diagrams for explaining in detail a process of a false recognition removal algorithm using a multi-classifier among the processes described in FIG. 5.
9A and 9B are diagrams for specifically explaining a Head Point-based tracking process among the processes described in FIG. 5.
FIG. 10 is a flowchart illustrating another example in which an FIR camera detects thermal energy of an object and displays information according to a specific algorithm through the night vision system according to the present invention.
11 is a diagram illustrating a specific state in which the driver can easily check the surrounding situation through the night vision system according to the present invention in a situation in which the field of view such as fog, dust, etc. is restricted.
12 is a flowchart illustrating another process in which an FIR camera detects thermal energy of an object and displays information according to a specific algorithm through the night vision system according to the present invention.

일반적으로, 차량에서는 내비게이션 시스템(Navigation system)을 이용하여 원하는 목적지까지의 경로 정보를 확인하고, 내비게이션을 통해 안내되는 경로 정보에 따라 편리하게 목적지를 찾아가게 된다.In general, a vehicle checks route information to a desired destination using a navigation system, and conveniently searches for a destination according to route information guided through the navigation system.

이러한 내비게이션 시스템은 경로 안내, 텔레비전 시청, 차량 속도 정보 표시 등과 같은 정보는 제공해주나, 도루 주행 중 보행자 또는 동물을 감지하여 이를 경고해주는 것은 불가능하다.Such a navigation system provides information such as route guidance, TV viewing, vehicle speed information display, and the like, but it is impossible to detect and warn a pedestrian or animal while driving on a steal.

차량의 주행 중 운전자는 육안으로 보행자나 동물들의 출현 등을 직접 확인하고, 육안으로 식별한 감지 정보에 근거해 차량 운행을 제어하게 된다.While the vehicle is driving, the driver directly checks the appearance of pedestrians or animals with the naked eye, and controls the vehicle operation based on the detected information identified with the naked eye.

여기서 낮에는 인간의 육안으로 대부분의 보행자나 동물의 식별이 가능하나, 인간의 눈은 조도가 낮은 밤에는 보행자나 동물의 식별이 거의 불가능하다. Here, most pedestrians or animals can be identified with the naked eye during the day, but human eyes are almost impossible to identify pedestrians or animals at night when the illumination is low.

따라서 조도가 낮은 야간에 보행자 또는 동물의 식별이 어려워 빈번하게 보행자 또는 동물과 차량이 충돌하는 사고가 발생하고 있다.Therefore, it is difficult to identify pedestrians or animals at night when the illumination is low, and accidents frequently occur in which pedestrians or animals collide with vehicles.

최근에는 FIR 카메라를 이용한 보행자 감지 장치가 차량에 적용되고 있다. Recently, a pedestrian detection device using an FIR camera has been applied to a vehicle.

그러나 종래의 FIR 카메라를 이용한 보행자 감지 장치는 주변 건물에서 방출하는 광원, 주변 건물에 부착된 간판에서 방출하는 광원 등의 난반사(scattered reflection), 특히, 전, 후방 차량의 조명등의 난반사가 극심한 도심에서는 감도 조절에 한계가 있다.However, conventional pedestrian detection devices using FIR cameras have scattered reflections such as light sources emitted from surrounding buildings and light sources emitted from signboards attached to surrounding buildings, especially in urban areas where diffuse reflections of lights from front and rear vehicles are severe. There is a limit to the sensitivity control.

더욱이, FIR 카메라는 고가의 장비로서, 상기와 같이 난반사가 극심한 도심에서는 사용자가 요구하는 가격 대비 검출 성능을 만족시키지 못하고 있다.Moreover, FIR cameras are expensive equipment, and in urban areas where diffuse reflection is severe as described above, they do not satisfy the price-to-detection performance required by users.

즉, 난반사가 극심한 도심에서, 특히 야간 보행자의 검출은 불가능하며, FIR 카메라와 같이, 대상체가 보행자 인지 동물인지 뚜렷이 구분하지 못하고 있다.That is, it is impossible to detect pedestrians at night, especially in urban areas where diffuse reflection is severe, and it is not possible to clearly distinguish whether an object is a pedestrian or an animal, like an FIR camera.

또한, 종래의 FIR 카메라를 이용한 보행자 보호 장치에서는, 보행자를 정확하게 인식하기 위해서 배제되어야 할 주변 건물, 주변 물체 등의 배경을 보행자와 정확히 구별하지 못하는 문제점이 여전히 있으며, 이로 인해, 제대로 된 보행자 보호를 하지 못하고 있다.In addition, in the conventional pedestrian protection device using an FIR camera, there is still a problem in that the background of surrounding buildings, surrounding objects, etc., which should be excluded in order to accurately recognize the pedestrian, cannot be accurately distinguished from the pedestrian. I can't.

또한, 종래의 FIR 카메라를 이용한 보행자 검출 장치는 주/야간 등 환경에 따라 상대적으로 온도가 일정하지 않으므로, 온도가 높게 나타나는 영역에서는 일관된 성능을 기대하기가 어렵다는 문제점이 있다.In addition, the conventional pedestrian detection apparatus using the FIR camera has a problem that it is difficult to expect consistent performance in a region where the temperature is high because the temperature is relatively not constant depending on the environment such as day/night.

따라서 본 명세서에서는 상기 문제점을 해소하는 나이트 비젼 방법 및 시스템을 제공하고자 한다.Therefore, in the present specification, a night vision method and system that solves the above problem is provided.

본 발명이 제안하는 나이트 비전 시스템(Night Vision System, NVS)은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 운전자 보조 시스템이다.The night vision system (NVS) proposed by the present invention detects vehicles, pedestrians, and animals in front that cannot be seen by the driver's eyes outside the driver's field of view secured by the headlight during night driving. It is a driver assistance system to provide more forward image information.

도 1a 및 도 1b는 본 발명과 관련하여 나이트 비젼 시스템과 헤드램프 시스템의 야간 식별 거리를 비교하기 위한 도면이다.1A and 1B are diagrams for comparing night vision distances of a night vision system and a headlamp system according to the present invention.

도 1a를 참조하면, 본 발명에 따른 나이트 비젼 시스템은 일반 Head Lamp의 하향등을 켰을 때보다 3~5배 더 넓은 시야 확보가 가능하다.Referring to FIG. 1A, the night vision system according to the present invention can secure a field of view 3 to 5 times wider than when the low beam of a general head lamp is turned on.

또한, 도 1b를 참조하면, 전조등을 조사하여 육안으로 식별할 수 있는 거리는 60m 이내로 제한되는 반면, 본 발명에 따른 나이트 비젼 시스템을 통한 전방 보행자 인지는 130m까지 가능하여 전방 시야 확보에 더욱 효과적이다.In addition, referring to FIG. 1B, the distance that can be visually identified by irradiating the headlight is limited to within 60m, whereas the recognition of a pedestrian in front through the night vision system according to the present invention is possible up to 130m, which is more effective in securing a front view.

한편, 도 2a 및 도 2b는 본 발명과 관련하여, 차량에 나이트 비젼 시스템을 탑재한 구체적인 모습을 도시하는 도면이다.Meanwhile, FIGS. 2A and 2B are diagrams showing a detailed state of mounting a night vision system in a vehicle in connection with the present invention.

도 2a에 도시된 것과 같이, 차량 그릴 안쪽에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 통합 ECU에서 디지털 영상 신호로 변환하게 된다.As shown in FIG. 2A, when a Far Infra-Red (FIR) camera installed inside a vehicle grill detects the thermal energy of an object, the integrated ECU converts it into a digital image signal.

이후, 변환된 영상 신호는 영상 알고리즘(Algorithm)을 통해 분석, 수정 및 보완되고, 상기 처리가 완료된 영상 신호가 Display에 표시되거나 경고음이 출력됨으로써, 운전자가 사전에 전방 상황을 알 수 있게 해준다.Thereafter, the converted image signal is analyzed, corrected and supplemented through an image algorithm, and the processed image signal is displayed on the display or a warning sound is output, so that the driver can know the situation ahead.

도 2b는 FIR(Far Infra-Red) 카메라를 통해 감지된 보행자가 디스플레이부를 통해 표시되는 구체적인 모습을 도시한 것이다.FIG. 2B is a diagram illustrating a specific state in which a pedestrian detected through a Far Infra-Red (FIR) camera is displayed through a display unit.

본 발명의 구체적인 동작을 설명하기에 앞서, 본 발명이 제안하는 나이트 비젼 시스템의 구성에 대해 선결적으로 설명한다.Prior to describing the specific operation of the present invention, a configuration of the night vision system proposed by the present invention will be preliminarily described.

도 3은 본 발명이 제안하는 나이트 비젼 시스템의 블록 구성도를 도시한 것이다.3 is a block diagram of a night vision system proposed by the present invention.

도 3을 참조하면, 본 발명이 제안하는 나이트 비젼 시스템(100)은 원적외선 카메라(122), 제어부(180) 및 디스플레이부(151)를 포함할 수 있다.Referring to FIG. 3, a night vision system 100 proposed by the present invention may include a far infrared camera 122, a controller 180, and a display unit 151.

여기서 원적외선 카메라(122)는 원적외선(Far Infrared, LongWave Infrared, FIR)을 이용하여 적어도 하나의 객체를 촬영하는 카메라이다.Here, the far-infrared camera 122 is a camera that photographs at least one object using far infrared (Far Infrared, LongWave Infrared, FIR).

원적외선은 통상 파장이 8㎛ 이상인 적외선을 의미하고, 가시광선보다 파장이 길어서 눈에 보이지 않고 열작용이 크며 침투력이 강하다. Far-infrared rays generally mean infrared rays having a wavelength of 8 μm or more, and because they are longer than visible rays, they are invisible, heat action is large, and penetration is strong.

본 발명에 따른 원적외선 카메라(122)의 특성을 설명한다.The characteristics of the far infrared camera 122 according to the present invention will be described.

일반 CCD, CMOS 소자를 사용하는 카메라는 가시광 영역의 빛을 감지하여 투영하는 역할을 하기 때문에 사람의 눈으로 보는 것과 비슷한 영상을 획득할 수 있다.Since a camera using a general CCD or CMOS device detects and projects light in the visible light region, it is possible to acquire an image similar to that of a human eye.

반면, 원적외선 카메라(122)는 사람이 보지 못하는 적외선 대역의 빛을 투영한다.On the other hand, the far infrared camera 122 projects light in an infrared band that humans cannot see.

적외선은 빛의 파장 중 750nm에서 1mm의 대역의 빛을 말하는 것으로서, 이러한 적외선 대역 중에서도 NIR(Near Infra-Red)의 빛은 700nm에서 1400nm의 파장을 말하며, NIR 대역의 빛은 사람의 눈에는 보이지 않지만 CCD나 CMOS 소자로도 감지가 가능하며 필터를 이용하면 NIR 대역의 빛만을 감지할 수 있다. Infrared refers to light in the band of 750nm to 1mm among the wavelengths of light. Among these infrared bands, the light of NIR (Near Infra-Red) refers to the wavelength of 700nm to 1400nm, and the light in the NIR band is not visible to the human eye. It can be detected with a CCD or CMOS device, and if a filter is used, only light in the NIR band can be detected.

이에 비해, FIR의 빛은 LWIR(Long Wavelength Infra-Red)라고도 하며 적외선은 빛의 파장 중 8μm에서 15μm의 대역을 나타낸다. In contrast, FIR light is also known as LWIR (Long Wavelength Infra-Red), and infrared rays represent a band of 8 μm to 15 μm of the wavelength of light.

특히, FIR 대역은 온도에 따라 파장이 변하기 때문에 온도를 구별할 수 있는 장점이 있다. In particular, since the wavelength of the FIR band changes according to temperature, there is an advantage of distinguishing the temperature.

원적외선 카메라(122)의 대상인 사람(보행자)의 체온은 10μm의 파장을 가진다.The body temperature of a person (pedestrian) that is the target of the far-infrared camera 122 has a wavelength of 10 μm.

또한, 제어부(180)는 나이트 비젼 시스템(100)의 전반적인 동작을 제어한다.Also, the controller 180 controls the overall operation of the night vision system 100.

특히, 원적외선 카메라(122)를 통해 획득된 정보를 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하며, 상기 처리가 완료된 영상 신호가 디스플레이부(151)를 통해 출력되도록 제어할 수 있다.In particular, the information obtained through the far-infrared camera 122 is converted into a digital image signal, the converted image signal is analyzed, corrected, and supplemented through a specific algorithm, and the processed image signal is displayed on the display unit 151 It can be controlled to be output through ).

제어부(180)는 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The controller 180 may be implemented in a recording medium that can be read by a computer or a similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 제어부(180)는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. According to the hardware implementation, the controller 180 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and processors. processors), controllers, micro-controllers, microprocessors, and electrical units for performing other functions.

소프트웨어적인 구현에 의하면, 제어부(180)는 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 후술하는 메모리(160)에 저장될 수 있다.According to software implementation, the controller 180 may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. The software code can be implemented as a software application written in an appropriate programming language. The software code may be stored in a memory 160 to be described later.

또한, 디스플레이부(151)는 제어부(180)에 의해 처리된 정도를 외부로 출력하는 기능을 제공한다.In addition, the display unit 151 provides a function of outputting the degree processed by the controller 180 to the outside.

여기서, 디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. Here, the display unit 151 is a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. It may include at least one of a (flexible display) and a 3D display.

이하에서는 도 4를 이용하여 도 3에서 설명한 본 발명이 제안하는 나이트 비젼 시스템(100)의 구체적인 구성에 대해 설명한다.Hereinafter, a detailed configuration of the night vision system 100 proposed by the present invention described in FIG. 3 will be described with reference to FIG. 4.

도 4를 참조하면, 나이트 비젼 시스템(100)은 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 4, the night vision system 100 includes a wireless communication unit 110, an audio/video (A/V) input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, and It may include a memory 160, an interface unit 170, a control unit 180, a power supply unit 190, and the like.

단, 도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 나이트 비젼 시스템이 구현될 수도 있다.However, since the components shown in FIG. 4 are not essential, a night vision system having more components or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 나이트 비젼 시스템과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.The wireless communication unit 110 may include one or more modules that enable wireless communication between a night vision system and a wireless communication system or between a device and a network in which the device is located.

예를 들어, 무선 통신부(110)는 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.For example, the wireless communication unit 110 may include a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, a location information module 115, and the like.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 기기, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module 112 transmits and receives a radio signal with at least one of a base station, an external device, and a server on a mobile communication network.

문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. It may contain various types of data according to transmission/reception of text/multimedia messages.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 나이트 비젼 시스템에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access, and may be built-in or external to the night vision system. As a wireless Internet technology, WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), and the like may be used.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-WideBand), ZigBee, 와이파이(Wireless Fidelity, Wi-Fi) 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Short range communication technology, such as Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra-WideBand (UWB), ZigBee, and WiFi (Wireless Fidelity, Wi-Fi). Can be used.

위치정보 모듈(115)은 나이트 비젼 시스템의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The location information module 115 is a module for obtaining a location of a night vision system, and a representative example thereof is a GPS (Global Position System) module.

도 4를 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 4, an audio/video (A/V) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving pictures obtained by the image sensor in the photographing mode. The processed image frame may be displayed on the display unit 151.

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a recording mode, a voice recognition mode, and the like and processes it as electrical voice data. The processed voice data may be converted into a format transmittable to a mobile communication base station through the mobile communication module 112 and then output. Various noise removal algorithms may be implemented in the microphone 122 to remove noise generated in the process of receiving an external sound signal.

다음으로, 원적외선 카메라(122)는 사람이 보지 못하는 적외선 대역의 빛을 투영하여 촬영한다. Next, the far-infrared camera 122 projects and photographs light in an infrared band that a person cannot see.

FIR의 빛은 LWIR(Long Wavelength Infra Red)라고도 하며 적외선은 빛의 파장 중 8μm에서 15μm의 대역을 나타내고, FIR 대역은 온도에 따라 파장이 변하기 때문에 온도를 구별할 수 있다.FIR light is also known as LWIR (Long Wavelength Infra Red), and infrared rays represent a band of 8 μm to 15 μm among the wavelengths of light, and the FIR band changes the wavelength according to temperature, so the temperature can be distinguished.

원적외선 카메라(122)의 대상인 사람(보행자)의 체온은 10μm의 파장을 가지고, 원적외선 카메라(122)를 통해, 야간에서도 특정 객체에 대한 이미지, 동영상 등을 촬영하는 것이 가능하다.The body temperature of a person (pedestrian) that is the target of the far-infrared camera 122 has a wavelength of 10 μm, and through the far-infrared camera 122, it is possible to capture images and videos of a specific object even at night.

다음으로, 사용자 입력부(130)는 사용자가 나이트 비젼 시스템의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. Next, the user input unit 130 generates input data for the user to control the operation of the night vision system. The user input unit 130 may include a key pad, a dome switch, a touch pad (positive pressure/power failure), a jog wheel, a jog switch, and the like.

센싱부(140)는 나이트 비젼 시스템의 개폐 상태, 나이트 비젼 시스템의 위치, 사용자 접촉 유무, 나이트 비젼 시스템의 방위, 나이트 비젼 시스템의 가속/감속 등과 같이 나이트 비젼 시스템의 현 상태를 감지하여 나이트 비젼 시스템의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The sensing unit 140 detects the current state of the night vision system, such as the open/closed state of the night vision system, the position of the night vision system, the presence of user contact, the orientation of the night vision system, and acceleration/deceleration of the night vision system. It generates a sensing signal to control the operation of.

센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. The sensing unit 140 may sense whether the power supply unit 190 supplies power, whether the interface unit 170 is coupled to an external device, or the like.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155), 헤드업 디스플레이(head-up display, HUD), 헤드 마운티드 디스플레이(head mounted display, HMD) 등이 포함될 수 있다.The output unit 150 is for generating output related to visual, auditory, or tactile sense, and includes a display unit 151, an audio output module 152, an alarm unit 153, a haptic module 154, and a projector module ( 155), a head-up display (HUD), a head mounted display (HMD), and the like.

디스플레이부(151)는 나이트 비젼 시스템에서 처리되는 정보를 표시(출력)한다. The display unit 151 displays (outputs) information processed by the night vision system.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. display) and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 나이트 비젼 시스템 바디의 디스플레이부(151)가 차지하는 영역을 통해 나이트 비젼 시스템 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be configured as a transparent type or a light-transmitting type so that the outside can be seen through them. This may be referred to as a transparent display, and a representative example of the transparent display is TOLED (Transparant OLED). The rear structure of the display unit 151 may also be configured as a light transmission type structure. With this structure, the user can see an object located behind the night vision system body through an area occupied by the display unit 151 of the night vision system body.

나이트 비젼 시스템의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 나이트 비젼 시스템에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. Two or more display units 151 may exist depending on the implementation type of the night vision system. For example, in a night vision system, a plurality of display units may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 151 and a sensor (hereinafter referred to as'touch sensor') for detecting a touch motion form a mutual layer structure (hereinafter, referred to as a'touch screen'), the display unit 151 It can also be used as an input device. The touch sensor may have, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 151 or a capacitance generated at a specific portion of the display unit 151 into an electrical input signal. The touch sensor may be configured to detect not only a touched position and area, but also a pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.When there is a touch input to the touch sensor, a signal(s) corresponding thereto is transmitted to the touch controller. The touch controller processes the signal(s) and then transmits the corresponding data to the controller 180. As a result, the controller 180 can know whether an area of the display unit 151 is touched.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 나이트 비젼 시스템의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed in an inner area of the night vision system surrounded by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity using the force of an electromagnetic field or infrared rays without mechanical contact. Proximity sensors have a longer lifespan and higher utilization than contact sensors.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, an infrared proximity sensor, and the like. When the touch screen is capacitive, it is configured to detect the proximity of the pointer by a change in an electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, an action of allowing the pointer to be recognized as being positioned on the touch screen by approaching the touch screen without contacting the pointer is referred to as "proximity touch", and the touch The act of actually touching the pointer on the screen is referred to as "contact touch". A position at which a proximity touch is performed by a pointer on the touch screen means a position at which the pointer corresponds vertically to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (eg, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, etc.). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 나이트 비젼 시스템에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a recording mode, a voice recognition mode, or a broadcast reception mode. The sound output module 152 also outputs sound signals related to functions performed in the night vision system. The sound output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 나이트 비젼 시스템의 이벤트 발생을 알리기 위한 신호를 출력한다. The alarm unit 153 outputs a signal for notifying the occurrence of an event of the night vision system.

알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than a video signal or an audio signal, for example, by vibration.

상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The video signal or audio signal may also be output through the display unit 151 or the audio output module 152, so that they 151 and 152 may be classified as part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. The haptic module 154 generates various tactile effects that a user can feel. A typical example of the tactile effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the haptic module 154 can be controlled.

예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. For example, different vibrations may be synthesized and output or may be sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to vibration, the haptic module 154 is used for stimulation such as an arrangement of pins that move vertically with respect to the contact skin surface, a blowing force or suction force of air through a jet or inlet, a grazing on the skin surface, contact of an electrode, electrostatic force, etc. It can generate various tactile effects, such as the effect by the effect and the effect by reproducing the feeling of cooling and warming using an endothermic or heat generating element.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 나이트 비젼 시스템의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 may not only transmit a tactile effect through direct contact, but may also be implemented so that a user can feel the tactile effect through muscle sensations such as a finger or an arm. Two or more haptic modules 154 may be provided depending on the configuration aspect of the night vision system.

프로젝터 모듈(155)은, 나이트 비젼 시스템을 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.The projector module 155 is a component for performing an image project function using a night vision system, and is the same as or at least as an image displayed on the display unit 151 according to a control signal from the controller 180. Some may display different images on an external screen or wall.

구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the projector module 155 generates an image to be output to the outside by using a light source (not shown) that generates light (for example, laser light) for outputting an image to the outside, and light generated by the light source. It may include an image generating means (not shown) for performing and a lens (not shown) for expanding the image to the outside at a predetermined focal length. In addition, the projector module 155 may include a device (not shown) capable of adjusting an image projection direction by mechanically moving a lens or the entire module.

프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The projector module 155 may be divided into a cathode ray tube (CRT) module, a liquid crystal display (LCD) module, a digital light processing (DLP) module, and the like according to the device type of the display means. In particular, the DLP module may be advantageous for miniaturization of the projector module 151 by expanding and projecting an image generated by reflecting light generated from a light source onto a digital micromirror device (DMD) chip.

바람직하게, 프로젝터 모듈(155)은, 나이트 비젼 시스템의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 나이트 비젼 시스템의 어느 위치에라도 구비될 수 있음은 당연하다.Preferably, the projector module 155 may be provided on the side, front, or rear of the night vision system in the longitudinal direction. Of course, it is natural that the projector module 155 may be provided at any position of the night vision system as needed.

또한, 헤드업 디스플레이(head-up display, HUD, 156)는 차량 등에서 차량 현재 속도, 연료 잔량, 내비게이션 길안내 정보 등을 운전자 바로 앞 유리창 부분에 그래픽 이미지로 투영해주는 장치를 의미한다.In addition, the head-up display (HUD) 156 refers to a device that projects the current vehicle speed, fuel level, and navigation directions information as a graphic image on the windshield of the driver.

원적외선 카메라(122)를 통해 획득된 정보는 상기 헤드업 디스플레이(156)를 통해 출력되는 것도 가능하다.The information acquired through the far-infrared camera 122 may be output through the head-up display 156.

또한, 헤드 마운티드 디스플레이(head mounted display, HMD, 157)는 가상 현실(Virtual reality) 정보를 출력할 수 있는 대표적인 장치이다.In addition, a head mounted display (HMD) 157 is a representative device capable of outputting virtual reality information.

가상 현실(Virtual reality)이란 컴퓨터를 통해 어떤 특정한 환경이나 상황을 입체감있는 3D 컨텐츠로 제작하여, 그 3D 컨텐츠를 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스 등을 총칭한다.Virtual reality is a human-computer that creates a specific environment or situation through a computer into 3D content with a three-dimensional effect, and makes it as if the person using the 3D content is interacting with the actual surrounding situation and environment. It refers to the interface of

일반적으로 사람이 지각하는 입체감은 관찰하는 물체의 위치에 따른 수정체의 두께 변화 정도, 양쪽 눈과 대상물과의 각도 차이, 그리고 좌우 눈에 보이는 대상물의 위치 및 형태의 차이, 대상물의 운동에 따라 생기는 시차, 그 밖에 각종 심리 및 기억에 의한 효과 등이 복합적으로 작용하여 생긴다.In general, the three-dimensional effect perceived by humans is the degree of change in the thickness of the lens according to the position of the object being observed, the difference in the angle between both eyes and the object, the difference in the position and shape of the object visible to the left and right eyes, and the parallax caused by the motion of the object. , And other effects of various psychological and memory effects, etc.

그 중 사람이 입체감을 느끼는 가장 중요한 요인은, 사람의 두 눈이 가로 방향으로 약 6.5㎝가량 떨어져 있음으로써, 나타나게 되는 양안 시차(binocular disparity)이다. 즉, 양안 시차에 의해 대상물에 대한 각도 차이를 가지고 바라보게 되고, 이 차이로 인해 각각의 눈에 들어오는 이미지가 서로 다른 상을 갖게 되며 이 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이 두 개의 정보를 정확히 서로 융합하여 본래의 3D 입체 영상을 느낄 수 있는 것이다.Among them, the most important factor that a person feels a three-dimensional effect is binocular disparity that occurs when the human eyes are about 6.5 cm apart in the horizontal direction. In other words, by binocular parallax, the object is viewed with a difference in angle to the object, and due to this difference, images entering each eye have different images. When these two images are transmitted to the brain through the retina, the brain will You can feel the original 3D stereoscopic image by precisely fusion of each other.

이러한 입체감있는 3D 컨텐츠들은 이미 여러 미디어 분야에 두루 이용되어 소비자들로부터 호평을 받아오고 있다. 예를 들어 3D 영화, 3D 게임 및 체험 디스플레이와 같은 것들이 대표적이다.These three-dimensional 3D contents have already been widely used in various media fields and are receiving favorable reviews from consumers. For example, 3D movies, 3D games and experiential displays are typical.

이와 같이 가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다.In addition to the generalization of virtual reality technology 3D contents, development of a technology capable of providing a more immersive virtual reality service is required in various ways.

일반적으로 이미지 디스플레이 장치는 눈과 매우 근접한 위치에서 발생하는 영상광을 정밀한 광학 장치를 이용하여 먼 거리에 가상의 대형화면이 구성될 수 있도록 초점을 형성함으로써 사용자로 하여금 확대된 허상을 볼 수 있도록 하는 화상 표시 장치를 말한다.In general, an image display device uses a precise optical device to focus image light generated at a location very close to the eye so that a large virtual screen can be formed at a distance, allowing users to view an enlarged virtual image. Refers to an image display device.

또한, 이미지 디스플레이 장치는, 주위 환경은 볼 수 없고 디스플레이 소자에서 발산된 영상광만을 볼 수 있는 밀폐형(See-close)과, 윈도우를 통해 주위 환경을 볼 수 있으면서도 디스플레이 소자에서 발산된 영상광을 동시에 볼 수 있는 투과식(See-through)으로 나뉠 수 있다.In addition, the image display device is a see-close type in which the surrounding environment can not be seen and only the image light emitted from the display device can be viewed, and the image light emitted from the display device can be viewed through a window at the same time. It can be divided into see-through.

본 발명에 따른 헤드 마운티드 디스플레이(head mounted display, HMD, 157)란 안경처럼 머리에 착용하여 멀티미디어 컨텐츠를 제공받을 수 있도록 하는 각종디지털 디바이스를 말한다. 디지털 디바이스의 경량화 및 소량화 추세에 따라, 다양한 웨어러블 컴퓨터(Wearable Computer)가 개발되고 있으며, HMD 또한 널리 사용되고 있다. HMD(157)는 단순한 디스플레이 기능을 넘어 증강 현실 기술, N 스크린 기술 등과 조합되어 유저에게 다양한 편의를 제공할 수 있다.The head mounted display (HMD, 157) according to the present invention refers to various digital devices that can be worn on the head like glasses to receive multimedia contents. According to the trend of lightening and miniaturization of digital devices, various wearable computers are being developed, and HMDs are also widely used. The HMD 157 goes beyond a simple display function and is combined with an augmented reality technology and an N screen technology to provide various conveniences to users.

예를 들어, HMD(157)에 마이크와 스피커가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 전화 통화를 수행할 수 있다. 또한, 예를 들어, HMD(157)에 원적외선 카메라(122)가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 유저가 원하는 방향의 이미지를 캡쳐할 수 있다.For example, when a microphone and a speaker are mounted on the HMD 157, the user can make a phone call while wearing the HMD 157. In addition, for example, when the far-infrared camera 122 is mounted on the HMD 157, the user can capture an image in a direction desired by the user while wearing the HMD 157.

또한, 메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.In addition, the memory unit 160 may store a program for processing and control of the controller 180, and temporarily store input/output data (eg, messages, audio, still images, moving pictures, etc.). It can also perform a function for. The frequency of use of each of the data may also be stored in the memory unit 160. In addition, the memory unit 160 may store data on vibrations and sounds of various patterns output when a touch input on the touch screen is performed.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 나이트 비젼 시스템은 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), and RAM. (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic It may include at least one type of storage medium among a disk and an optical disk. The night vision system may operate in connection with a web storage that performs a storage function of the memory 160 over the Internet.

인터페이스부(170)는 나이트 비젼 시스템에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 나이트 비젼 시스템 내부의 각 구성 요소에 전달하거나, 나이트 비젼 시스템 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a passage for all external devices connected to the night vision system. The interface unit 170 receives data from an external device or receives power and transmits it to each component inside the night vision system, or transmits data inside the night vision system to an external device. For example, a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module, an audio input/output (I/O) port, A video input/output (I/O) port, an earphone port, etc. may be included in the interface unit 170.

식별 모듈은 나이트 비젼 시스템의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 나이트 비젼 시스템과 연결될 수 있다. The identification module is a chip that stores various information for authenticating the right to use the night vision system, and includes a user identification module (UIM), a subscriber identification module (SIM), and a universal user authentication module (Universal Subscriber). Identity Module, USIM), etc. may be included. A device equipped with an identification module (hereinafter,'identification device') may be manufactured in the form of a smart card. Therefore, the identification device can be connected to the night vision system through the port.

상기 인터페이스부는 나이트 비젼 시스템이 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 나이트 비젼 시스템에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit becomes a path through which power from the cradle is supplied to the night vision system when the night vision system is connected to an external cradle, or various command signals input from the cradle by a user are transmitted to the mobile device. It can be a passage. Various command signals or the power input from the cradle may be operated as signals for recognizing that the mobile device is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 나이트 비젼 시스템의 전반적인 동작을 제어한다. The controller 180 typically controls the overall operation of the night vision system.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 to supply power necessary for the operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium that can be read by a computer or a similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions, in some cases herein. The described embodiments may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to the software implementation, embodiments such as procedures and functions described in the present specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. The software code can be implemented as a software application written in an appropriate programming language. The software code may be stored in the memory 160 and executed by the controller 180.

한편, 전술한 본 발명의 구성을 기초로, 원적외선 카메라(122)가 열에너지를 통해 획득한 객체 관련 컨텐츠(문서, 이미지, 동영상 등)를 제어부(180)가 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하며, 디스플레이(151)가 처리된 컨텐츠를 표시하도록 제어하는 구체적인 동작에 대해 설명한다.Meanwhile, based on the above-described configuration of the present invention, the controller 180 converts the object-related content (document, image, video, etc.) acquired by the far-infrared camera 122 into a digital image signal, and the converted image A detailed operation of analyzing, modifying, and supplementing a signal through a specific algorithm and controlling the display 151 to display the processed content will be described.

제 1 방법Method 1

도 5는 본 발명에 따른 나이트 비젼 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 구체적인 과정을 설명하는 순서도이다.5 is a flowchart illustrating a specific process of displaying information according to a specific algorithm by an FIR camera sensing thermal energy of an object through the night vision system according to the present invention.

또한, 도 6a 내지 도 6e는 도 5에서 설명한 과정들 중 인풋 이미지를 통해 ROI를 생성하는 구체적인 과정을 설명하는 도면이다.6A to 6E are diagrams for explaining a specific process of generating an ROI through an input image among the processes described in FIG. 5.

도 5를 참조하면, 가장 먼저, 원적외선 카메라(122)를 통해 적어도 하나의 객체의 열에너지에 대한 이미지를 획득하는 단계(S100)가 진행된다.Referring to FIG. 5, first, a step S100 of obtaining an image of thermal energy of at least one object through the far-infrared camera 122 is performed.

도 6a를 참조하면, 본 발명의 원적외선 카메라(122)를 통해 복수의 객체의 열에너지 이미지가 획득된 구체적인 모습이 도시되어 있다.Referring to FIG. 6A, a specific state in which thermal energy images of a plurality of objects are obtained through the far-infrared camera 122 of the present invention is illustrated.

S100 단계가 진행되면, 제어부(180)는 인풋된 이미지 중 기 설정된 수치 이상의 밝기 값을 갖는 높은 스레숄드(Threshold)의 이미지를 추출하는 단계(S110)를 수행한다.When step S100 is performed, the controller 180 performs step S110 of extracting an image of a high threshold having a brightness value greater than or equal to a preset value among the input images.

여기서 스레숄드 값(임계값)은 영상의 평균, 표준편차, 히스토그램 등을 이용하여 통계적으로 추정하거나, 사용자가 임의의 값을 입력하는 것으로 설정 가능하다.Here, the threshold value (threshold value) can be statistically estimated using the mean, standard deviation, histogram, etc. of the image, or can be set by the user inputting an arbitrary value.

이는 보통 사람(보행자)의 밝기 값은 주변 배경보다 밝다는 사실을 근거로 1차적으로 보행자를 추출하기 위한 방법을 적용한 것이다.This is based on the fact that the brightness value of ordinary people (pedestrians) is brighter than the surrounding background.

도 6b를 참조하면, 일정 영역을 원적외선 카메라(122) 통해 열에너지 이미지로 촬영하였고, 촬영된 이미지 중 기 설정된 수치 이상의 밝기 값을 갖는 높은 스레숄드(Threshold)의 밝은 객체가 도시되어 있다.Referring to FIG. 6B, a certain area is photographed as a thermal energy image through the far-infrared camera 122, and a high-threshold bright object having a brightness value equal to or higher than a preset value is illustrated among the photographed images.

그러나 원적외서 카메라(122)로부터 인접한 보행자와 멀리 떨어진 보행자의 획득되는 이미지 특성이 다르고, 하나의 보행자가 아닌 복수의 보행자가 인접해 있거나 날씨가 매우 춥거나 매우 더운 경우에는 S110 단계에서의 하나의 스레숄드(Threshold)로는 모든 보행자를 놓치지 않고 촬영하는 것이 어려울 수 있다.However, if the acquired image characteristics of pedestrians adjacent to and far away from the far-infrared camera 122 are different, and a plurality of pedestrians other than one pedestrian are adjacent or the weather is very cold or very hot, one threshold in step S110 With Threshold, it can be difficult to shoot without missing all pedestrians.

따라서 S110 단계와 달리 밝기 값을 낮춰서 낮은 스레숄드(Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하는 단계(S120)를 병렬적으로 수행한다.Therefore, unlike step S110, step S120 of extracting all object images brightly rising on a low threshold by lowering the brightness value (S120) is performed in parallel.

여기서 스레숄드 값(임계값)은 영상의 평균, 표준편차, 히스토그램 등을 이용하여 통계적으로 추정하거나, 사용자가 임의의 값을 입력하는 것으로 설정 가능하다.Here, the threshold value (threshold value) can be statistically estimated using the mean, standard deviation, histogram, etc. of the image, or can be set by the user inputting an arbitrary value.

단, S120 단계에서는 타겟팅하는 보행자 등 이외에 불필요한 노이즈들이 빈번하게 포함되어 추출될 수 있다.However, in step S120, unnecessary noises other than targeting pedestrians may be frequently included and extracted.

따라서 이러한 문제점을 해소하기 위해, S100 단계에서 인풋된 이미지를 에지(edge)를 기준으로 추출하는 S130 단계를 함께 수행한다.Therefore, in order to solve this problem, step S130 of extracting the image input in step S100 based on an edge is performed together.

이는, 사람(보행자)의 경우, 신체 특성상 버티컬(VERTICAL) 에지 외곽성분 즉, 세로의 에지 외곽 성분이 강하게 나타나므로, 이를 이용하여 S120 단계에서 획득된 불필요한 노이즈를 제거하기 위한 것이다.In the case of a person (pedestrian), since a VERTICAL edge component, that is, a vertical edge component, appears strongly due to a body characteristic, this is to remove unnecessary noise obtained in step S120 by using this.

edge 영상은 sobel filter, canny edge detector, laplacian filter로부터 추정할 수 있다.The edge image can be estimated from a sobel filter, a canny edge detector, and a laplacian filter.

제어부(180)는 S120 단계에서 낮은 스레숄드(Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하고, S130 단계에서의 에지(edge)를 기준으로 추출된 이미지를 서로 곱하게 된다.The controller 180 extracts all object images brightly on a low threshold in step S120, and multiplies the extracted images based on the edge in step S130.

따라서 S120 단계에서 낮은 스레숄드(Threshold)를 넘겨 객체로 추출이 되더라도 버티컬 에지 성분이 없는 객체는 사라지게 된다.Therefore, even if the object is extracted by exceeding a low threshold in step S120, the object without the vertical edge component disappears.

예를 들어, 보행자가 도로 위에 서있는 경우, 보행자와 도로가 하나의 객체로 취급되어 S120 단계에서 이미지로 추출될 수 있다.For example, when a pedestrian stands on a road, the pedestrian and the road are treated as one object and may be extracted as an image in step S120.

그러나 S130 단계에 의해, 도로는 버티컬 에지 성분이 없으므로, 결국 도로 위에 위치한 보행자의 이미지 요소만 남게 된다.However, by step S130, since the road has no vertical edge component, only the image element of the pedestrian located on the road remains.

또한, S120 단계와 S130 단계를 곱하는 것은 버티컬 에지 성분을 가진 객체를 추출하는 것 이외에 완전하게 추출되지 못한 객체를 보완하는 마스킹 기능이 수행될 수도 있다.In addition, multiplying the steps S120 and S130 may perform a masking function to compensate for an object that has not been completely extracted in addition to extracting an object having a vertical edge component.

즉, S120 단계에서 보행자가 완전하게 하나의 연결된 밝은 열 이미지로 추출되는 것이 아니라 중간이 끊긴 형상으로 추출될 수 있다.That is, in step S120, the pedestrian is not completely extracted as a single connected bright thermal image, but a shape with a cut in the middle may be extracted.

이때, S130 단계에서의 에지 성분이 추출된 요소를 S120 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹이 수행될 수 있다.At this time, by applying the element from which the edge component is extracted in step S130 to step S120, masking in which the broken space is filled may be performed.

도 6c를 참조하면, 중간이 끊긴 형상의 객체가 존재하고, S130 단계에서의 에지 성분이 추출된 요소를 S120 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹을 수행할 수 있다.Referring to FIG. 6C, masking in which the broken space is filled may be performed by applying an element from which an edge component is extracted in step S130 and an element with a cut-off shape in step S120.

제어부는 S110 단계와 S120 단계 및 S130 단계를 순차적으로 수행할 수도 있고, 각각의 단계를 병렬적으로 동시에 수행하는 것도 가능하다.The controller may sequentially perform steps S110, S120, and S130, or may perform each step in parallel and simultaneously.

S110 단계와 S120 및 S130 단계에서는 전술한 마스킹 작업과 유사하게, 레이블링(Labeling) 작업을 추가적으로 수행할 수 있다.In steps S110 and S120 and S130, similar to the above-described masking operation, a labeling operation may be additionally performed.

레이블링(Labeling) 작업은 근접하게 이격되어 떨어져 있는 덩어리, 세그먼트들을 붙여주는 작업으로서, 같은 객체이나 열에너지의 명확한 획득 실패로 인해 분리되어 있는 객체를 묶어주는 작업으로 볼 수 있다.Labeling is a work that attaches closely spaced chunks and segments, and can be seen as a work of tying the same object or separated objects due to a clear failure to acquire heat energy.

S110 단계 내지 S130 단계 이후에 헤드 포인트 정보를 추출하는 단계(S140)가 수행된다.After the steps S110 to S130, the step of extracting the head point information (S140) is performed.

S140 단계에서는 S110 단계에서 추출된 이미지와 S120 및 S130 단계가 동시에 적용되어 추출된 이미지에서 객체의 머리(헤드) 포인트를 추출하게 된다.In step S140, the image extracted in step S110 and steps S120 and S130 are simultaneously applied to extract the head (head) point of the object from the extracted image.

즉, 추출한 이미지 중 밝은 부분이 끝나는 최상단 영역을 헤드 포인트 영역으로 결정할 수 있다.That is, the uppermost region of the extracted image where the bright part ends may be determined as the head point region.

여기서 Head 포인트 추출은 skeletonization(세선화), local maximum 추출, 학습을 통한 head 인식 등에 의해 수행될 수 있다.Here, head point extraction may be performed by skeletonization (thinning), local maximum extraction, and head recognition through learning.

또한, S140 단계와 동시에 또는 S140 단계와 순차적으로 객체의 풋(foot) 라인을 추출하는 단계(S150)가 수행될 수 있다.Also, the step S150 of extracting a foot line of the object may be performed simultaneously with the step S140 or sequentially with the step S140.

S150 단계는 S120 단계와 S130 단계가 함께 적용되어 추출된 이미지를 이용하는 것이 아니라 단순하게 에지 성분만을 가지고 에지 맵을 추출하는 S130 단계에서의 정보를 통해 수행된다.In step S150, steps S120 and S130 are applied together and the extracted image is not used, but is performed through information in step S130 in which an edge map is extracted with only edge components.

S150 단계에서는 획득된 이미지의 최 하단에서 세로 방향으로 올라오다가 추출된 각 이미지와 만나는 지점을 찾고, 만나는 지점을 해당 객체의 풋라인으로 결정하게 된다.In step S150, a point where each of the extracted images is brought up in the vertical direction from the bottom of the acquired image is found, and the point of encounter is determined as a footline of the object.

여기서, 풋 라인(발끝) 정보 추출은 입력된 영상 중 dilation을 수행하여 변환하고, 세로 방향으로의 미분값에 기반하여 추출할 수 있다(예를 들면 255-> 0로 변하는 위치).Here, the foot line (toe) information may be converted by performing dilation from the input image, and may be extracted based on a derivative value in the vertical direction (for example, a position that changes to 255->0).

S120, S130, S140 및 S150 단계 등을 수행하는 이유는 제어부(180)가 열화상 이미지를 획득함에 있어 계산 처리량을 줄이기 위함이다.The reason for performing steps S120, S130, S140, and S150 is to reduce the computational throughput when the controller 180 acquires a thermal image.

여기서 획득된 모든 이미지 상에 존재하는 객체를 확인하여 보행자를 최종적으로 검출해내는 것이 아니라 S120, S130, S140 및 S150 단계 등을 통해 노이즈로 명확히 판별될 수 있는 요소들은 작업의 전반부에서 미리 제거하고 과정을 진행하기 위한 것이다.The elements that can be clearly identified as noise through steps S120, S130, S140 and S150 are not finally detected by checking objects present on all images obtained here, and are removed from the first half of the work. It is to proceed.

결국, 열화상 나이트 비젼 시스템(100)의 보행자 인식률을 위해 보행자를 놓치지 않으면서 계절이나 날씨에 변화에 민감하지 않은 ROI 생성 방법을 제안하는 것이다.In the end, for the pedestrian recognition rate of the thermal image night vision system 100, a method of generating an ROI that is not sensitive to changes in season or weather without missing pedestrians is proposed.

상기 S120 단계 내지 S150 단계를 거치더라도 원하지 않는 노이즈는 포함될 수 있는데, 이는 S160 단계 내지 S180 단계를 통해 제거될 수 있다.Even through the steps S120 to S150, unwanted noise may be included, which may be removed through steps S160 to S180.

S140 단계 및 S150 단계를 통해, 헤드 포인트와 풋 라인을 검출하게 되면, 이를 통해 ROI(Region of Interest)를 생성할 수 있다(S160).When the head point and the foot line are detected through steps S140 and S150, a region of interest (ROI) may be generated through them (S160).

도 6d를 참조하면, 특정 객체의 헤드와 풋 라인을 검출한 구체적인 일례가 도시되어 있다.Referring to FIG. 6D, a specific example of detecting a head and a foot line of a specific object is shown.

S160 단계에서 생성되는 ROI 영역은 head 후보와 대응하는 발끝 후보의 길이에 기반하여 특정 비율(예를 들면 2:1)의 박스로 결정될 수 있다.The ROI region generated in step S160 may be determined as a box having a specific ratio (eg, 2:1) based on the length of the head candidate and the corresponding toe candidate.

도 6e를 참조하면, head 후보와 대응하는 풋 라인(발끝 후보)의 길이에 기반하여 특정 비율의 박스 형태인 ROI의 구체적인 모습이 도시되어 있다.Referring to FIG. 6E, a detailed view of an ROI in the form of a box having a specific ratio based on the length of a foot line (toe candidate) corresponding to a head candidate is shown.

결과적으로 S110 단계 내지 S160 단계는 입력 열화상 영상을 획득하는 단계, 입력영상에 기반하여 적어도 하나 이상의 임계값을 추정하는 단계, 추정된 임계값에 의해 영상을 분할하는 제 1 분할 영상을 생성하는 단계, 입력영상에 대해 edge영상을 계산하는 단계, 계산된 edge영상에 기반하여 임계값을 추정하는 단계, edge 영상으로부터 추정된 임계값에 의해 상기 edge 영상을 분할 하는 제 2 분할 영상을 생성하는 단계, 제 1분할 영상과 상기 제 2 분할 영상에 대해 곱연산을 수행하여 제 3 분할 영상을 생성하는 단계, 제 3 분할 영상을 Labeling하는 단계, Label 각각에 대해 head 후보를 추출하는 단계, 제 1, 2, 3 분할 영상으로부터 풋 라인(발끝 후보)을 추출하는 단계, head 후보점과 상기 풋 라인(발끝 후보)을 조합하여 ROI영역을 생성하는 단계로 구성될 수 있다.As a result, steps S110 to S160 include obtaining an input thermal image, estimating at least one threshold value based on the input image, and generating a first split image for dividing the image by the estimated threshold value. , Computing an edge image for the input image, estimating a threshold value based on the calculated edge image, generating a second segmented image for dividing the edge image by a threshold value estimated from the edge image, Generating a third segmented image by performing a multiplication operation on the first segmented image and the second segmented image, labeling the third segmented image, extracting head candidates for each label, first and second , Extracting a foot line (toe candidate) from the segmented image, and generating an ROI region by combining the head candidate point and the foot line (toe candidate).

한편, S160 단계에서 ROI를 생성함에 있어, 베니싱 라인(Vanishing line)을 추가적으로 이용할 수 있다.Meanwhile, in generating the ROI in step S160, a vanishing line may be additionally used.

베니싱 라인(Vanishing line)은 후술하는 S180 단계에서 오인지를 줄이는 역할을 할 수도 있고, S160 단계에서 ROI 자체를 생성하기 위한 기준으로 이용될 수도 있다.The vanishing line may serve to reduce misrecognition in step S180 to be described later, or may be used as a criterion for generating the ROI itself in step S160.

베니싱 라인(Vanishing line)은 보이지 않는 가상의 공간 상의 라인으로서, 보행자의 세로축 중심은 거리와 관계없이 Vanishing line을 지나간다는 가정을 기초로 이용된다.The vanishing line is a line on an invisible virtual space, and is used as a basis on the assumption that the center of the vertical axis of a pedestrian crosses the Vanishing line regardless of the distance.

즉, 보행자의 크기가 다르고, 보행자와 카메라 간의 거리가 다르다는 점에서 유도되는 문제점을 해소하기 위해, 보행자의 세로축 중심은 크기 및 거리와 관계없이 Vanishing line을 지나간다는 가정을 이용하는 것이다.That is, in order to solve the problem induced in that the size of the pedestrian is different and the distance between the pedestrian and the camera is different, the assumption that the center of the vertical axis of the pedestrian crosses the vanishing line regardless of the size and distance is used.

S100 단계를 통해 획득된 적어도 1 frame 이상의 입력 영상으로부터 보행자 인식을 수행하는 경우, S160 단계에서는 상기 인식된 보행자 영역의 세로축 중심 좌표로부터 기준 vanishing line을 추정할 수 있다.When the pedestrian recognition is performed from the input image of at least 1 frame or more acquired through the step S100, in step S160, the reference vanishing line may be estimated from the coordinates of the vertical axis of the recognized pedestrian area.

또한, 제어부(180)는 ROI를 생성하기 이전에, 상기 기준 vanishing line을 기반으로 vanishing region을 설정하고, vanishing region에 기반하여 현재 frame의 보행자 인식을 수행할 수 있다.Also, before generating the ROI, the controller 180 may set a vanishing region based on the reference vanishing line and perform pedestrian recognition of the current frame based on the vanishing region.

이때, 미리 제어부(180)는 메모리(160)에 저장된 보행자들의 세로축 중심 좌표에 대해 vanishing region 통계치를 로딩하고, 상기 인식된 보행자들의 세로축 중심 좌표에 대해 vanishing region과의 통계치의 차를 계산하게 된다.At this time, the control unit 180 loads vanishing region statistics for the vertical axis center coordinates of the pedestrians stored in the memory 160 in advance, and calculates a difference between the statistical values with the vanishing region for the recognized vertical axis center coordinates of the pedestrians.

제어부(180)는 상기 통계치의 차에 기반하여 미리 정해진 임계값보다 차 값이 클 경우, 보행자에 대한 객체가 아니라고 판단하여 ROI 자체를 생성하지 않을 수 있다.If the difference value is greater than a predetermined threshold value based on the difference in the statistical value, the controller 180 may determine that it is not an object for a pedestrian and may not generate the ROI itself.

예를 들어, 이전의 보행자들로부터 감지(디텍트)된 객체들의 포인트를 누적하여 가우시안 분포의 통계치를 계속적으로 누적할 수 있고, 누적된 정보는 확률모델로서 메모리(160)에 저장될 수 있다.For example, points of objects detected (detected) from previous pedestrians may be accumulated to continuously accumulate statistics of a Gaussian distribution, and the accumulated information may be stored in the memory 160 as a probability model.

ROI는 사람(보행자)을 둘러싸는 박스로 취급할 수 있는데, 박스의 센터가 상기 확률모델과의 관계에서 미리 설정된 차이인 0.5 이하인 경우에만 ROI로 생성하게 되는 것이다.The ROI can be treated as a box surrounding a person (pedestrian), and it is generated as an ROI only when the center of the box is less than 0.5, which is a preset difference in relation to the probability model.

S160 단계에서 베니싱 라인(Vanishing line)을 통해 생성하는 ROI의 개수가 적어지게 되면, 결국 제어부(180)가 분산처리하는 과정을 효율적으로 줄일 수 있게 된다.If the number of ROIs generated through the vanishing line decreases in step S160, it is possible to efficiently reduce the process of distributed processing by the controller 180.

S160 단계에서 ROI 생성에 있어, 이전 프레임에서 추출된 헤드 포인트 정보를 이용하는 방법도 적용될 수 있다.In generating the ROI in step S160, a method of using head point information extracted from a previous frame may also be applied.

즉, 이전 프레임에서 헤드 포인트로 추출된 경우, 다음 프레임에서의 헤드 포인트 위치는 제어부(180)에 의해 예상될 수 있다.That is, when the head point is extracted from the previous frame, the position of the head point in the next frame may be predicted by the controller 180.

따라서 다음 프레임에서는 예상된 헤드 포인트 지점과 대응되는 특정 영역을 헤드 포인트로 인정하고, 나머지는 이용하지 않고, 기존의 정보를 이용함으로써, ROI 생성에 이용되는 계산과정을 축소시키는 것도 가능하다.Therefore, in the next frame, it is possible to reduce the calculation process used for ROI generation by acknowledging a specific area corresponding to the expected head point point as a head point, not using the rest, and using existing information.

S160 단계가 진행되면, N개의 ROI가 생성될 수 있다.If step S160 proceeds, N ROIs may be generated.

제어부(180)는 생성된 N개의 ROI를 병렬처리를 위해 모으고, 기계학습(Machine Learning)에 따라 보행자 분류를 수행한다.The controller 180 collects the generated N ROIs for parallel processing, and classifies pedestrians according to machine learning.

즉, 제어부(180)는 보행자에 대응되는 복수의 분류자(classifier)를 메모리(160)에 미리 저장하고, 상기 N개의 ROI에 포함된 보행자 후보 객체 중 저장된 복수의 분류자(classifier)에 대응되는 객체 이미지만을 추출하게 된다.That is, the controller 180 stores a plurality of classifiers corresponding to pedestrians in the memory 160 in advance, and corresponds to a plurality of classifiers stored among pedestrian candidate objects included in the N ROIs. Only object images are extracted.

도 7은 도 5에서 설명한 과정들 중 기계학습(Machine Learning)에 따른 보행자 분류의 구체적인 과정을 설명하는 도면이다.7 is a diagram illustrating a specific process of classifying a pedestrian according to machine learning among the processes described in FIG. 5.

도 7을 참조하면, 메모리(160)에 저장된 트레이닝 데이터 셋이 제어부(180)에 의해 로딩되고, 제어부(180)는 N개의 ROI에 포함된 보행자 후보 영상과 로딩된 복수의 분류자(classifier)를 서로 비교하여, 대응되는 객체들만을 추출하게 된다.Referring to FIG. 7, the training data set stored in the memory 160 is loaded by the control unit 180, and the control unit 180 includes a pedestrian candidate image included in the N ROIs and a plurality of loaded classifiers. Compared to each other, only corresponding objects are extracted.

S170 단계에서 서로 다른 기준의 복수의 분류자(classifier)를 이용하여 오인지를 제거할 수도 있다.Misrecognition may be removed by using a plurality of classifiers of different criteria in step S170.

도 8a 및 도 8b는 도 5에서 설명한 과정들 중 Multi-Classifier를 이용한 오인지 제거 알고리즘 과정을 구체적으로 설명하기 위한 도면이다.8A and 8B are diagrams for specifically explaining a process of a false recognition removal algorithm using a multi-classifier among the processes described in FIG. 5.

도 8a 및 도 8b를 참조하면, 서로 다른 분류자(classifier)를 적용하면 오인지의 양상이 서로 다르다는 것을 확인할 수 있다.Referring to FIGS. 8A and 8B, it can be seen that when different classifiers are applied, misrecognition patterns are different from each other.

도 8a 및 도 8b에서 빨간 박스는 LBP-Cascade 방법으로 추정한 보행자이고, 파란 박스는 Haar-Cascade 방법으로 추정한 보행자이며, 녹색 박스는 LBP-Haar가 동시에 추정한 보행자를 나타낸다.In FIGS. 8A and 8B, red boxes are pedestrians estimated by the LBP-Cascade method, blue boxes are pedestrians estimated by Haar-Cascade methods, and green boxes indicate pedestrians estimated by LBP-Haar at the same time.

따라서 서로 다른 복수의 분류자(classifier)를 적용하여 누락되는 부분을 상호 보완하는 것이 가능하다.Therefore, it is possible to complement the missing parts by applying a plurality of different classifiers.

S170 단계 이후, 제어부(180)는 헤드 포인트 기반 트래킹(Tracking) 단계를 수행한다(S180).After step S170, the controller 180 performs a head point-based tracking step (S180).

S180 단계에서 제어부(180)는 Particle Filter, Mean Shift, Kalman Filter 등을 이용할 수 있다.In step S180, the controller 180 may use a particle filter, a mean shift, or a Kalman filter.

도 9a 및 도 9b는 도 5에서 설명한 과정들 중 Head Point 기반 Tracking 과정을 구체적으로 설명하기 위한 도면이다.9A and 9B are diagrams for specifically explaining a Head Point-based tracking process among the processes described in FIG. 5.

도 9a는 헤드 포인트 기반 트래킹(Tracking) 단계(S180)을 구체화한 순서도로서, 제어부(180)는 먼저, Motion Vector를 추출한다(S181).9A is a flowchart illustrating a head point-based tracking step (S180), and the controller 180 first extracts a motion vector (S181).

이후, 제어부(180)는 Tracking 후보에 대해서 Histogram을 비교하는 단계(S182)를 수행한다.Thereafter, the controller 180 performs a step (S182) of comparing the histogram with the tracking candidate.

S182 단계 이후에 제어부(180)는 Best Matching을 결정(S183)하고, 최종적으로 Tracking 여부를 판단하게 된다(S184).After step S182, the controller 180 determines Best Matching (S183), and finally determines whether to track (S184).

도 9b는 제어부(180)가 헤드 포인트를 기초로 트래킹(Tracking)하는 구체적인 모습을 도시한 것이다.9B is a diagram illustrating a specific state of the controller 180 tracking based on a head point.

이러한 헤드 포인트 기초 트래킹을 통해, 제어부(180)가 수행하는 계산량을 획기적으로 줄일 수 있다.Through such head point based tracking, the amount of calculation performed by the controller 180 can be drastically reduced.

S180 단계에서의 트래킹은 2개의 목적을 달성하기 위함일 수 있다.The tracking in step S180 may be to achieve two purposes.

먼저, 트래킹은 디스플레이부(151)를 통해 표시되는 영상이 끊김이 없이 표시되기 위해 이용된다.First, tracking is used to display an image displayed through the display unit 151 without interruption.

즉, 제어부(180)를 통한 보행자의 인식이 연속적으로 이루어지지 못하는 경우, 보행자는 특정 프레임에서는 등장하고, 다름 프레임에서는 등장하지 못하여 깜빡거리는 현상이 나타날 수 있다.That is, when the recognition of the pedestrian through the control unit 180 is not continuously made, the pedestrian appears in a specific frame and may not appear in the other frame, and thus a flickering phenomenon may occur.

따라서 S180 단계에서의 트래킹을 통해 특정 프레임에서 보행자가 인식되지 않더라도 이전 프레임에서의 보행자의 내용을 추적하여 디스플레이부(151) 상에 표시함으로써, 스무스(smooth)한 영상을 구현해 낼 수 있다.Therefore, even if a pedestrian is not recognized in a specific frame through the tracking in step S180, the content of the pedestrian in the previous frame is tracked and displayed on the display unit 151, thereby implementing a smooth image.

이때, 원하는 객체가 아닌 오인지의 경우에는 특정 프레임에서만 유일하게 존재하고 다름 프레임들에서는 계속적으로 등장하지 않게 된다.In this case, in the case of false recognition that is not a desired object, it exists only in a specific frame and does not appear continuously in other frames.

따라서 이러한 대상은 트래킹을 통해 오인지로 취급하고, 디스플레이부(151) 상에 표시하지 않는다.Therefore, such an object is treated as false recognition through tracking, and is not displayed on the display unit 151.

원하는 객체인 보행자는 몇 개의 프레임에서는 감지가 되지 않을 수 있으나 대부분의 프레임에서는 감지가 되므로, 제어부(180)는 이 경우에는 트래킹을 통해 디스플레이부(151) 상에 연속적으로 객체가 표시되도록 제어할 수 있다.The desired object, the pedestrian, may not be detected in a few frames, but is detected in most frames. In this case, the controller 180 can control the object to be continuously displayed on the display unit 151 through tracking in this case. have.

다음으로, S180 단계의 목적은 오인지 제거를 위한 것이다.Next, the purpose of step S180 is to remove false recognition.

S160 단계와 마찬가지로 S180 단계에서도 오인지 제거를 위해 베니싱 라인(Vanishing line)을 이용할 수 있다.Similar to step S160, a vanishing line may be used in step S180 to remove false positives.

전술한 것과 같이, 베니싱 라인(Vanishing line)은 보이지 않는 가상의 공간 상의 라인으로서, 보행자의 세로축 중심은 거리와 관계없이 Vanishing line을 지나간다는 가정을 기초로 이용된다. 즉, 보행자의 크기가 다르고, 보행자와 카메라 간의 거리가 다르다는 점에서 유도되는 문제점을 해소하기 위해, 보행자의 세로축 중심은 크기 및 거리와 관계없이 Vanishing line을 지나간다는 가정을 이용한다.As described above, the vanishing line is a line on an invisible virtual space, and is used on the basis of the assumption that the center of the vertical axis of the pedestrian crosses the vanishing line regardless of the distance. That is, in order to solve the problem induced in that the size of the pedestrian is different and the distance between the pedestrian and the camera is different, the assumption that the center of the vertical axis of the pedestrian crosses the vanishing line regardless of the size and distance is used.

획득된 적어도 1 frame 이상의 입력 영상으로부터 보행자 인식을 수행하는 경우, S180 단계에서는 상기 인식된 보행자 영역의 세로축 중심 좌표로부터 기준 vanishing line을 추정할 수 있다.When the pedestrian recognition is performed from the acquired input image of at least 1 frame, in step S180, a reference vanishing line may be estimated from the coordinates of the vertical axis of the recognized pedestrian area.

또한, 제어부(180)는 기준 vanishing line을 기반으로 vanishing region을 설정하고, vanishing region에 기반하여 현재 frame의 보행자 인식을 수행할 수 있다.Also, the controller 180 may set a vanishing region based on a reference vanishing line, and perform pedestrian recognition of a current frame based on the vanishing region.

이때, 미리 제어부(180)는 메모리(160)에 저장된 보행자들의 세로축 중심 좌표에 대해 vanishing region 통계치를 로딩하고, 상기 인식된 보행자들의 세로축 중심 좌표에 대해 vanishing region과의 통계치의 차를 계산하게 된다.At this time, the control unit 180 loads vanishing region statistics for the vertical axis center coordinates of the pedestrians stored in the memory 160 in advance, and calculates a difference between the statistical values with the vanishing region for the recognized vertical axis center coordinates of the pedestrians.

제어부(180)는 상기 통계치의 차에 기반하여 미리 정해진 임계값보다 차 값이 클 경우, 보행자에 대한 객체가 아니라고 판단하여 오인지로 취급하고 당해 객체 정보는 버리게 된다.If the difference value is greater than a predetermined threshold value based on the difference in statistics, the controller 180 determines that it is not an object for a pedestrian, treats it as a false recognition, and discards the object information.

S180 단계의 오인지 제거 목적을 위해 추가적으로 S150 단계에서 획득한 풋 라인 정보를 이용할 수도 있다.For the purpose of removing false recognition in step S180, the foot line information acquired in step S150 may be additionally used.

즉, ROI로 인식된 박스를 기준으로 풋 라인을 잡고, 보행자가 아닌 경우에는 박스를 기준으로 풋라인의 형태 변화가 크므로, 이를 통해 당해 ROI를 오인지로 취급하고 제거할 수도 있다.That is, a foot line is held based on a box recognized as an ROI, and if the foot line is not a pedestrian, the shape change of the foot line is large based on the box, and thus the ROI may be treated as a false recognition and removed.

이후, 제어부(180)는 최종적으로 추출된 열화상 정보가 디스플레이부(151)를 통해 출력되도록 제어할 수 있다(S190).Thereafter, the controller 180 may control the finally extracted thermal image information to be output through the display unit 151 (S190).

제 2 방법2nd way

한편, 도 5의 방법 이외에도 다른 순서에 따라 보행자에 대한 열화상 정보를 추출하는 방법이 적용될 수도 있다.Meanwhile, in addition to the method of FIG. 5, a method of extracting thermal image information on a pedestrian may be applied in a different order.

도 10은 본 발명에 따른 나이트 비젼 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 일례를 설명하는 순서도이다.FIG. 10 is a flowchart illustrating another example in which an FIR camera detects thermal energy of an object and displays information according to a specific algorithm through the night vision system according to the present invention.

도 10에서 S200 단계 및 S240 단계 내지 S280 단계는 도 5의 S100 단계 및 S150 단계 내지 S190 단계 각각과 대응되므로, 명세서의 간명화를 위해 반복적인 설명은 생략한다.In FIG. 10, steps S200 and S240 to S280 correspond to steps S100 and S150 to S190 of FIG. 5, respectively, and thus, repetitive descriptions will be omitted for simplicity of the specification.

도 10에서의 방법은 S210 단계 내지 S230 단계에서 도 5의 방법과 차이점이 있다.The method of FIG. 10 is different from the method of FIG. 5 in steps S210 to S230.

즉, 도 10을 참조하면, 도 5에서의 방법과 달리 S200 단계가 진행되면, 제어부(180)는 높은 스레숄드(Threshold)와 낮은 스레숄드를 구분하지 않고, 하나의 스레숄드 값만을 이용하여 이미지를 추출한다(S210).That is, referring to FIG. 10, unlike the method in FIG. 5, when step S200 proceeds, the controller 180 does not distinguish between a high threshold and a low threshold, and extracts an image using only one threshold value. (S210).

여기서 스레숄드 값(임계값)은 영상의 평균, 표준편차, 히스토그램 등을 이용하여 통계적으로 추정하거나, 사용자가 임의의 값을 입력하는 것으로 설정 가능하다.Here, the threshold value (threshold value) can be statistically estimated using the mean, standard deviation, histogram, etc. of the image, or can be set by the user inputting an arbitrary value.

이는 보통 사람(보행자)의 밝기 값은 주변 배경보다 밝다는 사실을 근거로 1차적으로 보행자를 추출하기 위한 방법을 적용한 것이다.This is based on the fact that the brightness value of ordinary people (pedestrians) is brighter than the surrounding background.

이때, S210 단계에서는 타겟팅하는 보행자 등 이외에 불필요한 노이즈들이 빈번하게 포함되어 추출될 수 있다.In this case, in step S210, unnecessary noises other than targeting pedestrians may be frequently included and extracted.

따라서 이러한 문제점을 해소하기 위해, S200 단계에서 인풋된 이미지를 에지(edge)를 기준으로 추출하는 S220 단계를 함께 수행한다.Therefore, in order to solve this problem, step S220 of extracting the image input in step S200 based on an edge is performed together.

이는, 사람(보행자)의 경우, 신체 특성상 버티컬(VERTICAL) 에지 외곽성분 즉, 세로의 에지 외곽 성분이 강하게 나타나므로, 이를 이용하여 S210 단계에서 획득된 불필요한 노이즈를 제거하기 위한 것이다.In the case of a person (pedestrian), since a VERTICAL edge component, that is, a vertical edge component, appears strongly due to body characteristics, this is used to remove unnecessary noise obtained in step S210.

edge 영상은 sobel filter, canny edge detector, laplacian filter로부터 추정할 수 있다.The edge image can be estimated from a sobel filter, a canny edge detector, and a laplacian filter.

제어부(180)는 S210 단계에서 스레숄드(Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하고, S220 단계에서의 에지(edge)를 기준으로 추출된 이미지를 서로 곱하게 된다.The controller 180 extracts all the object images brightly on the threshold in step S210 and multiplies the extracted images based on the edge in step S220.

따라서 S210 단계에서 스레숄드(Threshold)를 넘겨 객체로 추출이 되더라도 버티컬 에지 성분이 없는 객체는 사라지게 된다.Therefore, even if the object is extracted by passing the threshold in step S210, the object without the vertical edge component disappears.

또한, S210 단계와 S220 단계를 곱하는 것은 버티컬 에지 성분을 가진 객체를 추출하는 것 이외에 완전하게 추출되지 못한 객체를 보완하는 마스킹 기능이 수행될 수도 있다.In addition, multiplying the steps S210 and S220 may perform a masking function to compensate for an object that has not been completely extracted in addition to extracting an object having a vertical edge component.

즉, S210 단계에서 보행자가 완전하게 하나의 연결된 밝은 열 이미지로 추출되는 것이 아니라 중간이 끊긴 형상으로 추출될 수 있다.That is, in step S210, the pedestrian may not be extracted as a completely connected bright thermal image, but may be extracted as a shape with a cut in the middle.

이때, S220 단계에서의 에지 성분이 추출된 요소를 S210 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹이 수행될 수 있다.In this case, by applying the element from which the edge component is extracted in step S220 to step S210, masking in which the broken space is filled may be performed.

제어부는 S210 단계와 S220 단계를 순차적으로 수행할 수도 있고, 각각의 단계를 병렬적으로 동시에 수행하는 것도 가능하다.The controller may sequentially perform steps S210 and S220, or may perform each step in parallel and simultaneously.

S210 단계와 S220 단계에서는 전술한 마스킹 작업과 유사하게, 레이블링(Labeling) 작업을 추가적으로 수행할 수 있다.In steps S210 and S220, similar to the above-described masking operation, a labeling operation may be additionally performed.

레이블링(Labeling) 작업은 근접하게 이격되어 떨어져 있는 덩어리, 세그먼트들을 붙여주는 작업으로서, 같은 객체이나 열에너지의 명확한 획득 실패로 인해 분리되어 있는 객체를 묶어주는 작업으로 볼 수 있다.Labeling is a work that attaches closely spaced chunks and segments, and can be seen as a work of tying the same object or separated objects due to a clear failure to acquire heat energy.

S210 단계 및 S220 단계 이후, 곱한 정보를 통해 헤드 포인트 정보를 추출하는 단계(S230)가 수행된다.After steps S210 and S220, a step of extracting head point information through the multiplied information (S230) is performed.

S230 단계에서는 S210 단계에서 추출된 이미지와 S220 단계가 동시에 적용되어 추출된 이미지에서 객체의 머리(헤드) 포인트를 추출하게 된다.In step S230, the image extracted in step S210 and step S220 are simultaneously applied to extract the head (head) point of the object from the extracted image.

즉, 추출한 이미지 중 밝은 부분이 끝나는 최상단 영역을 헤드 포인트 영역으로 결정할 수 있다.That is, the uppermost region of the extracted image where the bright part ends may be determined as the head point region.

여기서 Head 포인트 추출은 skeletonization(세선화), local maximum 추출, 학습을 통한 head 인식 등에 의해 수행될 수 있다.Here, head point extraction may be performed by skeletonization (thinning), local maximum extraction, and head recognition through learning.

이후, S240 단계 내지 S280 단계는 도 5에서의 S150 단계 내지 S190 단계 각각에 대응되어 진행된다.Thereafter, steps S240 to S280 are performed corresponding to each of steps S150 to S190 in FIG. 5.

도 11은 전술한 알고리즘에 따라 나이트 비젼 시스템을 적용한 결과를 도시한 것이다.11 shows the result of applying the night vision system according to the above-described algorithm.

도 11의 (a)는 일반적인 카메라(121)를 통해 획득된 영상으로서, 안개로 인해 보행자가 보이지 않는 구체적인 모습을 도시하고 있다.FIG. 11A is an image acquired through a general camera 121 and shows a specific state in which pedestrians are not visible due to fog.

이에 반해, 본 발명이 제안하는 알고리즘에 따른 원적외선 카메라(123)의 영상은 4명의 보행자를 인식하고, 인식된 결과를 운전자에게 안내할 수 있게 된다.On the contrary, the image of the far-infrared camera 123 according to the algorithm proposed by the present invention recognizes four pedestrians, and the recognized result can be guided to the driver.

한편, 도 12는 본 발명에 따른 나이트 비젼 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 과정을 설명하는 순서도이다.Meanwhile, FIG. 12 is a flowchart illustrating another process in which the FIR camera detects thermal energy of an object and displays information according to a specific algorithm through the night vision system according to the present invention.

도 12에서의 S300 내지 S390 단계는 도 5의 S100 내지 S190 각각의 단계에 대응되나 S310, S320 및 S340 단계에서 차이가 있다.Steps S300 to S390 in FIG. 12 correspond to each of the steps S100 to S190 in FIG. 5, but there are differences in steps S310, S320, and S340.

도 12를 참조하면, S310 단계는 S330 단계보다는 빈번하지 않지만 타겟팅하는 보행자 등 이외에 불필요한 포함되어 추출될 수 있다.Referring to FIG. 12, step S310 is less frequent than step S330, but it may be extracted and included unnecessary in addition to targeting pedestrians.

따라서 도 12의 순서도에서는 S310 단계에 대해서도 이러한 문제점을 해소하기 위해, S300 단계에서 인풋된 이미지를 에지(edge)를 기준으로 추출하는 S320 단계를 함께 수행할 수 있다.Therefore, in the flowchart of FIG. 12, in order to solve this problem in step S310 as well, step S320 of extracting the image input in step S300 based on an edge may be performed.

이는, 사람(보행자)의 경우, 신체 특성상 버티컬(VERTICAL) 에지 외곽성분 즉, 세로의 에지 외곽 성분이 강하게 나타나므로, 이를 이용하여 S310 단계에서 획득된 불필요한 노이즈를 제거하기 위한 것이다.In the case of a person (pedestrian), since a VERTICAL edge component, that is, a vertical edge component, appears strongly due to body characteristics, this is used to remove unnecessary noise obtained in step S310.

여기서 edge 영상은 sobel filter, canny edge detector, laplacian filter로부터 추정할 수 있다.Here, the edge image can be estimated from a sobel filter, a canny edge detector, and a laplacian filter.

제어부(180)는 S310 단계에서 높은 스레숄드(Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하고, S320 단계에서의 에지(edge)를 기준으로 추출된 이미지를 서로 곱하게 된다.The controller 180 extracts all object images brightly on a high threshold in step S310, and multiplies the extracted images based on the edge in step S320.

따라서 S310 단계에서 높은 스레숄드(Threshold)를 넘겨 객체로 추출이 되더라도 버티컬 에지 성분이 없는 객체는 사라지게 된다.Therefore, even if the object is extracted by exceeding a high threshold in step S310, the object without the vertical edge component disappears.

또한, S310 단계와 S320 단계를 곱하는 것은 버티컬 에지 성분을 가진 객체를 추출하는 것 이외에 완전하게 추출되지 못한 객체를 보완하는 마스킹 기능이 수행될 수도 있다.In addition, multiplying the steps S310 and S320 may perform a masking function to supplement an object that is not completely extracted, in addition to extracting an object having a vertical edge component.

즉, S310 단계에서 보행자가 완전하게 하나의 연결된 밝은 열 이미지로 추출되는 것이 아니라 중간이 끊긴 형상으로 추출될 수 있다.That is, in step S310, the pedestrian is not completely extracted as a single connected bright thermal image, but may be extracted as a shape with a cut in the middle.

이때, S320 단계에서의 에지 성분이 추출된 요소를 S310 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹이 수행될 수 있다.In this case, by applying the element from which the edge component is extracted in step S320 to step S310, masking in which the broken space is filled may be performed.

전술한 본 발명의 구성 및 방법이 적용되는 경우, 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비젼 방법 및 시스템이 사용자에게 제공될 수 있다.When the above-described configuration and method of the present invention is applied, when driving at night, more forward to the driver by detecting vehicles, pedestrians, and animals in front that cannot be seen by the driver's eyes outside the driver's field of view secured by the headlight A night vision method and system for providing image information may be provided to a user.

즉, 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비젼 방법 및 시스템을 사용자에게 제공할 수 있다.That is, in the present invention, when the FIR (Far Infra-Red) camera installed in the vehicle detects the thermal energy of an object, it converts it into a digital image signal, and analyzes, corrects and supplements the converted image signal through a specific algorithm to display A night vision method and system that supports the driver to know the situation ahead by displaying on or outputting an alarm can be provided to the user.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. The embodiments of the present invention described above can be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), and Programmable Logic Devices (PLDs). , Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code may be stored in a memory unit and driven by a processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor through various known means.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Detailed description of the preferred embodiments of the present invention disclosed as described above has been provided to enable those skilled in the art to implement and implement the present invention. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will appreciate that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art may use the configurations described in the above-described embodiments in a manner that combines with each other. Thus, the invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential features of the present invention. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention. The invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, the embodiments may be configured by combining claims that do not have an explicit citation relationship in the claims, or may be included as new claims by amendment after filing.

Claims (10)

FIR(Far Infra-Red) 카메라를 통해 적어도 하나의 객체에 대한 열에너지 정보를 획득하는 제 1 단계;
상기 열에너지 정보 중 미리 설정된 수치 이상의 밝기 값을 갖는 조건을 만족하는 제 1 열에너지 정보를 추출하는 제 2 단계;
상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하는 제 3 단계;
상기 제 1 열에너지 정보 중 상기 추출된 버티컬 에지에 매핑(mapping) 되는 제 2 열에너지 정보를 추출하는 제 4 단계;
상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하는 제 5 단계;
상기 일단과 타단 포인트를 이용하여 ROI(Region of Interest)를 생성하는 제 6 단계;
식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하는 제 7 단계;
상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8 단계; 및
상기 추출한 ROI를 디스플레이부를 통해 표시하는 제 9 단계;를 포함하고,
상기 미리 설정된 조건은 제 1 조건 및 제 2 조건을 포함하고,
상기 제 1 조건의 밝기 값은 상기 제 2 조건의 밝기 값보다 크며,
상기 제 4 단계는 상기 제 2 조건을 만족하는 제 1 열에너지 정보에 적용되고,
상기 제 5 단계는 상기 제 1 조건을 만족하는 제 1 열에너지 정보와 상기 제 2 에너지 정보를 이용하여 수행되는 것을 특징으로 하는 나이트 비젼 정보 표시 방법.
A first step of obtaining thermal energy information for at least one object through a Far Infra-Red (FIR) camera;
A second step of extracting first thermal energy information that satisfies a condition having a brightness value equal to or greater than a preset value among the thermal energy information;
A third step of extracting a vertical edge from the thermal energy information;
A fourth step of extracting second thermal energy information mapped to the extracted vertical edge from among the first thermal energy information;
A fifth step of extracting the vertical one end and the other end point of the object included in the second thermal energy information;
A sixth step of generating a region of interest (ROI) using the one end and the other end point;
A seventh step of comparing an object included in the ROI with a plurality of classifiers related to the first object to be identified;
An eighth step of extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI; And
Including; a ninth step of displaying the extracted ROI through a display unit,
The preset condition includes a first condition and a second condition,
The brightness value of the first condition is greater than the brightness value of the second condition,
The fourth step is applied to the first heat energy information satisfying the second condition,
The fifth step is performed by using the first heat energy information and the second energy information satisfying the first condition.
삭제delete 삭제delete 제 1항에 있어서,
상기 제 2 단계와 제 3 단계는 동시에 수행되는 것을 특징으로 하는 나이트 비젼 정보 표시 방법.
The method of claim 1,
The second and third steps are performed at the same time.
제 1항에 있어서,
상기 제 8 단계 및 제 9 단계 사이에는,
상기 일단과 타단 포인트 중 적어도 하나를 이용하여 상기 추출한 ROI에 포함된 객체를 트래킹(Tracking)하는 제 8-1 단계;를 더 포함하고,
상기 제 9 단계에서는, 상기 제 8-1 단계에서 트래킹하는 정보를 표시하는 것을 특징으로 하는 나이트 비젼 정보 표시 방법.
The method of claim 1,
Between the eighth and ninth steps,
Step 8-1 of tracking the object included in the extracted ROI by using at least one of the one end and the other end point; further comprising,
In the ninth step, the night vision information display method, characterized in that the information to be tracked in the 8-1 step is displayed.
제 1항에 있어서,
상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고,
상기 반복 수행되는 제 6 단계는,
이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 6-1 단계;
상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 6-2 단계;
상기 제 1 객체와 관련된 베니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 6-3 단계; 및
상기 베니싱 영역 통계 정보와 상기 베니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 일단과 타단 포인트를 이용하여 ROI를 생성하는 제 6-4 단계;를 포함하는 것을 특징으로 하는 나이트 비젼 정보 표시 방법.
The method of claim 1,
The first to ninth steps are repeatedly performed,
The sixth step is repeatedly performed,
A 6-1 step of setting a vanishing line around a vertical axis of an object included in the extracted ROI from the eighth step previously performed;
Step 6-2 of setting a vanishing region based on the set vanishing line;
A 6-3 step of comparing the vanishing area statistical information related to the first object with the vanishing area; And
When the difference between the vanishing area statistical information and the vanishing area is within a preset range, a 6-4 step of generating an ROI using the one end point and the other end point; and night vision information display comprising: Way.
제 1항에 있어서,
상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고,
상기 반복 수행되는 제 8 단계는,
이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 8-2 단계;
상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 8-3 단계;
상기 제 1 객체와 관련된 베니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 8-4 단계; 및
상기 베니싱 영역 통계 정보와 상기 베니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8-5 단계;를 더 포함하는 것을 특징으로 하는 나이트 비젼 정보 표시 방법.
The method of claim 1,
The first to ninth steps are repeatedly performed,
The eighth step is repeatedly performed,
An 8-2 step of setting a vanishing line around a vertical axis of an object included in the extracted ROI from the eighth step previously performed;
An 8-3 step of setting a vanishing region based on the set vanishing line;
An 8-4th step of comparing the vanishing area statistical information related to the first object with the vanishing area; And
8-5 step of extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI when the difference between the vanishing area statistical information and the vanishing area is within a preset range; further comprising: Night vision information display method characterized by.
제 1항에 있어서,
상기 제 1 객체는 전방의 차량, 보행자 및 동물을 포함하고,
상기 제 1 단계에서 상기 열에너지 정보는 야간에 획득되는 것을 특징으로 하는 나이트 비젼 정보 표시 방법.
The method of claim 1,
The first object includes a vehicle, a pedestrian, and an animal in front,
In the first step, the thermal energy information is obtained at night.
제 1항에 있어서,
상기 제 9 단계 이후에는,
상기 추출한 ROI를 외부에 전송하는 제 10 단계;를 더 포함하고,
상기 전송에는 근거리 통신 또는 원거리 통신이 이용되며,
상기 근거리 통신은, Wi-Fi(Wireless Fidelity), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 기술 중 적어도 하나를 이용하고,
상기 원거리 통신은, CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 기술 중 적어도 하나를 이용하는 것을 특징으로 하는 나이트 비젼 정보 표시 방법.
The method of claim 1,
After the ninth step,
A tenth step of transmitting the extracted ROI to the outside; further comprising,
Short-range communication or long-distance communication is used for the transmission,
The short-range communication uses at least one of Wi-Fi (Wireless Fidelity), Bluetooth, RFID (Radio Frequency Identification), infrared communication (IrDA, infrared Data Association), UWB (Ultra Wideband), ZigBee technology,
The long-distance communication is CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple access) technology Night vision information display method, characterized in that using at least one of.
적어도 하나의 객체에 대한 열에너지 정보를 획득하는 FIR(Far Infra-Red) 카메라;
상기 열에너지 정보 중 미리 설정된 수치 이상의 밝기 값을 갖는 조건을 만족하는 제 1 열에너지 정보를 추출하고, 상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하며, 상기 제 1 열에너지 정보 중 상기 추출된 버티컬 에지에 매핑(mapping) 되는 제 2 열에너지 정보를 추출하고, 상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하며, 상기 일단과 타단 포인트를 이용하여 ROI(Region of Interest)를 생성하고, 식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하며, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제어부; 및
상기 추출한 ROI를 표시하는 디스플레이부;를 포함하고,
상기 미리 설정된 조건은 제 1 조건 및 제 2 조건을 포함하고,
상기 제 1 조건의 밝기 값은 상기 제 2 조건의 밝기 값보다 크며,
상기 제 2 열에너지 정보의 추출은 상기 제 2 조건을 만족하는 제 1 열에너지 정보에 적용되고,
상기 버티컬 일단과 타단 포인트의 추출은 상기 제 1 조건을 만족하는 제 1 열에너지 정보와 상기 제 2 에너지 정보를 이용하여 수행되는 것을 특징으로 하는 나이트 비젼 정보 표시 장치.
A Far Infra-Red (FIR) camera for obtaining thermal energy information for at least one object;
Among the thermal energy information, first thermal energy information that satisfies a condition having a brightness value equal to or greater than a preset value is extracted, a vertical edge is extracted from the thermal energy information, and a vertical edge is extracted from the first thermal energy information. Extracting the mapped second heat energy information, extracting the vertical one end and the other end point of the object included in the second heat energy information, and generating a region of interest (ROI) using the one end and the other end point, A control unit for comparing a plurality of classifiers related to the first object to be identified with an object included in the ROI, and extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI; And
Including; a display unit for displaying the extracted ROI,
The preset condition includes a first condition and a second condition,
The brightness value of the first condition is greater than the brightness value of the second condition,
The extraction of the second thermal energy information is applied to the first thermal energy information satisfying the second condition,
The extraction of the vertical one end and the other end point is performed by using the first heat energy information and the second energy information satisfying the first condition.
KR1020197014134A 2016-11-17 2016-11-17 Night vision system KR102169884B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2016/013238 WO2018092934A1 (en) 2016-11-17 2016-11-17 Night vision system

Publications (2)

Publication Number Publication Date
KR20190070951A KR20190070951A (en) 2019-06-21
KR102169884B1 true KR102169884B1 (en) 2020-10-27

Family

ID=62145475

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197014134A KR102169884B1 (en) 2016-11-17 2016-11-17 Night vision system

Country Status (2)

Country Link
KR (1) KR102169884B1 (en)
WO (1) WO2018092934A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449942B1 (en) * 2020-10-12 2022-10-05 (주)네오아이알 Vehicle night vision with thermal camera and smart glass

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003302470A (en) 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detection device and pedestrian detection method
KR101360246B1 (en) * 2013-08-12 2014-02-11 김규미 The multi-functional anti-crime camera system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7308341B2 (en) * 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
US7786898B2 (en) * 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
KR101281272B1 (en) * 2009-04-13 2013-07-03 주식회사 만도 Method and Apparatus for Guarding Pedestrian using Far-Infra-Red Stereo Camera
KR20120131457A (en) * 2011-05-25 2012-12-05 에스엘 주식회사 Animal Detection and Warning System and Method thereof
KR101284892B1 (en) 2012-03-30 2013-08-23 대구대학교 산학협력단 An intelligent prevention method of internet addiction based on user task inference
KR101410215B1 (en) 2012-08-16 2014-06-19 현대모비스 주식회사 Apparatus for detecting pedestrian for vehicle and method thereof
KR102021152B1 (en) * 2013-05-07 2019-09-11 현대모비스 주식회사 Method for detecting pedestrians based on far infrared ray camera at night
KR101543105B1 (en) * 2013-12-09 2015-08-07 현대자동차주식회사 Method And Device for Recognizing a Pedestrian and Vehicle supporting the same
KR101935853B1 (en) * 2017-04-07 2019-01-07 주식회사 토비스 Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging)

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003302470A (en) 2002-04-05 2003-10-24 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai Pedestrian detection device and pedestrian detection method
KR101360246B1 (en) * 2013-08-12 2014-02-11 김규미 The multi-functional anti-crime camera system

Also Published As

Publication number Publication date
WO2018092934A1 (en) 2018-05-24
KR20190070951A (en) 2019-06-21

Similar Documents

Publication Publication Date Title
US10504214B2 (en) System and method for image presentation by a vehicle driver assist module
CN110167823B (en) System and method for driver monitoring
EP2857886B1 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
US10868976B2 (en) Method for operating smartglasses in a motor vehicle, and system comprising smartglasses
US9878667B2 (en) In-vehicle display apparatus and program product
KR101359660B1 (en) Augmented reality system for head-up display
JP6036065B2 (en) Gaze position detection device and gaze position detection method
US11330200B2 (en) Parallax correction using cameras of different modalities
KR101944607B1 (en) An acquisition system of distance information in direction signs for vehicle location information and method
US20230400913A1 (en) Virtual models for communications between user devices and external observers
JP2015114757A (en) Information processing apparatus, information processing method, and program
WO2019140860A1 (en) Method and apparatus for tracking an at least partially occluded object, vehicle and computer-program product thereof
KR20180083623A (en) Electronic apparatus and control method thereof
US20160264051A1 (en) Night Driving System and Method
KR20200082109A (en) Feature data extraction and application system through visual data and LIDAR data fusion
US11227494B1 (en) Providing transit information in an augmented reality environment
KR20150066739A (en) system for providing warning message and methods thereof
CN116137902A (en) Computer vision camera for infrared light detection
KR102169885B1 (en) Night vision system displaying thermal energy information and its control method
JP2016033611A (en) Information provision system, display device, and method of controlling display device
KR101935853B1 (en) Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging)
KR102169884B1 (en) Night vision system
Kato et al. Detection of driver's posture in the car by using far infrared camera
WO2016088227A1 (en) Video display device and method
US11877064B1 (en) Method and apparatus for a stereoscopic smart phone

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant