KR20180113807A - Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging) - Google Patents
Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging) Download PDFInfo
- Publication number
- KR20180113807A KR20180113807A KR1020170045386A KR20170045386A KR20180113807A KR 20180113807 A KR20180113807 A KR 20180113807A KR 1020170045386 A KR1020170045386 A KR 1020170045386A KR 20170045386 A KR20170045386 A KR 20170045386A KR 20180113807 A KR20180113807 A KR 20180113807A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- roi
- thermal energy
- energy information
- extracting
- Prior art date
Links
- 230000004297 night vision Effects 0.000 title claims abstract description 74
- 238000001514 detection method Methods 0.000 title claims abstract description 23
- 238000000034 method Methods 0.000 claims abstract description 84
- 241001465754 Metazoa Species 0.000 claims abstract description 24
- 239000000284 extract Substances 0.000 claims description 9
- 238000000926 separation method Methods 0.000 claims 1
- 210000003128 head Anatomy 0.000 description 27
- 230000008569 process Effects 0.000 description 25
- 230000006870 function Effects 0.000 description 16
- 230000000694 effects Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000000873 masking effect Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000004438 eyesight Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000001069 Raman spectroscopy Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000028698 Cognitive impairment Diseases 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 208000010877 cognitive disease Diseases 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 239000010419 fine particle Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000005433 ionosphere Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003446 memory effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000004800 psychological effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G01S17/936—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/408—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/52—Radar, Lidar
Abstract
Description
본 발명은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비전 방법 및 시스템에 관한 것이다.The present invention relates to a night vision method for detecting a forward vehicle, a pedestrian, and an animal which are out of sight of a driver secured by a headlight during nighttime driving and which can not be seen by the eyes of a driver, ≪ / RTI >
구체적으로 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 라이다 및 레이더를 통해 획득된 정보를 이용하여 연산량을 낮추며, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비전 방법 및 시스템에 관한 것이다.More particularly, the present invention relates to a method and apparatus for converting a digital image signal into a digital image signal when a FIR (Far Infra-Red) camera installed in a vehicle senses thermal energy of an object, reduces the amount of computation using information obtained through radars and radars, The present invention relates to a night vision method and system that analyze, correct, and supplement a signal through a specific algorithm (Algorithm) to display on a display or output an alarm so that a driver can know ahead of time.
일반적으로 원적외선(Far Infra-Red: FIR)을 이용한 열화상 카메라(Thermal Imaging Camera)는 가시광선 영역을 감지하는 것이 아니라 원적외선 영역을 감지한다. Generally, a thermal imaging camera using Far Infra-Red (FIR) detects a far-infrared ray region rather than a visible light region.
즉, 열화상 카메라는 피사체에서 발산하는 적외선 열에너지를 감지하고, 감지된 결과를 열 화상 이미지로 획득한다. That is, the infrared camera senses infrared heat energy emitted from the subject and acquires the sensed result as a thermal image.
이러한 특성으로 인해 열 화상 카메라는 체온을 갖는 사람을 감지하는데 활용될 수 있다.This feature allows the thermal imaging camera to be used to sense people with body temperature.
한편, 최근 FIR 카메라를 이용한 보행자 감지 장치가 차량에 적용되고 있다. Meanwhile, a pedestrian sensing apparatus using an FIR camera has recently been applied to a vehicle.
이러한 차량에 적용된 FIR 카메라는 현재 차량이 주행 환경에 무관하게 일관된 검출 성능을 제공해야 한다. FIR cameras applied to these vehicles must provide consistent detection performance regardless of the current vehicle environment.
즉, 차량에 적용된 FIR 카메라는 주변 광원들로 인해 난반사가 심한 도심이나 상기 주변 광원들로 인한 난반사가 심하지 않은 도심 외관지역에서도 일관된 보행자 검출 성능을 제공해야 한다.In other words, the FIR camera applied to the vehicle should provide consistent pedestrian detection performance even in an urban area with severe diffuse reflection due to the surrounding light sources or in a downtown area where diffuse reflection due to the surrounding light sources is not severe.
따라서, 종래의 차량에 적용된 FIR 카메라에는 일관된 검출 성능을 제공하기 위해 기본적으로 감도를 조절하는 기능이 부가된다. Therefore, the FIR camera applied to the conventional vehicle basically has the function of adjusting the sensitivity in order to provide consistent detection performance.
이러한 감도 조절은 촬영된 열화상의 대상체 간의 복사 온도차 설정을 조정하여 감도를 조절할 수 있다.This sensitivity adjustment can adjust the sensitivity by adjusting the setting of the radiation temperature difference between the photographed images of the degraded image.
그러나, 주변 건물에서 방출하는 광원, 주변 건물에 부착된 간판에서 방출하는 광원 등의 난반사(scattered reflection), 특히, 전, 후방 차량의 조명등의 난반사가 극심한 도심에서는 감도 조절에 한계가 있다.However, there is a limit to the sensitivity control in scattered reflections such as a light source emitting from a nearby building, a light source emitting from a signboard attached to a neighboring building, and particularly in a city where extreme diffuse reflection of the front and rear vehicle lights is severe.
더욱이, FIR 카메라는 고가의 장비로서, 상기와 같이 난반사가 극심한 도심에서는 사용자가 요구하는 가격 대비 검출 성능을 만족시키지 못하고 있는 실정이다.In addition, the FIR camera is an expensive device, and thus, the user can not satisfy the price detection performance demanded by the user in a city with severe diffuse reflection.
물론, FIR 카메라에 비해 상대적으로 저가인 CMOS 카메라를 이용한 보행자 검출도 가능하다. 그러나 CMOS 카메라는 피사체에서 발산하는 적외선 열에너지를 감지하는 방식으로 피사체의 이미지를 획득하는 방식이 아니기 때문에 피사체의 복사 온도차를 이용한 감도 조절 기능이 없다. Of course, it is also possible to detect pedestrians using CMOS cameras, which are relatively inexpensive compared to FIR cameras. However, since the CMOS camera is not a method of acquiring an image of a subject in such a manner that infrared heat energy emitted from the subject is sensed, there is no sensitivity control function using the temperature difference of the subject.
즉, 난반사가 극심한 도심에서, 특히 야간 보행자의 검출은 불가능하며, FIR 카메라와 같이, 대상체가 보행자 인지 동물인지 뚜렷이 구분하지 못한다.In other words, it is impossible to detect nighttime pedestrians, especially in urban areas with extreme diffuse reflections. As with FIR cameras, it is not possible to clearly distinguish whether an object is a pedestrian or an animal.
한편, 최근에는 교통 사고 중 보행자(자전거 탑승자 포함) 사고가 상당 부분을 차지하며, 이러한 보행자 사고는 일단 사고가 나면 사망 등의 큰 인명 사고로 이어진다는 점에서 반드시 방지해야만 하는 사고이다.In recent years, pedestrians (including those on a bicycle) occupy a large part of traffic accidents, and pedestrian accidents must be prevented in the sense that once an accident occurs, it leads to a big accident such as death.
따라서, 보행자(자전거 탑승자 포함) 보호에 대한 많은 연구들이 진행되고 있는 상황이다. Therefore, there are many studies on the protection of pedestrians (including cyclists).
그럼에도 불구하고, 종래의 보행자 보호 장치에서는, 보행자를 정확하게 인식하기 위해서 배제되어야 할 주변 건물, 주변 물체 등의 배경을 보행자와 정확히 구별하지 못하는 문제점이 여전히 있으며, 이로 인해, 제대로 된 보행자 보호를 하지 못하고 있는 실정이다.Nevertheless, in the conventional pedestrian protection apparatus, there is still a problem that the background of surrounding buildings, surrounding objects, etc., which should be excluded in order to correctly recognize the pedestrian, can not be distinguished from the pedestrian accurately, In fact.
또한, 종래의 FIR 카메라를 이용한 보행자 검출 장치는 보행자 검출에 적용 시 온도가 높게 나타나는 영역을 관심영역으로 설정하여 보행자 감지를 수행하였다.In addition, the conventional pedestrian detection apparatus using the FIR camera performs the pedestrian detection by setting the region where the temperature is high when it is applied to the detection of the pedestrian as the region of interest.
그러나, FIR 카메라를 이용한 보행자 검출 장치는 주/야간 등 환경에 따라 상대적으로 온도가 일정하지 않으므로, 온도가 높게 나타나는 영역에서는 일관된 성능을 기대하기가 어려웠다.However, since the temperature of the pedestrian detection device using the FIR camera is relatively constant depending on the environment such as day / night, it is difficult to expect a consistent performance in a region where the temperature is high.
또한, FIR 카메라를 이용한 보행자 검출 장치 외에도 다양한 보행자 검출 장치들이 제안되었으나, 주로 차량의 범퍼나 펜더(Fender)의 안과 같은 차량의 전방에 장착된 센서들을 포함한다. In addition, various pedestrian detection devices have been proposed in addition to a pedestrian detection device using an FIR camera, but they include sensors mounted in front of a vehicle such as a bumper of a vehicle or an eye of a fender.
이러한 센서를 포함하는 보행자 검출 장치들은 쉽사리 오류의 출력신호를 제공할 수 있어서, 예를 들면 도로의 원뿔체나 동물과 같은 타격에 타격되었을 때 안전 장치가 부적절하게 전개될 수도 있다.Pedestrian detection devices incorporating such sensors can readily provide an output signal of an error so that the safety device may be improperly deployed when struck by a hitting such as a cone of a road or an animal.
따라서 상기 문제점을 해소하고, 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비전 방법 및 시스템에 대한 필요성이 대두되고 있다.Accordingly, it is an object of the present invention to solve the above-mentioned problems and to provide a system and a method for detecting a vehicle, a pedestrian, an animal, etc. ahead of the driver's sight range secured by a headlight during night driving, There is a need for a night vision method and system.
본 발명은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비전 방법 및 시스템을 제공하고자 한다.The present invention relates to a night vision method for detecting a forward vehicle, a pedestrian, and an animal which are out of sight of a driver secured by a headlight during nighttime driving and which can not be seen by the eyes of a driver, System.
구체적으로 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 라이다 및 레이더를 통해 획득된 정보를 이용하여 연산량을 낮추며, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비전 방법 및 시스템을 사용자에게 제공하고자 한다.More particularly, the present invention relates to a method and apparatus for converting a digital image signal into a digital image signal when a FIR (Far Infra-Red) camera installed in a vehicle senses thermal energy of an object, reduces the amount of computation using information obtained through radars and radars, The present invention relates to a method and system for night vision that analyzes, corrects, and compensates a signal through a specific algorithm (Algorithm), displays it on a display, or outputs an alarm so that a driver can know ahead of time.
또한, 본 발명은 라이다 및 레이더를 통해 획득된 정보를 이용하여 ROI(Region of Interest)의 생성에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 하는 나이트 비전 방법 및 시스템을 사용자에게 제공하고자 한다.The present invention also provides a method and apparatus for reducing the amount of computation in the generation of a region of interest (ROI) using information obtained through radar and radar, Vision method and system to the user.
다만, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. It can be understood.
상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 나이트 비전 정보 표시 방법은, FIR(Far Infra-Red) 카메라를 통해 적어도 하나의 객체에 대한 열에너지 정보를 획득하는 제 1 단계; 상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하는 제 2 단계; 상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하는 제 3 단계; 상기 제 1 열에너지 정보 중 상기 추출된 버티컬 에지에 맵핑(mapping) 되는 제 2 열에너지 정보를 추출하는 제 4 단계; 상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하는 제 5 단계; 상기 일단과 타단 포인트를 이용하여 ROI(Region of Interest)를 생성하는 제 6 단계; 식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하는 제 7 단계; 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8 단계; 및 상기 추출한 ROI를 디스플레이부를 통해 표시하는 제 9 단계;를 포함하되, 상기 제 1 단계 내지 제 5 단계 사이에는, LiDAR(light detection and ranging) 및 RADAR(Radio Detecting And Ranging) 중 적어도 하나를 통해 상기 적어도 하나의 객체에 대한 추가정보를 획득하는 제 10 단계;를 더 포함하고, 상기 제 6 단계에서는, 상기 추가정보와 상기 일단과 타단 포인트를 함께 이용하여 ROI를 생성할 수 있다.According to an aspect of the present invention, there is provided a night vision information display method including: a first step of acquiring thermal energy information for at least one object through a Far Infra-Red (FIR) camera; A second step of extracting first thermal energy information satisfying a predetermined condition among the thermal energy information; A third step of extracting a vertical edge from the thermal energy information; A fourth step of extracting second thermal energy information mapped to the extracted vertical edge of the first thermal energy information; A fifth step of extracting a vertical one end point and another end point of the object included in the second thermal energy information; A sixth step of generating a region of interest (ROI) using the one end and the other end; A seventh step of comparing a plurality of classifiers related to a first object to be identified with an object included in the ROI; An eighth step of extracting an ROI corresponding to at least one of the plurality of classifiers in the ROI; And displaying the extracted ROI through a display unit. The method of claim 1, further comprising, during the first through fifth steps, displaying the extracted ROI through at least one of light detection and ranging (LiDAR) and radio detecting and ranging (RADAR) The method may further include acquiring additional information about at least one object. In the sixth step, ROI may be generated using the additional information and the one end and the other end together.
또한, 상기 제 6 단계에서는, 상기 추가정보를 이용하여 상기 적어도 하나의 객체의 배치를 확인하고, 상기 제 5 단계에서 추출된 일단과 타단 포인트 중 상기 확인된 배치에 대응되는 일단과 타단 포인트만을 이용하여 ROI를 생성할 수 있다.In the sixth step, the arrangement of the at least one object is confirmed using the additional information, and only one end and the other end point corresponding to the identified arrangement among the one and the other end points extracted in the fifth step are used The ROI can be generated.
또한, 상기 LiDAR는 상기 FIR 카메라로부터 미리 설정된 이격 거리 이내에 위치하는 상기 적어도 하나의 객체에 대한 정보를 획득하고, 상기 RADAR는 상기 FIR 카메라로부터 미리 설정된 이격 거리를 벗어나 위치하는 상기 적어도 하나의 객체에 대한 정보를 획득할 수 있다.In addition, the LiDAR obtains information about the at least one object located within a preset distance from the FIR camera, and the RADAR is for the at least one object located outside the predetermined distance from the FIR camera Information can be obtained.
또한, 상기 미리 설정된 조건은 미리 설정된 수치 이상의 밝기 값을 갖는 조건일 수 있다.In addition, the predetermined condition may be a condition having a brightness value equal to or greater than a predetermined value.
또한, 상기 미리 설정된 조건은 제 1 조건 및 제 2 조건을 포함하고, 상기 제 1 조건의 밝기 값은 상기 제 2 조건의 밝기 값보다 크며, 상기 제 4 단계는 상기 제 2 조건을 만족하는 제 1 열에너지 정보에 적용되고, 상기 제 5 단계는 상기 제 1 조건을 만족하는 제 1 열에너지 정보와 상기 제 2 에너지 정보를 이용하여 수행될 수 있다.In addition, the predetermined condition may include a first condition and a second condition, the brightness value of the first condition being greater than the brightness value of the second condition, and the fourth step may include a first condition And the fifth step is performed using the first thermal energy information satisfying the first condition and the second energy information.
또한, 상기 제 2 단계와 제 3 단계는 동시에 수행될 수 있다.In addition, the second step and the third step may be performed simultaneously.
또한, 상기 제 8 단계 및 제 9 단계 사이에는, 상기 일단과 타단 포인트 중 적어도 하나를 이용하여 상기 추출한 ROI에 포함된 객체를 트래킹(Tracking)하는 제 8-1 단계; 를 더 포함하고, 상기 제 9 단계에서는, 상기 제 8-1 단계에서 트래킹하는 정보를 표시할 수 있다.Between the eighth step and the ninth step, an object included in the extracted ROI is tracked using at least one of the one end and the other end; And in the ninth step, information to be tracked in the eighth step may be displayed.
또한, 상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고, 상기 반복 수행되는 제 6 단계는, 이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 6-1 단계; 상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 6-2 단계; 상기 제 1 객체와 관련된 배니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 6-3 단계; 및 상기 배니싱 영역 통계 정보와 상기 배니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 일단과 타단 포인트를 이용하여 ROI를 생성하는 제 6-4 단계; 를 포함할 수 있다.The first through ninth steps are repeatedly performed, and the sixth step repeatedly performs the vanishing operation on the vertical axis of the object included in the ROI extracted from the eighth step, 6-1 < / RTI > (6-2) setting a vanishing region based on the set vanishing line; 6-3) comparing the vanishing area statistical information related to the first object with the vanishing area; And (6) if the difference between the vanishing region statistical information and the vanishing region is within a predetermined range, generating the ROI using the one end and the other end point; . ≪ / RTI >
또한, 상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고, 상기 반복 수행되는 제 8 단계는, 이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 8-2 단계; 상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 8-3 단계; 상기 제 1 객체와 관련된 배니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 8-4 단계; 및 상기 배니싱 영역 통계 정보와 상기 배니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8-5 단계;를 더 포함할 수 있다.In addition, the first through ninth steps are repeatedly performed, and the eighth step repeatedly performs a step of performing a vanishing operation on the vertical axis of the object included in the ROI extracted from the eighth step, 8-2 < / RTI > 8-3) setting a vanishing region on the basis of the set vanishing line; Comparing the vanishing area statistical information associated with the first object and the vanishing area; And extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI when the difference between the vanishing region statistical information and the vanishing region is within a predetermined range, .
또한, 상기 제 1 객체는 전방의 차량, 보행자 및 동물을 포함하고, 상기 제 1 단계에서 상기 열에너지 정보는 야간에 획득될 수 있다.In addition, the first object includes a vehicle ahead, a pedestrian and an animal, and in the first step, the thermal energy information can be obtained at night.
한편, 상기의 기술적 과제를 달성하기 위한 본 발명의 다른 양상인 나이트 비전 정보 표시 장치는, 적어도 하나의 객체에 대한 열에너지 정보를 획득하는 FIR(Far Infra-Red) 카메라; 상기 적어도 하나의 객체에 대한 추가정보를 획득하는 LiDAR(light detection and ranging) 및 RADAR(Radio Detecting And Ranging); 상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하고, 상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하며, 상기 제 1 열에너지 정보 중 상기 추출된 “버티컬 에지”에 맵핑(mapping) 되는 제 2 열에너지 정보를 추출하고, 상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하며, 상기 추가정보와 상기 일단과 타단 포인트를 함께 이용하여 ROI를 생성하고, 식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하며, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제어부; 및 상기 추출한 ROI를 표시하는 디스플레이부;를 포함할 수 있다.According to another aspect of the present invention, there is provided an apparatus for displaying night vision information, comprising: a Far Infra-Red (FIR) camera for acquiring thermal energy information on at least one object; Light detection and ranging (LiDAR) and Radio Detecting And Ranging (RADAR) to obtain additional information about the at least one object; Extracting first thermal energy information satisfying a preset condition among the thermal energy information, extracting a vertical edge from the thermal energy information, mapping the extracted first thermal energy information to the extracted " vertical edge " Extracts a vertical end point and an end point of the object included in the second thermal energy information, generates an ROI using the additional information, the end point and the end point together, A control unit for comparing a plurality of classifiers related to one object with an object included in the ROI and extracting an ROI corresponding to at least one of the plurality of classifiers in the ROI; And a display unit displaying the extracted ROI.
본 발명은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비전 방법 및 시스템을 제공할 수 있다.The present invention relates to a night vision method for detecting a forward vehicle, a pedestrian, and an animal which are out of sight of a driver secured by a headlight during nighttime driving and which can not be seen by the eyes of a driver, System can be provided.
구체적으로 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 라이다 및 레이더를 통해 획득된 정보를 이용하여 연산량을 낮추며, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비전 방법 및 시스템을 사용자에게 제공할 수 있다.More particularly, the present invention relates to a method and apparatus for converting a digital image signal into a digital image signal when a FIR (Far Infra-Red) camera installed in a vehicle senses thermal energy of an object, reduces the amount of computation using information obtained through radars and radars, A night vision method and system can be provided to the user to analyze, correct and supplement the signal through a specific algorithm (Algorithm), display it on a display or output an alarm so that the driver can know ahead of time.
또한, 본 발명은 라이다 및 레이더를 통해 획득된 정보를 이용하여 ROI(Region of Interest)의 생성에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 하는 나이트 비전 방법 및 시스템을 사용자에게 제공할 수 있다.The present invention also provides a method and apparatus for reducing the amount of computation in the generation of a region of interest (ROI) using information obtained through radar and radar, Vision method and system to the user.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It should be understood, however, that the effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those skilled in the art from the following description It will be possible.
도 1a 및 도 1b는 본 발명과 관련하여 나이트 비전 시스템과 헤드램프 시스템의 야간 식별 거리를 비교하기 위한 도면이다.
도 2a 및 도 2b는 본 발명과 관련하여, 차량에 나이트 비전 시스템을 탑재한 구체적인 모습을 도시하는 도면이다.
도 3은 본 발명이 제안하는 나이트 비전 시스템의 블록 구성도를 도시한 것이다.
도 4는 도 3에서 설명한 본 발명에 따른 나이트 비전 시스템의 구체화된 블록 구성도의 일례를 도시한 것이다.
도 5는 본 발명에 따른 라이다 및 레이더를 이용한 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 구체적인 과정을 설명하는 순서도이다.
도 6a 내지 도 6e는 도 5에서 설명한 과정들 중 인풋 이미지를 통해 ROI를 생성하는 구체적인 과정을 설명하는 도면이다.
도 7은 도 5에서 설명한 과정들 중 기계학습(Machine Learning)에 따른 보행자 분류의 구체적인 과정을 설명하는 도면이다.
도 8a 및 도 8b는 도 5에서 설명한 과정들 중 Multi-Classifier를 이용한 오인지 제거 알고리즘 과정을 구체적으로 설명하기 위한 도면이다.
도 9a 및 도 9b는 도 5에서 설명한 과정들 중 Head Point 기반 Tracking 과정을 구체적으로 설명하기 위한 도면이다.
도 10은 본 발명에 따른 라이다 및 레이더를 이용한 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 일례를 설명하는 순서도이다.
도 11은 안개, 먼지 등 시야가 제한되는 상황에서, 본 발명에 따른 나이트 비전 시스템을 통해 운전자가 쉽게 주변상황을 확인할 수 있는 구체적인 모습을 도시한 것이다.
도 12는 본 발명에 따른 라이다 및 레이더를 이용한 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 과정을 설명하는 순서도이다.FIGS. 1A and 1B are diagrams for comparing night vision distances of a night vision system and a headlamp system according to the present invention. FIG.
Figs. 2A and 2B are views showing a concrete state in which a vehicle is equipped with a night vision system, in the context of the present invention. Fig.
FIG. 3 is a block diagram of a night vision system proposed by the present invention.
FIG. 4 illustrates an exemplary block diagram of a night vision system according to an embodiment of the present invention. Referring to FIG.
FIG. 5 is a flowchart illustrating a detailed process of displaying information according to a specific algorithm by detecting thermal energy of an FIR camera through a night vision system using a radar and a radar according to the present invention.
6A to 6E are diagrams for explaining a specific process of generating an ROI through an input image among the processes described with reference to FIG.
FIG. 7 is a view for explaining a concrete process of classifying a pedestrian according to machine learning among the processes described in FIG. 5. FIG.
8A and 8B are diagrams for explaining the procedure of the false recognition algorithm using the multi-classifier among the processes described in FIG.
FIGS. 9A and 9B are views for specifically explaining the HeadPoint-based Tracking process among the processes described in FIG.
10 is a flowchart for explaining another example in which the FIR camera senses thermal energy of an object and displays information according to a specific algorithm through a night vision system using a radar and a radar according to the present invention.
FIG. 11 is a view showing a specific situation in which the driver can easily check the surrounding situation through the night vision system according to the present invention in a situation where the field of view such as fog and dust is limited.
12 is a flowchart illustrating another process of displaying information according to a specific algorithm by detecting thermal energy of an FIR camera through a night vision system using a radar and a radar according to the present invention.
일반적으로, 차량에서는 내비게이션 시스템(Navigation system)을 이용하여 원하는 목적지까지의 경로 정보를 확인하고, 내비게이션을 통해 안내되는 경로 정보에 따라 편리하게 목적지를 찾아가게 된다.Generally, in a vehicle, a navigation system (navigation system) is used to confirm route information to a desired destination, and navigates to a destination conveniently according to route information that is navigated through navigation.
이러한 내비게이션 시스템은 경로 안내, 텔레비전 시청, 차량 속도 정보 표시 등과 같은 정보는 제공해주나, 도루 주행 중 보행자 또는 동물을 감지하여 이를 경고해주는 것은 불가능하다.Such a navigation system provides information such as route guidance, television viewing, vehicle speed information display, etc., but it is impossible to detect a pedestrian or an animal while driving on the stern and warn it.
차량의 주행 중 운전자는 육안으로 보행자나 동물들의 출현 등을 직접 확인하고, 육안으로 식별한 감지 정보에 근거해 차량 운행을 제어하게 된다.During the driving of the vehicle, the driver visually confirms the appearance of pedestrians or animals, and controls the vehicle operation based on the sensed information detected by the naked eye.
여기서 낮에는 인간의 육안으로 대부분의 보행자나 동물의 식별이 가능하나, 인간의 눈은 조도가 낮은 밤에는 보행자나 동물의 식별이 거의 불가능하다. In the daytime, it is possible to identify most pedestrians and animals with the naked eye, but human eyes can not distinguish pedestrians or animals at night with low illumination.
따라서 조도가 낮은 야간에 보행자 또는 동물의 식별이 어려워 빈번하게 보행자 또는 동물과 차량이 충돌하는 사고가 발생하고 있다.Therefore, it is difficult to identify a pedestrian or an animal at a low illuminance at night, and an accident occurs frequently in which a vehicle collides with a pedestrian or an animal.
최근에는 FIR 카메라를 이용한 보행자 감지 장치가 차량에 적용되고 있다. Recently, pedestrian sensing devices using FIR cameras have been applied to vehicles.
그러나 종래의 FIR 카메라를 이용한 보행자 감지 장치는 주변 건물에서 방출하는 광원, 주변 건물에 부착된 간판에서 방출하는 광원 등의 난반사(scattered reflection), 특히, 전, 후방 차량의 조명등의 난반사가 극심한 도심에서는 감도 조절에 한계가 있다.However, the conventional pedestrian sensing apparatus using the FIR camera has a problem in that scattered reflections of a light source emitted from a neighboring building and a light emitted from a signboard attached to a neighboring building, and particularly, There is a limit to the sensitivity control.
더욱이, FIR 카메라는 고가의 장비로서, 상기와 같이 난반사가 극심한 도심에서는 사용자가 요구하는 가격 대비 검출 성능을 만족시키지 못하고 있다.In addition, the FIR camera is an expensive apparatus, and does not satisfy the price detection performance required by the user in a city with severe diffuse reflection as described above.
즉, 난반사가 극심한 도심에서, 특히 야간 보행자의 검출은 불가능하며, FIR 카메라와 같이, 대상체가 보행자 인지 동물인지 뚜렷이 구분하지 못하고 있다.In other words, it is impossible to detect nighttime pedestrians, especially in urban areas with extreme diffuse reflections. As with FIR cameras, it is not possible to clearly distinguish whether the object is a pedestrian or an animal.
또한, 종래의 FIR 카메라를 이용한 보행자 보호 장치에서는, 보행자를 정확하게 인식하기 위해서 배제되어야 할 주변 건물, 주변 물체 등의 배경을 보행자와 정확히 구별하지 못하는 문제점이 여전히 있으며, 이로 인해, 제대로 된 보행자 보호를 하지 못하고 있다.Further, in the conventional pedestrian protection apparatus using the FIR camera, there is still a problem that the background of surrounding buildings, surrounding objects, etc., which should be excluded in order to correctly recognize the pedestrian, can not be distinguished from the pedestrian accurately. I can not.
또한, 종래의 FIR 카메라를 이용한 보행자 검출 장치는 주/야간 등 환경에 따라 상대적으로 온도가 일정하지 않으므로, 온도가 높게 나타나는 영역에서는 일관된 성능을 기대하기가 어렵다는 문제점이 있다.In addition, the conventional pedestrian detection apparatus using the FIR camera has a problem that it is difficult to expect consistent performance in a region where the temperature is high, because the temperature is relatively constant depending on the environment such as night and day.
따라서 본 명세서에서는 상기 문제점을 해소하는 나이트 비전 방법 및 시스템을 제공하고자 한다.Accordingly, the present invention provides a night vision method and system for solving the above problems.
본 발명이 제안하는 나이트 비전 시스템(Night Vision System, NVS)은 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 운전자 보조 시스템이다.The night vision system (NVS) proposed by the present invention detects a vehicle, a pedestrian, and an animal ahead of the driver's sight beyond the visual range of the driver secured by the headlight during night driving, It is a driver assistance system for providing more forward image information.
도 1a 및 도 1b는 본 발명과 관련하여 나이트 비전 시스템과 헤드램프 시스템의 야간 식별 거리를 비교하기 위한 도면이다.FIGS. 1A and 1B are diagrams for comparing night vision distances of a night vision system and a headlamp system according to the present invention. FIG.
도 1a를 참조하면, 본 발명에 따른 나이트 비전 시스템은 일반 Head Lamp의 하향등을 켰을 때보다 3~5배 더 넓은 시야 확보가 가능하다.Referring to FIG. 1A, the night vision system according to the present invention is capable of securing a field of vision three to five times wider than that when the downward light of a general head lamp is turned on.
또한, 도 1b를 참조하면, 전조등을 조사하여 육안으로 식별할 수 있는 거리는 60m 이내로 제한되는 반면, 본 발명에 따른 나이트 비전 시스템을 통한 전방 보행자 인지는 130m까지 가능하여 전방 시야 확보에 더욱 효과적이다.In addition, referring to FIG. 1B, the distance that can be visually recognized by irradiating the headlight is limited to within 60m, while the recognition of a forward pedestrian through the night vision system according to the present invention is possible up to 130m, which is more effective in securing a forward view.
한편, 도 2a 및 도 2b는 본 발명과 관련하여, 차량에 나이트 비전 시스템을 탑재한 구체적인 모습을 도시하는 도면이다.Figs. 2A and 2B are diagrams showing concrete details of mounting a night vision system on a vehicle in accordance with the present invention. Fig.
도 2a에 도시된 것과 같이, 차량 그릴 안쪽에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 통합 ECU에서 디지털 영상 신호로 변환하게 된다.As shown in FIG. 2A, when an FIR (Far Infra-Red) camera installed inside the vehicle grill senses thermal energy of an object, the integrated ECU converts the digital image signal.
이후, 변환된 영상 신호는 영상 알고리즘(Algorithm)을 통해 분석, 수정 및 보완되고, 상기 처리가 완료된 영상 신호가 Display에 표시되거나 경고음이 출력됨으로써, 운전자가 사전에 전방 상황을 알 수 있게 해준다.Thereafter, the converted video signal is analyzed, corrected and supplemented through an image algorithm, and the processed video signal is displayed on the display or a warning sound is output, thereby allowing the driver to know the forward situation in advance.
도 2b는 FIR(Far Infra-Red) 카메라를 통해 감지된 보행자가 디스플레이 부를 통해 표시되는 구체적인 모습을 도시한 것이다.FIG. 2B shows a specific view of a pedestrian detected through a Far Infra-Red (FIR) camera through a display unit.
본 발명의 구체적인 동작을 설명하기에 앞서, 본 발명이 제안하는 나이트 비전 시스템의 구성에 대해 선결적으로 설명한다.Before describing the specific operation of the present invention, the configuration of the night vision system proposed by the present invention will be described in detail.
도 3은 본 발명이 제안하는 나이트 비전 시스템의 블록 구성도를 도시한 것이다.FIG. 3 is a block diagram of a night vision system proposed by the present invention.
도 3을 참조하면, 본 발명이 제안하는 나이트 비전 시스템(100)은 원적외선 카메라(122), 제어부(180) 및 디스플레이 부(151)를 포함할 수 있다.Referring to FIG. 3, the
여기서 원적외선 카메라(122)는 원적외선(Far Infrared, Longwave Infrared, FIR)을 이용하여 적어도 하나의 객체를 촬영하는 카메라이다.The far
원적외선은 통상 파장이 8㎛ 이상인 적외선을 의미하고, 가시광선보다 파장이 길어서 눈에 보이지 않고 열작용이 크며 침투력이 강하다. Far infrared rays usually mean infrared rays having a wavelength of 8 탆 or more, and are longer than wavelengths of visible light, so they are invisible to the naked eye, have a large thermal effect, and have high penetration.
본 발명에 따른 원적외선 카메라(122)의 특성을 설명한다.Characteristics of the far-
일반 CCD, CMOS 소자를 사용하는 카메라는 가시광 영역의 빛을 감지하여 투영하는 역할을 하기 때문에 사람의 눈으로 보는 것과 비슷한 영상을 획득할 수 있다. Since a camera using a general CCD or a CMOS device serves to sense and project light in a visible light region, it is possible to acquire an image similar to that of a human eye.
반면, 원적외선 카메라(122)는 사람이 보지 못하는 적외선 대역의 빛을 투영한다. On the other hand, the far-
적외선은 빛의 파장 중 750nm에서 1mm의 대역의 빛을 말하는 것으로서, 이러한 적외선 대역 중에서도 NIR(Near Infra-Red)의 빛은 700nm에서 1400nm의 파장을 말하며, NIR 대역의 빛은 사람의 눈에는 보이지 않지만 CCD나 CMOS 소자로도 감지가 가능하며 필터를 이용하면 NIR 대역의 빛만을 감지할 수 있다. Infrared light refers to light in the wavelength range of 750 nm to 1 mm among the wavelengths of light. Among these infrared bands, the light of NIR (near infra-red) refers to the wavelength of 700 to 1400 nm and the light of NIR band is not visible to human eyes It can be detected by CCD or CMOS device, and it can detect only NIR band light by using filter.
이에 비해, FIR의 빛은 LWIR(Long Wavelength Infra-Red)라고도 하며 적외선은 빛의 파장 중 8μm에서 15μm의 대역을 나타낸다. On the other hand, the light of the FIR is also referred to as LWIR (Long Wavelength Infra-Red), and the infrared ray represents a band of 8 μm to 15 μm in the wavelength of light.
특히, FIR 대역은 온도에 따라 파장이 변하기 때문에 온도를 구별할 수 있는 장점이 있다. In particular, the FIR band has the advantage of being able to distinguish the temperature because the wavelength varies according to the temperature.
원적외선 카메라(122)의 대상인 사람(보행자)의 체온은 10μm의 파장을 가진다.The body temperature of the person (pedestrian) which is the object of the far-
또한, 제어부(180)는 나이트 비전 시스템(100)의 전반적인 동작을 제어한다.In addition, the
특히, 원적외선 카메라(122)를 통해 획득된 정보를 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하며, 상기 처리가 완료된 영상 신호가 디스플레이부(151)를 통해 출력되도록 제어할 수 있다.Particularly, the information obtained through the far
제어부(180)는 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The
하드웨어적인 구현에 의하면, 제어부(180)는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. According to a hardware implementation, the
소프트웨어적인 구현에 의하면, 제어부(180)는 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 후술하는 메모리(160)에 저장될 수 있다.According to the software implementation, the
또한, 디스플레이부(151)는 제어부(180)에 의해 처리된 정도를 외부로 출력하는 기능을 제공한다.Also, the
여기서, 디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. Here, the
이하에서는 도 4를 이용하여 도 3에서 설명한 본 발명이 제안하는 나이트 비전 시스템(100)의 구체적인 구성에 대해 설명한다.Hereinafter, with reference to FIG. 4, a specific configuration of the
도 4를 참조하면, 나이트 비전 시스템(100)은 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 4, the
단, 도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 나이트 비전 시스템이 구현될 수도 있다.However, the components shown in Fig. 4 are not essential, so that a night vision system having components with fewer components or fewer components may be implemented.
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
무선 통신부(110)는 나이트 비전 시스템과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The
예를 들어, 무선 통신부(110)는 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.For example, the
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 기기, 서버 중 적어도 하나와 무선 신호를 송수신한다. The
문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. And various types of data according to transmission / reception of text / multimedia messages.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 나이트 비전 시스템에 내장되거나 외장 될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-WideBand), ZigBee, 와이파이(Wireless Fidelity, Wi-Fi) 등이 이용될 수 있다.The short-
위치정보 모듈(115)은 나이트 비전 시스템의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The
도 4를 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 4, an A / V (Audio / Video)
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the
마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
다음으로, 원적외선 카메라(122)는 사람이 보지 못하는 적외선 대역의 빛을 투영하여 촬영한다. Next, the far-
FIR의 빛은 LWIR(Long Wavelength Infra Red)라고도 하며 적외선은 빛의 파장 중 8μm에서 15μm의 대역을 나타내고, FIR 대역은 온도에 따라 파장이 변하기 때문에 온도를 구별할 수 있다.The light of the FIR is also referred to as LWIR (Long Wavelength Infra Red). Infrared light has a wavelength of 8 μm to 15 μm in the wavelength of the light. In the FIR band, the temperature can be distinguished because the wavelength varies with temperature.
원적외선 카메라(122)의 대상인 사람(보행자)의 체온은 10μm의 파장을 가지고, 원적외선 카메라(122)를 통해, 야간에서도 특정 객체에 대한 이미지, 동영상 등을 촬영하는 것이 가능하다.The body temperature of the person (pedestrian) which is the object of the far
다음으로, 사용자 입력부(130)는 사용자가 나이트 비전 시스템의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. Next, the
센싱부(140)는 나이트 비전 시스템의 개폐 상태, 나이트 비전 시스템의 위치, 사용자 접촉 유무, 나이트 비전 시스템의 방위, 나이트 비전 시스템의 가속/감속 등과 같이 나이트 비전 시스템의 현 상태를 감지하여 나이트 비전 시스템의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The
센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. The
또한, 본 발명에 따른 센싱부(140)는 LiDAR(light detection and ranging, 141)를 포함할 수 있다.In addition, the
여기서 LiDAR(141)는 light detection and ranging의 머리 글자를 따서 라이더라고도 한다. Here LiDAR (141) is also called rider after the initials of light detection and ranging.
원리적으로는 종래의 레이더에 있어서 마이크로파를 레이저광으로 대치한 것으로서, 표적까지의 거리 측정 장치이다. In principle, it is a distance measuring device up to a target, in which a microwave is replaced by a laser beam in a conventional radar.
레이저광을 사용함으로써 레이더(142)에 비해 거리 측정 정밀도와 방위 분해능, SN 비 등에서 개선된다. By using laser light, the distance measurement accuracy, azimuth resolution, SN ratio, and the like are improved as compared with the
파장이 짧기 때문에 공기중의 미립자도 검출할 수 있다.Since the wavelength is short, fine particles in the air can be detected.
레이저 라만 레이더는 라만 산란을 이용하여 특정한 분자를 검출하는 것으로서, 대기나 해상 오염의 감시에 쓰이고 있다.The laser Raman radar detects specific molecules using Raman scattering and is used to monitor air and marine pollution.
본 발명에서는 LiDAR(141)는 차량의 전방 등에 위치한 객체를 인식함과 동시에 제어부(180)가 ROI(Region of Interest)의 생성함에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 할 수 있다.In the present invention, the
또한, 본 발명에 따른 센싱부(140)는 RADAR(Radio Detecting And Ranging, 142)를 포함할 수 있다.In addition, the
여기서 RADAR(142)는 무선탐지와 거리측정(Radio Detecting And Ranging)의 약어로 마이크로파(극초단파, 10cm~100cm 파장) 의 전자기파를 물체에 발사시켜 그 물체에서 반사되는 전자기파를 수신하여 물체와의 거리, 방향, 고도 등을 알아내는 무선감시장치이다.The
RADAR(142)에 이용되는 마이크로파는 파장이 길어서 빛과 같은 직진성을 가지며 전리층에서 반사되지 않으므로 방향성 안테나에서 발산된 전파는 목표물까지 직선으로 진행한 후 반사하여 돌아온다. Since the microwave used in the
이때, 반사되어 돌아온 전자기파의 시간을 측정하여 목표물의 거리, 방향, 고도를 알아낼 수 있으며, 이러한 정보를 통해 목표물의 위치, 지형, 구름의 형성 등을 알아낸다.At this time, it is possible to find the distance, direction and altitude of the target by measuring the time of the reflected electromagnetic waves. Through this information, the position of the target, the topography, and the formation of the cloud are found.
레이더(142)를 이용하여 광학적 방법보다 더 정밀한 거리 측정이 가능하며 위성의 표면 상태에 대한 연구가 가능하다. By using the
레이더(142)는 구름의 물방울, 얼음 결정, 빗방울, 우박 등도 감지할 수 있기 때문에 기상학에서도 지상 레이더나 공중 레이더의 정보를 이용하여 수백km 떨어진 곳의 폭풍을 탐지하고 추적할 수 있다. Because the
레이더(142)의 회로 및 보조기구들이 소형화되면서 휴대가 가능하게 되면서, 경찰이 사용하는 속도감지용 레이더건(radar gun)이나 광학 레이더 탐지 소자(optical radar sensory device)를 이용하여 맹인을 위한 지팡이에 레이더 기술을 사용하기도 한다.As the circuits and auxiliary devices of the
본 발명에서는 RADAR(142)는 차량의 전방 등에 위치한 객체를 인식함과 동시에 제어부(180)가 ROI(Region of Interest)의 생성함에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 할 수 있다.In the present invention, the
한편, 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155), 헤드업 디스플레이(head-up display, HUD), 헤드 마운티드 디스플레이(head mounted display, HMD) 등이 포함될 수 있다.The
디스플레이부(151)는 나이트 비전 시스템에서 처리되는 정보를 표시(출력)한다. The
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparent OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 나이트 비전 시스템 바디의 디스플레이부(151)가 차지하는 영역을 통해 나이트 비전 시스템 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the
나이트 비전 시스템의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 나이트 비전 시스템에는 복수의 디스플레이부들이 하나의 면에 이격 되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the
상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 나이트 비전 시스템의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch & The act of actually touching the pointer on the screen is called "contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.
상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.
음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 나이트 비전 시스템에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
알람부(153)는 나이트 비전 시스템의 이벤트 발생을 알리기 위한 신호를 출력한다. The
알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. The
상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The video signal or the audio signal may be output through the
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. The
예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. For example, different vibrations may be synthesized and output or sequentially output.
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 나이트 비전 시스템의 구성 태양에 따라 2개 이상이 구비될 수 있다.The
프로젝터 모듈(155)은, 나이트 비전 시스템을 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이 되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이 할 수 있다.The
구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the
프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The
바람직하게, 프로젝터 모듈(155)은, 나이트 비전 시스템의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 나이트 비전 시스템의 어느 위치에라도 구비될 수 있음은 당연하다.Preferably, the
또한, 헤드업 디스플레이(head-up display, HUD, 156)는 차량 등에서 차량 현재 속도, 연료 잔량, 내비게이션 길안내 정보 등을 운전자 바로 앞 유리창 부분에 그래픽 이미지로 투영해주는 장치를 의미한다.In addition, the head-up display (HUD) 156 refers to a device for projecting the current vehicle speed, remaining fuel amount, navigation route information, and the like in a vehicle or the like as a graphic image on a window portion in front of the driver.
원적외선 카메라(122)를 통해 획득된 정보는 상기 헤드업 디스플레이(156)를 통해 출력되는 것도 가능하다.The information obtained through the far
또한, 헤드 마운티드 디스플레이(head mounted display, HMD, 157)는 가상 현실(Virtual reality) 정보를 출력할 수 있는 대표적인 장치이다.In addition, a head mounted display (HMD) 157 is a typical device capable of outputting virtual reality information.
가상 현실(Virtual reality)이란 컴퓨터를 통해 어떤 특정한 환경이나 상황을 입체감 있는 3D 컨텐츠로 제작하여, 그 3D 컨텐츠를 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스 등을 총칭한다.Virtual reality is a process of creating a 3D environment in which a specific environment or situation is created through a computer and creating a human-computer interaction that makes the person using the 3D content appear as if they are interacting with the actual surroundings and environment. And the like.
일반적으로 사람이 지각하는 입체감은 관찰하는 물체의 위치에 따른 수정체의 두께 변화 정도, 양쪽 눈과 대상물과의 각도 차이, 그리고 좌우 눈에 보이는 대상물의 위치 및 형태의 차이, 대상물의 운동에 따라 생기는 시차, 그 밖에 각종 심리 및 기억에 의한 효과 등이 복합적으로 작용하여 생긴다.Generally, the three-dimensional sensation perceived by a person depends on the degree of thickness change of the lens according to the position of the observed object, the angle difference between the eyes and the object, the position and shape difference of the object on the left and right eyes, , And various other psychological and memory effects.
그 중 사람이 입체감을 느끼는 가장 중요한 요인은, 사람의 두 눈이 가로 방향으로 약 6.5㎝가량 떨어져 있음으로써, 나타나게 되는 양안 시차(binocular disparity)이다. 즉, 양안 시차에 의해 대상물에 대한 각도 차이를 가지고 바라보게 되고, 이 차이로 인해 각각의 눈에 들어오는 이미지가 서로 다른 상을 갖게 되며 이 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이 두 개의 정보를 정확히 서로 융합하여 본래의 3D 입체 영상을 느낄 수 있는 것이다.Among them, binocular disparity is the most important factor for a person to feel the stereoscopic effect, as the eyes of a person are about 6.5 cm apart in the horizontal direction. In other words, the binocular parallax causes the angle of the object to be viewed with the difference. Due to this difference, the images coming into each eye have different phases. When these two images are transmitted to the brain through the retina, The 3D stereoscopic image of the original can be felt.
이러한 입체감있는 3D 컨텐츠들은 이미 여러 미디어 분야에 두루 이용되어 소비자들로부터 호평을 받아오고 있다. 예를 들어 3D 영화, 3D 게임 및 체험 디스플레이와 같은 것들이 대표적이다.These stereoscopic 3D contents have already been widely used in various media fields and have been well received by consumers. For example, 3D movies, 3D games, and experience displays are examples.
이와 같이 가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다.As described above, in addition to the universalization of virtual reality technology 3D contents, there is a need to develop a technology capable of providing a more immersive virtual reality service.
일반적으로 이미지 디스플레이 장치는 눈과 매우 근접한 위치에서 발생하는 영상광을 정밀한 광학 장치를 이용하여 먼 거리에 가상의 대형화면이 구성될 수 있도록 초점을 형성함으로써 사용자로 하여금 확대된 허상을 볼 수 있도록 하는 화상 표시 장치를 말한다.2. Description of the Related Art Generally, an image display device forms a focal point so that a virtual large-sized screen can be formed at a long distance by using a precision optical device, which is generated in a position very close to an eye, so that a user can view an enlarged virtual image An image display device.
또한, 이미지 디스플레이 장치는, 주위 환경은 볼 수 없고 디스플레이 소자에서 발산된 영상광만을 볼 수 있는 밀폐형(See-close)과, 윈도우를 통해 주위 환경을 볼 수 있으면서도 디스플레이 소자에서 발산된 영상광을 동시에 볼 수 있는 투과식(See-through)으로 나뉠 수 있다.In addition, the image display device is configured to include a see-close type in which only the image light emitted from the display device can not be seen in the surrounding environment, and a see-close mode in which the image light emitted from the display device (See-through) that can be seen.
본 발명에 따른 헤드 마운티드 디스플레이(head mounted display, HMD, 157)란 안경처럼 머리에 착용하여 멀티미디어 컨텐츠를 제공받을 수 있도록 하는 각종디지털 디바이스를 말한다. 디지털 디바이스의 경량화 및 소량화 추세에 따라, 다양한 웨어러블 컴퓨터(Wearable Computer)가 개발되고 있으며, HMD 또한 널리 사용되고 있다. HMD(157)는 단순한 디스플레이 기능을 넘어 증강 현실 기술, N 스크린 기술 등과 조합되어 유저에게 다양한 편의를 제공할 수 있다.The head mounted display (HMD) 157 according to the present invention refers to various digital devices such as glasses that are worn on the head to receive multimedia contents. Various wearable computers (Wearable Computers) have been developed in accordance with the trend of weight reduction and miniaturization of digital devices, and HMDs are also widely used. The
예를 들어, HMD(157)에 마이크와 스피커가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 전화 통화를 수행할 수 있다. 또한, 예를 들어, HMD(157)에 원적외선 카메라(122)가 장착되는 경우, 유저는 HMD(157)를 착용한 상태에서, 유저가 원하는 방향의 이미지를 캡쳐 할 수 있다.For example, when a microphone and a speaker are mounted on the
또한, 메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력 시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.In addition, the
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 나이트 비전 시스템은 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
인터페이스부(170)는 나이트 비전 시스템에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송 받거나, 전원을 공급받아 나이트 비전 시스템 내부의 각 구성 요소에 전달하거나, 나이트 비전 시스템 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The
식별 모듈은 나이트 비전 시스템의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 나이트 비전 시스템과 연결될 수 있다. The identification module is a chip for storing various information for authenticating the usage right of the night vision system and includes a user identification module (UIM), a subscriber identity module (SIM), a universal user authentication module Identity Module, USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Thus, the identification device can be connected to the night vision system through the port.
상기 인터페이스부는 나이트 비전 시스템이 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 나이트 비전 시스템에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the night vision system is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the night vision system or various command signals input from the cradle by the user are transmitted to the mobile device It can be a passage. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile device is correctly mounted on the cradle.
제어부(controller, 180)는 통상적으로 나이트 비전 시스템의 전반적인 동작을 제어한다. The
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the
한편, 전술한 본 발명의 구성을 기초로, 원적외선 카메라(122)가 열에너지를 통해 획득한 객체 관련 컨텐츠(문서, 이미지, 동영상 등)를 제어부(180)가 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하며, 디스플레이(151)가 처리된 컨텐츠를 표시하도록 제어하는 구체적인 동작에 대해 설명한다.On the other hand, based on the above-described configuration of the present invention, the
제 1 방법First Method
도 5는 본 발명에 따른 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 구체적인 과정을 설명하는 순서도이다.FIG. 5 is a flowchart illustrating a detailed process of displaying information according to a specific algorithm by sensing thermal energy of an object through an FIR camera through a night vision system according to the present invention.
또한, 도 6a 내지 도 6e는 도 5에서 설명한 과정들 중 인풋 이미지를 통해 ROI를 생성하는 구체적인 과정을 설명하는 도면이다.6A to 6E are diagrams for explaining a specific process of generating an ROI through an input image among the processes described with reference to FIG.
도 5를 참조하면, 가장 먼저, 원적외선 카메라(122)를 통해 적어도 하나의 객체의 열에너지에 대한 이미지를 획득하는 단계(S100)가 진행된다.Referring to FIG. 5, first, an image of thermal energy of at least one object is obtained through a far infrared ray camera 122 (S100).
도 6a를 참조하면, 본 발명의 원적외선 카메라(122)를 통해 복수의 객체의 열에너지 이미지가 획득된 구체적인 모습이 도시되어 있다.Referring to FIG. 6A, a detailed view of a thermal energy image of a plurality of objects is obtained through the far-
S100 단계가 진행되면, 제어부(180)는 인풋된 이미지 중 기 설정된 수치 이상의 밝기 값을 갖는 높은 쓰레스홀드(Threshold)의 이미지를 추출하는 단계(S110)를 수행한다.In operation S100, the
여기서 쓰레스홀드 값(임계값)은 영상의 평균, 표준편차, 히스토그램 등을 이용하여 통계적으로 추정하거나, 사용자가 임의의 값을 입력하는 것으로 설정 가능하다.Here, the threshold value (threshold value) can be statistically estimated using the average, standard deviation, histogram, etc. of the image, or can be set by the user to input an arbitrary value.
이는 보통 사람(보행자)의 밝기 값은 주변 배경보다 밝다는 사실을 근거로 1차적으로 보행자를 추출하기 위한 방법을 적용한 것이다.This is based on the fact that the brightness value of the ordinary person (pedestrian) is brighter than the surrounding background.
도 6b를 참조하면, 일정 영역을 원적외선 카메라(122) 통해 열에너지 이미지로 촬영하였고, 촬영된 이미지 중 기 설정된 수치 이상의 밝기 값을 갖는 높은 쓰레스홀드 (Threshold)의 밝은 객체가 도시되어 있다.Referring to FIG. 6B, a certain area is photographed with a thermal energy image through a far-
그러나 원적외서 카메라(122)로부터 인접한 보행자와 멀리 떨어진 보행자의 획득되는 이미지 특성이 다르고, 하나의 보행자가 아닌 복수의 보행자가 인접해 있거나 날씨가 매우 춥거나 매우 더운 경우에는 S110 단계에서의 하나의 쓰레스홀드 (Threshold)로는 모든 보행자를 놓치지 않고 촬영하는 것이 어려울 수 있다.However, if the obtained image characteristics of the pedestrian far away from the
따라서 S110 단계와 달리 밝기 값을 낮춰서 낮은 쓰레스홀드 (Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하는 단계(S120)를 병렬적으로 수행한다.Accordingly, unlike step S110, the step S120 of extracting all the object images which are brighter on the lower threshold by lowering the brightness value is performed in parallel.
여기서 쓰레스홀드 값(임계값)은 영상의 평균, 표준편차, 히스토그램 등을 이용하여 통계적으로 추정하거나, 사용자가 임의의 값을 입력하는 것으로 설정 가능하다.Here, the threshold value (threshold value) can be statistically estimated using the average, standard deviation, histogram, etc. of the image, or can be set by the user to input an arbitrary value.
단, S120 단계에서는 타겟팅 하는 보행자 등 이외에 불필요한 노이즈들이 빈번하게 포함되어 추출될 수 있다.However, in step S120, unnecessary noise other than the targeted pedestrian may be frequently included and extracted.
따라서 이러한 문제점을 해소하기 위해, S100 단계에서 인풋된 이미지를 에지(edge)를 기준으로 추출하는 S130 단계를 함께 수행한다.Therefore, in order to solve such a problem, step S100 of extracting the input image based on an edge is performed together with step S100.
이는, 사람(보행자)의 경우, 신체 특성상 버티컬(VERTICAL) 에지 외곽성분 즉, 세로의 에지 외곽 성분이 강하게 나타나므로, 이를 이용하여 S120 단계에서 획득된 불필요한 노이즈를 제거하기 위한 것이다.This is because, in the case of a person (pedestrian), the outer edge component of the vertical edge, that is, the edge outer edge component of the vertical edge, is strongly displayed in terms of body characteristics, so that unnecessary noise obtained in step S120 is removed using this edge.
edge 영상은 sobel filter, canny edge detector, laplacian filter로부터 추정할 수 있다.The edge image can be estimated from the sobel filter, the canny edge detector, and the laplacian filter.
제어부(180)는 S120 단계에서 낮은 쓰레스홀드 (Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하고, S130 단계에서의 에지(edge)를 기준으로 추출된 이미지를 서로 곱하게 된다.The
따라서 S120 단계에서 낮은 쓰레스홀드 (Threshold)를 넘겨 객체로 추출이 되더라도 버티컬 에지 성분이 없는 객체는 사라지게 된다.Therefore, even if the object is extracted as an object by passing a low threshold in step S120, the object having no vertical edge component disappears.
예를 들어, 보행자가 도로 위에 서있는 경우, 보행자와 도로가 하나의 객체로 취급되어 S120 단계에서 이미지로 추출될 수 있다.For example, when a pedestrian stands on the road, the pedestrian and the road are treated as one object and can be extracted as an image in step S120.
그러나 S130 단계에 의해, 도로는 버티컬 에지 성분이 없으므로, 결국 도로 위에 위치한 보행자의 이미지 요소만 남게 된다.However, in step S130, since the road does not have a vertical edge component, only the image elements of the pedestrian located on the road remain.
또한, S120 단계와 S130 단계를 곱하는 것은 버티컬 에지 성분을 가진 객체를 추출하는 것 이외에 완전하게 추출되지 못한 객체를 보완하는 마스킹 기능이 수행될 수도 있다.In addition, multiplying S120 and S130 may be performed by performing a masking function to complement an object that has not been completely extracted, in addition to extracting an object having a vertical edge component.
즉, S120 단계에서 보행자가 완전하게 하나의 연결된 밝은 열 이미지로 추출되는 것이 아니라 중간이 끊긴 형상으로 추출될 수 있다.That is, in step S120, the pedestrian may not be extracted as a single bright light image, but may be extracted as a broken shape.
이때, S130 단계에서의 에지 성분이 추출된 요소를 S120 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹이 수행될 수 있다.At this time, by applying the extracted edge component in step S130 to step S120, masking that the broken space is filled can be performed.
도 6c를 참조하면, 중간이 끊긴 형상의 객체가 존재하고, S130 단계에서의 에지 성분이 추출된 요소를 S120 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹을 수행할 수 있다.Referring to FIG. 6C, it is possible to perform masking in which the broken space is filled by applying an element in which an intermediate shape is broken and an edge component extracted in step S130 is extracted to step S120.
제어부는 S110 단계와 S120 단계 및 S130 단계를 순차적으로 수행할 수도 있고, 각각의 단계를 병렬적으로 동시에 수행하는 것도 가능하다.The control unit may perform step S110, step S120 and step S130 in order, or may perform the respective steps in parallel at the same time.
S110 단계와 S120 및 S130 단계에서는 전술한 마스킹 작업과 유사하게, 레이블링(Labeling) 작업을 추가적으로 수행할 수 있다.In steps S110, S120, and S130, a labeling operation may be additionally performed, similar to the above-described masking operation.
레이블링(Labeling) 작업은 근접하게 이격 되어 떨어져 있는 덩어리, 세그먼트들을 붙여주는 작업으로서, 같은 객체이나 열에너지의 명확한 획득 실패로 인해 분리되어 있는 객체를 묶어주는 작업으로 볼 수 있다.Labeling work can be seen as a task of sticking closely spaced chunks or segments, which tie together objects that are separated by the same object or thermal energy failing to acquire clearly.
S110 단계 내지 S130 단계 이후에 헤드 포인트 정보를 추출하는 단계(S140)가 수행된다.The step of extracting head point information (S140) is performed after steps S110 to S130.
S140 단계에서는 S110 단계에서 추출된 이미지와 S120 및 S130 단계가 동시에 적용되어 추출된 이미지에서 객체의 머리(헤드) 포인트를 추출하게 된다.In step S140, the image extracted in step S110 and the steps S120 and S130 are simultaneously applied to extract the head point of the object from the extracted image.
즉, 추출한 이미지 중 밝은 부분이 끝나는 최상단 영역을 헤드 포인트 영역으로 결정할 수 있다.That is, the uppermost region where the bright portion ends of the extracted image can be determined as the head point region.
여기서 Head 포인트 추출은 skeletonization(세선화), local maximum 추출, 학습을 통한 head 인식 등에 의해 수행될 수 있다.Head point extraction can be performed by skeletonization, local maximum extraction, head recognition through learning, and so on.
또한, S140 단계와 동시에 또는 S140 단계와 순차적으로 객체의 풋(foot) 라인을 추출하는 단계(S150)가 수행될 수 있다.In addition, step S150 may be performed simultaneously with step S140 or sequentially extracting a foot line of the object in step S140.
S150 단계는 S120 단계와 S130 단계가 함께 적용되어 추출된 이미지를 이용하는 것이 아니라 단순하게 에지 성분만을 가지고 에지 맵을 추출하는 S130 단계에서의 정보를 통해 수행된다.In operation S150, the extracted image is extracted using only the edge components, but the edge map is extracted in operation S130.
S150 단계에서는 획득된 이미지의 최 하단에서 세로 방향으로 올라오다가 추출된 각 이미지와 만나는 지점을 찾고, 만나는 지점을 해당 객체의 풋라인으로 결정하게 된다.In step S150, the image is ascended in the vertical direction at the lowermost end of the acquired image, and the point of meeting with the extracted images is found, and the point of meeting is determined as the foot line of the object.
여기서, 풋 라인(발끝) 정보 추출은 입력된 영상 중 dilation을 수행하여 변환하고, 세로 방향으로의 미분 값에 기반하여 추출할 수 있다(예를 들면 255-> 0로 변하는 위치).Here, the foot line (toe) information extraction can be performed by performing dilation among inputted images and extracting based on the differential value in the vertical direction (for example, a position changing from 255 to 0).
S120, S130, S140 및 S150 단계 등을 수행하는 이유는 제어부(180)가 열화상 이미지를 획득함에 있어 계산 처리량을 줄이기 위함이다.The reason why the steps S120, S130, S140, and S150 are performed is to reduce the calculation throughput when the
여기서 획득된 모든 이미지 상에 존재하는 객체를 확인하여 보행자를 최종적으로 검출해내는 것이 아니라 S120, S130, S140 및 S150 단계 등을 통해 노이즈로 명확히 판별될 수 있는 요소들은 작업의 전반부에서 미리 제거하고 과정을 진행하기 위한 것이다.Instead of finally detecting the pedestrian by confirming the objects existing on all images acquired here, the elements that can be clearly discriminated by noise through steps S120, S130, S140 and S150 are removed in advance in the first part of the work, .
결국, 열화상 나이트 비전 시스템(100)의 보행자 인식률을 위해 보행자를 놓치지 않으면서 계절이나 날씨에 변화에 민감하지 않은 ROI 생성 방법을 제안하는 것이다.As a result, the ROI generation method is not sensitive to changes in seasons or weather without missing a pedestrian for the pedestrian recognition rate of the thermal
상기 S120 단계 내지 S150 단계를 거치더라도 원하지 않는 노이즈는 포함될 수 있는데, 이는 S160 단계 내지 S180 단계를 통해 제거될 수 있다.Despite steps S120 through S150, unwanted noise may be included, which may be removed through steps S160 through S180.
한편, 추후에 있을 ROI(Region of Interest)의 생성에 있어, 계산량을 효율적으로 줄이기 위해, 본 발명에서는 LiDAR(141)는 차량의 전방 등에 위치한 객체를 인식한 정보와 RADAR(142)가 차량의 전방 등에 위치한 객체를 인식한 정보를 획득하는 단계(S400)가 추가될 수 있다.In order to efficiently reduce the amount of computation in future generation of ROIs, the
즉, 열화상 카메라(123)와 Radar(142), LiDAR(141)를 별도로 이용하는 경우에는, 객체 인식에 따른 100% 의 효과를 거두기는 어려우나 열화상 카메라(123)와 Radar(142), LiDAR(141)에서 획득한 정보를 함께 이용하여 객체 인식을 향상 할 수 있는 방법을 본 발명에서는 적용한다.That is, when the
구체적으로 본 발명에서는 S400 단계를 통해, Radar(142) 및 LiDAR(141)를 통해 획득된 정보를 통해 영상에서 먼저 객체 배치(localization)를 확인 한 후, 열화상 카메라(123)를 통해 획득된 정보를 기초로 이미지를 분석하여 객체(보행자, 차량, 동물)을 인식할 수 있다.More specifically, in the present invention, the localization is first confirmed in the image through the information obtained through the
즉, 본 기술에서는 원거리는 Radar(142)를 이용하고, 중거리 또는 근거리는 LiDAR(141)를 이용하여 선 판단하고, 열화상 카메라(123)를 통해 획득된 열화상 영상에 대한 이미지 분석을 통해 보행자, 차량, 동물에 대한 객체 인식을 할 수 있다.That is, in this technique, the
또한, 열화상 카메라(123)를 단독으로 이용하는 경우, 낮은 resolution의 결과가 도출될 수 있으나 Radar(142) 및 LiDAR(141)를 함께 이용하는 경우에는 낮은 resolution에서도 정확한 객체 인식이 가능해진다.In addition, when the
결국, 객체와의 거리 정보는 Radar(142) 또는 LiDAR(141)를 통해 확보하고, 객체에 대한 인식을 열화상 카메라(123)를 통해 확인을 함으로써, 차량이나 보행자 등 위험인자에 대한 판단이 가능해진다.As a result, the distance information to the object is obtained through the
다시 도 5로 복귀하여, S140 단계 및 S150 단계를 통해, 헤드 포인트와 풋 라인을 검출하고, S400 단계를 통해 LiDAR(141) 및 RADAR(142) 정보를 획득하게 되면, 이들의 조합을 통해 ROI(Region of Interest)를 생성할 수 있다(S160).5, the head point and foot line are detected through steps S140 and S150, and the
도 6d를 참조하면, 특정 객체의 헤드와 풋 라인을 검출한 구체적인 일례가 도시되어 있다.Referring to FIG. 6D, a specific example of detecting a head and a foot line of a specific object is shown.
S160 단계에서 생성되는 ROI 영역은 head 후보와 대응하는 발끝 후보의 길이에 기반하여 특정 비율(예를 들면 2:1)의 박스로 결정될 수 있다.The ROI area generated in step S160 may be determined as a box of a specific ratio (for example, 2: 1) based on the head candidate and the length of the foot candidate corresponding thereto.
도 6e를 참조하면, head 후보와 대응하는 풋 라인(발끝 후보)의 길이에 기반하여 특정 비율의 박스 형태인 ROI의 구체적인 모습이 도시되어 있다.Referring to FIG. 6E, the specific shape of the ROI is shown in a box-shaped form at a specific ratio based on the length of the head candidate and the corresponding foot line (toe candidate).
결과적으로 S110 단계 내지 S160 단계는 입력 열화상 영상을 획득하는 단계, 입력영상에 기반하여 적어도 하나 이상의 임계 값을 추정하는 단계, 추정된 임계 값에 의해 영상을 분할하는 제 1 분할 영상을 생성하는 단계, 입력영상에 대해 edge영상을 계산하는 단계, 계산된 edge영상에 기반하여 임계 값을 추정하는 단계, edge 영상으로부터 추정된 임계 값에 의해 상기 edge 영상을 분할 하는 제 2 분할 영상을 생성하는 단계, 제 1분할 영상과 상기 제 2 분할 영상에 대해 곱 연산을 수행하여 제 3 분할 영상을 생성하는 단계, 제 3 분할 영상을 Labeling하는 단계, Label 각각에 대해 head 후보를 추출하는 단계, 제 1, 2, 3 분할 영상으로부터 풋 라인(발끝 후보)을 추출하는 단계, head 후보점과 상기 풋 라인(발끝 후보)을 조합하여 ROI영역을 생성하는 단계로 구성될 수 있다.As a result, steps S110 to S160 may include obtaining an input thermal image, estimating at least one threshold based on the input image, generating a first divided image for dividing the image by the estimated threshold, Calculating an edge image for the input image, estimating a threshold value based on the calculated edge image, generating a second divided image for dividing the edge image by a threshold value estimated from the edge image, Generating a third divided image by performing a multiplication operation on the first divided image and the second divided image, labeling the third divided image, extracting a head candidate for each of the Label, Extracting a foot line (toe candidate) from the three-divided image, and combining the head candidate point and the foot line (toe candidate) to generate an ROI region.
한편, S160 단계에서 ROI를 생성함에 있어, 배니싱 라인(Vanishing line)을 추가적으로 이용할 수 있다.In step S160, a vanishing line may be additionally used in generating the ROI.
배니싱 라인(Vanishing line)은 후술하는 S180 단계에서 오인지를 줄이는 역할을 할 수도 있고, S160 단계에서 ROI 자체를 생성하기 위한 기준으로 이용될 수도 있다.The vanishing line may serve to reduce false positives in step S180 described later or may be used as a criterion for generating the ROI itself in step S160.
배니싱 라인(Vanishing line)은 보이지 않는 가상의 공간 상의 라인으로서, 보행자의 세로축 중심은 거리와 관계없이 Vanishing line을 지나간다는 가정을 기초로 이용된다.The vanishing line is an invisible virtual space line, and the center of the vertical axis of the pedestrian is used based on the assumption that it passes through the vanishing line regardless of the distance.
즉, 보행자의 크기가 다르고, 보행자와 카메라 간의 거리가 다르다는 점에서 유도되는 문제점을 해소하기 위해, 보행자의 세로축 중심은 크기 및 거리와 관계없이 Vanishing line을 지나간다는 가정을 이용하는 것이다.In other words, in order to solve the problem derived from the fact that the pedestrian size is different and the distance between the pedestrian and the camera is different, the center of the vertical axis of the pedestrian is assumed to pass the vanishing line regardless of the size and the distance.
S100 단계를 통해 획득된 적어도 1 frame 이상의 입력 영상으로부터 보행자 인식을 수행하는 경우, S160 단계에서는 상기 인식된 보행자 영역의 세로축 중심 좌표로부터 기준 vanishing line을 추정할 수 있다.If pedestrian recognition is performed from at least one frame of the input image obtained in step S100, the reference vanishing line can be estimated from the coordinates of the center of ordinate of the recognized pedestrian area in step S160.
또한, 제어부(180)는 ROI를 생성하기 이전에, 상기 기준 vanishing line을 기반으로 vanishing region을 설정하고, vanishing region에 기반하여 현재 frame의 보행자 인식을 수행할 수 있다.Also, the
이때, 미리 제어부(180)는 메모리(160)에 저장된 보행자들의 세로축 중심 좌표에 대해 vanishing region 통계치를 로딩하고, 상기 인식된 보행자들의 세로축 중심 좌표에 대해 vanishing region과의 통계치의 차를 계산하게 된다.At this time, the
제어부(180)는 상기 통계치의 차에 기반하여 미리 정해진 임계 값보다 차 값이 클 경우, 보행자에 대한 객체가 아니라고 판단하여 ROI 자체를 생성하지 않을 수 있다.If the difference value is larger than a predetermined threshold value based on the difference of the statistic, the
예를 들어, 이전의 보행자들로부터 감지(디텍트)된 객체들의 포인트를 누적하여 가우시안 분포의 통계치를 계속적으로 누적할 수 있고, 누적된 정보는 확률모델로서 메모리(160)에 저장될 수 있다.For example, the points of objects detected from previous pedestrians can be accumulated to continuously accumulate the statistics of the Gaussian distribution, and the accumulated information can be stored in the
ROI는 사람(보행자)을 둘러싸는 박스로 취급할 수 있는데, 박스의 센터가 상기 확률모델과의 관계에서 미리 설정된 차이인 0.5 이하인 경우에만 ROI로 생성하게 되는 것이다.The ROI can be treated as a box that surrounds a person (pedestrian), and is created as an ROI only when the center of the box is 0.5 or less, which is a predetermined difference in relation to the probability model.
S160 단계에서 배니싱 라인(Vanishing line)을 통해 생성하는 ROI의 개수가 적어지게 되면, 결국 제어부(180)가 분산 처리하는 과정을 효율적으로 줄일 수 있게 된다.If the number of ROIs generated through the vanishing line is decreased in step S160, the process of distributing the ROI by the
S160 단계에서 ROI 생성에 있어, 이전 프레임에서 추출된 헤드 포인트 정보를 이용하는 방법도 적용될 수 있다.In the ROI generation in step S160, a method of using the head point information extracted from the previous frame may also be applied.
즉, 이전 프레임에서 헤드 포인트로 추출된 경우, 다음 프레임에서의 헤드 포인트 위치는 제어부(180)에 의해 예상될 수 있다.That is, when extracted from the previous frame to the head point, the position of the head point in the next frame can be predicted by the
따라서 다음 프레임에서는 예상된 헤드 포인트 지점과 대응되는 특정 영역을 헤드 포인트로 인정하고, 나머지는 이용하지 않고, 기존의 정보를 이용함으로써, ROI 생성에 이용되는 계산과정을 축소시키는 것도 가능하다.Therefore, in the next frame, it is also possible to reduce the calculation process used for ROI generation by using the existing information without recognizing the specific region corresponding to the expected head point point as a head point and using the rest as the head point.
S160 단계가 진행되면, N개의 ROI가 생성될 수 있다.When step S160 is performed, N ROIs can be generated.
제어부(180)는 생성된 N개의 ROI를 병렬처리를 위해 모으고, 기계학습(Machine Learning)에 따라 보행자 분류를 수행한다.The
즉, 제어부(180)는 보행자에 대응되는 복수의 분류자(classifier)를 메모리(160)에 미리 저장하고, 상기 N개의 ROI에 포함된 보행자 후보 객체 중 저장된 복수의 분류자(classifier)에 대응되는 객체 이미지만을 추출하게 된다.That is, the
도 7은 도 5에서 설명한 과정들 중 기계학습(Machine Learning)에 따른 보행자 분류의 구체적인 과정을 설명하는 도면이다.FIG. 7 is a view for explaining a concrete process of classifying a pedestrian according to machine learning among the processes described in FIG. 5. FIG.
도 7을 참조하면, 메모리(160)에 저장된 트레이닝 데이터 셋이 제어부(180)에 의해 로딩되고, 제어부(180)는 N개의 ROI에 포함된 보행자 후보 영상과 로딩된 복수의 분류자(classifier)를 서로 비교하여, 대응되는 객체들만을 추출하게 된다.Referring to FIG. 7, the training data set stored in the
S170 단계에서 서로 다른 기준의 복수의 분류자(classifier)를 이용하여 오인지를 제거할 수도 있다.In step S170, a plurality of classifiers having different criteria may be used to remove false positives.
도 8a 및 도 8b는 도 5에서 설명한 과정들 중 Multi-Classifier를 이용한 오인지 제거 알고리즘 과정을 구체적으로 설명하기 위한 도면이다.8A and 8B are diagrams for explaining the procedure of the false recognition algorithm using the multi-classifier among the processes described in FIG.
도 8a 및 도 8b를 참조하면, 서로 다른 분류자(classifier)를 적용하면 오인지의 양상이 서로 다르다는 것을 확인할 수 있다.Referring to FIGS. 8A and 8B, when different classifiers are applied, it can be seen that the aspects of false positives are different from each other.
도 8a 및 도 8b에서 빨간 박스는 LBP-Cascade 방법으로 추정한 보행자이고, 파란 박스는 Haar-Cascade 방법으로 추정한 보행자이며, 녹색 박스는 LBP-Haar가 동시에 추정한 보행자를 나타낸다.8A and 8B, the red box is a pedestrian estimated by the LBP-Cascade method, the blue box is a pedestrian estimated by the Haar-Cascade method, and the green box represents a pedestrian estimated by LBP-Haar at the same time.
따라서 서로 다른 복수의 분류자(classifier)를 적용하여 누락되는 부분을 상호 보완하는 것이 가능하다.Therefore, it is possible to complement the missing parts by applying a plurality of different classifiers.
S170 단계 이후, 제어부(180)는 헤드 포인트 기반 트래킹(Tracking) 단계를 수행한다(S180).After step S170, the
S180 단계에서 제어부(180)는 Particle Filter, Mean Shift, Kalman Filter 등을 이용할 수 있다.In step S180, the
도 9a 및 도 9b는 도 5에서 설명한 과정들 중 Head Point 기반 Tracking 과정을 구체적으로 설명하기 위한 도면이다.FIGS. 9A and 9B are views for specifically explaining the HeadPoint-based Tracking process among the processes described in FIG.
도 9a는 헤드 포인트 기반 트래킹(Tracking) 단계(S180)을 구체화한 순서도로서, 제어부(180)는 먼저, Motion Vector를 추출한다(S181).FIG. 9A is a flowchart illustrating a head point-based tracking step (S180). The
이후, 제어부(180)는 Tracking 후보에 대해서 Histogram을 비교하는 단계(S182)를 수행한다.Thereafter, the
S182 단계 이후에 제어부(180)는 Best Matching을 결정(S183)하고, 최종적으로 Tracking 여부를 판단하게 된다(S184).After step S182, the
도 9b는 제어부(180)가 헤드 포인트를 기초로 트래킹(Tracking)하는 구체적인 모습을 도시한 것이다.FIG. 9B shows a concrete state in which the
이러한 헤드 포인트 기초 트래킹을 통해, 제어부(180)가 수행하는 계산량을 획기적으로 줄일 수 있다.With this headpoint basis tracking, the amount of calculation performed by the
S180 단계에서의 트래킹은 2개의 목적을 달성하기 위함일 수 있다.The tracking in step S180 may be for achieving two purposes.
먼저, 트래킹은 디스플레이부(151)를 통해 표시되는 영상이 끊김이 없이 표시되기 위해 이용된다.First, tracking is used to display images displayed through the
즉, 제어부(180)를 통한 보행자의 인식이 연속적으로 이루어지지 못하는 경우, 보행자는 특정 프레임에서는 등장하고, 다름 프레임에서는 등장하지 못하여 깜빡 거리는 현상이 나타날 수 있다.That is, when the pedestrian recognition through the
따라서 S180 단계에서의 트래킹을 통해 특정 프레임에서 보행자가 인식되지 않더라도 이전 프레임에서의 보행자의 내용을 추적하여 디스플레이부(151) 상에 표시함으로써, 스무스(smooth)한 영상을 구현해 낼 수 있다.Therefore, even if the pedestrian is not recognized in the specific frame through tracking in step S180, the contents of the pedestrian in the previous frame are tracked and displayed on the
이때, 원하는 객체가 아닌 오인지의 경우에는 특정 프레임에서만 유일하게 존재하고 다름 프레임들에서는 계속적으로 등장하지 않게 된다.In this case, if the object is not a desired object, it exists only in a specific frame, and does not appear continuously in different frames.
따라서 이러한 대상은 트래킹을 통해 오인지로 취급하고, 디스플레이부(151) 상에 표시하지 않는다.Therefore, such an object is treated as an error through tracking, and is not displayed on the
원하는 객체인 보행자는 몇 개의 프레임에서는 감지가 되지 않을 수 있으나 대부분의 프레임에서는 감지가 되므로, 제어부(180)는 이 경우에는 트래킹을 통해 디스플레이부(151) 상에 연속적으로 객체가 표시되도록 제어할 수 있다.The pedestrian, which is a desired object, may not be sensed in a few frames but is sensed in most frames, so that the
다음으로, S180 단계의 목적은 오인지 제거를 위한 것이다.Next, the purpose of step S180 is to remove the cognitive impairment.
S160 단계와 마찬가지로 S180 단계에서도 오인지 제거를 위해 배니싱 라인(Vanishing line)을 이용할 수 있다.As in step S160, a vanishing line can also be used to remove false positives in step S180.
전술한 것과 같이, 배니싱 라인(Vanishing line)은 보이지 않는 가상의 공간 상의 라인으로서, 보행자의 세로축 중심은 거리와 관계없이 Vanishing line을 지나간다는 가정을 기초로 이용된다. 즉, 보행자의 크기가 다르고, 보행자와 카메라 간의 거리가 다르다는 점에서 유도되는 문제점을 해소하기 위해, 보행자의 세로축 중심은 크기 및 거리와 관계없이 Vanishing line을 지나간다는 가정을 이용한다.As described above, the vanishing line is an invisible virtual space line, and the center of the vertical axis of the pedestrian is used based on the assumption that it passes through the vanishing line regardless of the distance. In other words, the pedestrian's center of the vertical axis is assumed to pass through the vanishing line regardless of its size and distance in order to solve the problem that the pedestrian size is different and the distance between the pedestrian and the camera is different.
획득된 적어도 1 frame 이상의 입력 영상으로부터 보행자 인식을 수행하는 경우, S180 단계에서는 상기 인식된 보행자 영역의 세로축 중심 좌표로부터 기준 vanishing line을 추정할 수 있다.When the pedestrian recognition is performed from the obtained input image of at least one frame, in step S180, the reference vanishing line can be estimated from the coordinates of the vertical axis of the recognized pedestrian area.
또한, 제어부(180)는 기준 vanishing line을 기반으로 vanishing region을 설정하고, vanishing region에 기반하여 현재 frame의 보행자 인식을 수행할 수 있다.In addition, the
이때, 미리 제어부(180)는 메모리(160)에 저장된 보행자들의 세로축 중심 좌표에 대해 vanishing region 통계치를 로딩하고, 상기 인식된 보행자들의 세로축 중심 좌표에 대해 vanishing region과의 통계치의 차를 계산하게 된다.At this time, the
제어부(180)는 상기 통계치의 차에 기반하여 미리 정해진 임계 값보다 차 값이 클 경우, 보행자에 대한 객체가 아니라고 판단하여 오인지로 취급하고 당해 객체 정보는 버리게 된다.If the difference value is larger than a predetermined threshold value based on the difference of the statistical values, the
S180 단계의 오인지 제거 목적을 위해 추가적으로 S150 단계에서 획득한 풋 라인 정보를 이용할 수도 있다.The foot line information obtained in step S150 may be used for the purpose of eliminating the observer in step S180.
즉, ROI로 인식된 박스를 기준으로 풋 라인을 잡고, 보행자가 아닌 경우에는 박스를 기준으로 풋라인의 형태 변화가 크므로, 이를 통해 당해 ROI를 오인지로 취급하고 제거할 수도 있다.That is, if the foot line is held based on the box recognized as the ROI, and if the pedestrian is not the pedestrian, the shape of the foot line changes greatly with respect to the box, so that the ROI can be treated as false and can be removed.
이후, 제어부(180)는 최종적으로 추출된 열화상 정보가 디스플레이 부(151)를 통해 출력되도록 제어할 수 있다(S190).Thereafter, the
제 2 방법Second Method
한편, 도 5의 방법 이외에도 다른 순서에 따라 보행자에 대한 열화상 정보를 추출하는 방법이 적용될 수도 있다.In addition to the method of FIG. 5, a method of extracting thermal image information for a pedestrian may be applied in a different order.
도 10은 본 발명에 따른 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 일례를 설명하는 순서도이다.10 is a flowchart for explaining another example in which the FIR camera senses thermal energy of an object through a night vision system according to the present invention and displays information according to a specific algorithm.
도 10에서 S200 단계 및 S240 단계 내지 S280 단계는 도 5의 S100 단계 및 S150 단계 내지 S190 단계 각각과 대응되므로, 명세서의 간명화를 위해 반복적인 설명은 생략한다.In FIG. 10, steps S200 and S240 to S280 correspond to steps S100, S150, and S190 in FIG. 5, respectively, and therefore, a repetitive description thereof will be omitted for simplicity.
도 10에서의 방법은 S210 단계 내지 S230 단계에서 도 5의 방법과 차이점이 있다.The method in FIG. 10 differs from the method in FIG. 5 in steps S210 to S230.
즉, 도 10을 참조하면, 도 5에서의 방법과 달리 S200 단계가 진행되면, 제어부(180)는 높은 쓰레스홀드(Threshold)와 낮은 쓰레스홀드를 구분하지 않고, 하나의 쓰레스홀드 값만을 이용하여 이미지를 추출한다(S210).Referring to FIG. 10, in contrast to the method shown in FIG. 5, when the step S200 is performed, the
여기서 쓰레스홀드 값(임계값)은 영상의 평균, 표준편차, 히스토그램 등을 이용하여 통계적으로 추정하거나, 사용자가 임의의 값을 입력하는 것으로 설정 가능하다.Here, the threshold value (threshold value) can be statistically estimated using the average, standard deviation, histogram, etc. of the image, or can be set by the user to input an arbitrary value.
이는 보통 사람(보행자)의 밝기 값은 주변 배경보다 밝다는 사실을 근거로 1차적으로 보행자를 추출하기 위한 방법을 적용한 것이다.This is based on the fact that the brightness value of the ordinary person (pedestrian) is brighter than the surrounding background.
이때, S210 단계에서는 타겟팅 하는 보행자 등 이외에 불필요한 노이즈들이 빈번하게 포함되어 추출될 수 있다.At this time, in step S210, unnecessary noise other than the targeted pedestrian may be frequently included and extracted.
따라서 이러한 문제점을 해소하기 위해, S200 단계에서 인풋된 이미지를 에지(edge)를 기준으로 추출하는 S220 단계를 함께 수행한다.Accordingly, in order to solve this problem, step S220 is performed in which the input image is extracted on the basis of an edge.
이는, 사람(보행자)의 경우, 신체 특성상 버티컬(VERTICAL) 에지 외곽성분 즉, 세로의 에지 외곽 성분이 강하게 나타나므로, 이를 이용하여 S210 단계에서 획득된 불필요한 노이즈를 제거하기 위한 것이다.This is because, in the case of a person (pedestrian), the outer edge component of the vertical edge, that is, the edge edge component of the vertical edge, is strongly displayed in terms of body characteristics, and thus unnecessary noise obtained in step S210 is removed by using this.
edge 영상은 sobel filter, canny edge detector, laplacian filter로부터 추정할 수 있다.The edge image can be estimated from the sobel filter, the canny edge detector, and the laplacian filter.
제어부(180)는 S210 단계에서 쓰레스홀드(Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하고, S220 단계에서의 에지(edge)를 기준으로 추출된 이미지를 서로 곱하게 된다.The
따라서 S210 단계에서 쓰레스홀드(Threshold)를 넘겨 객체로 추출이 되더라도 버티컬 에지 성분이 없는 객체는 사라지게 된다.Therefore, even though the object is extracted by passing the threshold in step S210, the object having no vertical edge component disappears.
또한, S210 단계와 S220 단계를 곱하는 것은 버티컬 에지 성분을 가진 객체를 추출하는 것 이외에 완전하게 추출되지 못한 객체를 보완하는 마스킹 기능이 수행될 수도 있다.The step S210 and the step S220 may be performed by extracting an object having a vertical edge component and performing a masking function to complement an object that has not been completely extracted.
즉, S210 단계에서 보행자가 완전하게 하나의 연결된 밝은 열 이미지로 추출되는 것이 아니라 중간이 끊긴 형상으로 추출될 수 있다.That is, in step S210, the pedestrian may not be extracted as a single bright light image, but may be extracted as a broken shape.
이때, S220 단계에서의 에지 성분이 추출된 요소를 S210 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹이 수행될 수 있다.At this time, by applying the extracted element of the edge component in step S220 to step S210, the masking in which the broken space is filled can be performed.
제어부는 S210 단계와 S220 단계를 순차적으로 수행할 수도 있고, 각각의 단계를 병렬적으로 동시에 수행하는 것도 가능하다.The control unit may perform steps S210 and S220 in sequence, or may perform the respective steps in parallel at the same time.
S210 단계와 S220 단계에서는 전술한 마스킹 작업과 유사하게, 레이블링(Labeling) 작업을 추가적으로 수행할 수 있다.In steps S210 and S220, a labeling operation may be additionally performed similarly to the above-described masking operation.
레이블링(Labeling) 작업은 근접하게 이격 되어 떨어져 있는 덩어리, 세그먼트들을 붙여주는 작업으로서, 같은 객체이나 열에너지의 명확한 획득 실패로 인해 분리되어 있는 객체를 묶어주는 작업으로 볼 수 있다.Labeling work can be seen as a task of sticking closely spaced chunks or segments, which tie together objects that are separated by the same object or thermal energy failing to acquire clearly.
S210 단계 및 S220 단계 이후, 곱한 정보를 통해 헤드 포인트 정보를 추출하는 단계(S230)가 수행된다.After steps S210 and S220, the head point information is extracted through the multiplied information (S230).
S230 단계에서는 S210 단계에서 추출된 이미지와 S220 단계가 동시에 적용되어 추출된 이미지에서 객체의 머리(헤드) 포인트를 추출하게 된다.In step S230, the image extracted in step S210 and the step S220 are simultaneously applied to extract the head point of the object from the extracted image.
즉, 추출한 이미지 중 밝은 부분이 끝나는 최상단 영역을 헤드 포인트 영역으로 결정할 수 있다.That is, the uppermost region where the bright portion ends of the extracted image can be determined as the head point region.
여기서 Head 포인트 추출은 skeletonization(세선화), local maximum 추출, 학습을 통한 head 인식 등에 의해 수행될 수 있다.Head point extraction can be performed by skeletonization, local maximum extraction, head recognition through learning, and so on.
한편, 추후에 있을 ROI(Region of Interest)의 생성에 있어, 계산량을 효율적으로 줄이기 위해, 본 발명에서는 LiDAR(141)는 차량의 전방 등에 위치한 객체를 인식한 정보와 RADAR(142)가 차량의 전방 등에 위치한 객체를 인식한 정보를 획득하는 단계(S400)가 추가될 수 있다.In order to efficiently reduce the amount of computation in future generation of ROIs, the
즉, 열화상 카메라(123)와 Radar(142), LiDAR(141)를 별도로 이용하는 경우에는, 객체 인식에 따른 100% 의 효과를 거두기는 어려우나 열화상 카메라(123)와 Radar(142), LiDAR(141)에서 획득한 정보를 함께 이용하여 객체 인식을 향상 할 수 있는 방법을 본 발명에서는 적용한다.That is, when the
구체적으로 본 발명에서는 S400 단계를 통해, Radar(142) 및 LiDAR(141)를 통해 획득된 정보를 통해 영상에서 먼저 객체 배치(localization)를 확인 한 후, 열화상 카메라(123)를 통해 획득된 정보를 기초로 이미지를 분석하여 객체(보행자, 차량, 동물)을 인식할 수 있다.More specifically, in the present invention, the localization is first confirmed in the image through the information obtained through the
즉, 본 기술에서는 원거리는 Radar(142)를 이용하고, 중거리 또는 근거리는 LiDAR(141)를 이용하여 선 판단하고, 열화상 카메라(123)를 통해 획득된 열화상 영상에 대한 이미지 분석을 통해 보행자, 차량, 동물에 대한 객체 인식을 할 수 있다.That is, in this technique, the
또한, 열화상 카메라(123)를 단독으로 이용하는 경우, 낮은 resolution의 결과가 도출될 수 있으나 Radar(142) 및 LiDAR(141)를 함께 이용하는 경우에는 낮은 resolution에서도 정확한 객체 인식이 가능해진다.In addition, when the
결국, 객체와의 거리 정보는 Radar(142) 또는 LiDAR(141)를 통해 확보하고, 객체에 대한 인식을 열화상 카메라(123)를 통해 확인을 함으로써, 차량이나 보행자 등 위험인자에 대한 판단이 가능해진다.As a result, the distance information to the object is obtained through the
다시 도 10으로 복귀하여, 이후, S240 단계 내지 S280 단계는 도 5에서의 S150 단계 내지 S190 단계 각각에 대응되어 진행된다.The process returns to FIG. 10, and then steps S240 to S280 are performed corresponding to steps S150 to S190 in FIG.
도 11은 전술한 알고리즘에 따라 나이트 비전 시스템을 적용한 결과를 도시한 것이다.11 shows a result of applying the night vision system according to the above-described algorithm.
도 11의 (a)는 일반적인 카메라(121)를 통해 획득된 영상으로서, 안개로 인해 보행자가 보이지 않는 구체적인 모습을 도시하고 있다.11 (a) shows a specific image in which a pedestrian is not seen due to fog, which is an image obtained through a
이에 반해, 본 발명이 제안하는 알고리즘에 따른 원적외선 카메라(123)의 영상은 4명의 보행자를 인식하고, 인식된 결과를 운전자에게 안내할 수 있게 된다.On the other hand, the image of the far-
한편, 도 12는 본 발명에 따른 나이트 비전 시스템을 통해, FIR 카메라가 물체의 열에너지를 감지하여 특정 알고리즘(Algorithm)에 따라 정보를 디스플레이 하는 다른 과정을 설명하는 순서도이다.12 is a flowchart illustrating another process of displaying information according to a specific algorithm by sensing thermal energy of an object through an FIR camera through a night vision system according to the present invention.
도 12에서의 S300 내지 S390 단계는 도 5의 S100 내지 S190 각각의 단계에 대응되나 S310, S320 및 S340 단계에서 차이가 있다.Steps S300 to S390 in FIG. 12 correspond to steps S100 to S190 in FIG. 5, respectively, but differ in steps S310, S320, and S340.
도 12를 참조하면, S310 단계는 S330 단계보다는 빈번하지 않지만 타겟팅 하는 보행자 등 이외에 불필요한 포함되어 추출될 수 있다.Referring to FIG. 12, the step S310 may be unnecessarily included in the target pedestrian other than the step S330.
따라서 도 12의 순서도에서는 S310 단계에 대해서도 이러한 문제점을 해소하기 위해, S300 단계에서 인풋된 이미지를 에지(edge)를 기준으로 추출하는 S320 단계를 함께 수행할 수 있다.Therefore, in order to solve this problem in step S310 in the flowchart of FIG. 12, step S320 of extracting the input image based on an edge in step S300 may be performed together.
이는, 사람(보행자)의 경우, 신체 특성상 버티컬(VERTICAL) 에지 외곽성분 즉, 세로의 에지 외곽 성분이 강하게 나타나므로, 이를 이용하여 S310 단계에서 획득된 불필요한 노이즈를 제거하기 위한 것이다.This is because, in the case of a person (pedestrian), the outer edge component of the vertical edge, that is, the edge outer edge component of the vertical edge, is strongly displayed in terms of body characteristics, and thus unnecessary noise obtained in step S310 is removed using the extracted edge component.
여기서 edge 영상은 sobel filter, canny edge detector, laplacian filter로부터 추정할 수 있다.Here, the edge image can be estimated from the sobel filter, the canny edge detector, and the laplacian filter.
제어부(180)는 S310 단계에서 높은 쓰레스홀드(Threshold) 상에 밝게 올라오는 객체 이미지를 모두 추출하고, S320 단계에서의 에지(edge)를 기준으로 추출된 이미지를 서로 곱하게 된다.The
따라서 S310 단계에서 높은 쓰레스홀드(Threshold)를 넘겨 객체로 추출이 되더라도 버티컬 에지 성분이 없는 객체는 사라지게 된다.Therefore, in step S310, an object having no vertical edge component disappears even if it is extracted as an object by passing a high threshold value.
또한, S310 단계와 S320 단계를 곱하는 것은 버티컬 에지 성분을 가진 객체를 추출하는 것 이외에 완전하게 추출되지 못한 객체를 보완하는 마스킹 기능이 수행될 수도 있다.Multiplication of steps S310 and S320 may be performed not only for extracting an object having a vertical edge component but also for masking an object that has not been completely extracted.
즉, S310 단계에서 보행자가 완전하게 하나의 연결된 밝은 열 이미지로 추출되는 것이 아니라 중간이 끊긴 형상으로 추출될 수 있다.That is, in step S310, the pedestrian may not be extracted as a single bright light image, but may be extracted as a broken shape.
이때, S320 단계에서의 에지 성분이 추출된 요소를 S310 단계에 적용함으로써, 상기 끊어진 공간이 채워지는 마스킹이 수행될 수 있다.At this time, by applying the extracted element of the edge component in step S320 to step S310, masking that the broken space is filled can be performed.
또한, 도 12의 실시예에서도, ROI(Region of Interest)의 생성에 있어, 계산량을 효율적으로 줄이기 위해, 본 발명에서는 LiDAR(141)는 차량의 전방 등에 위치한 객체를 인식한 정보와 RADAR(142)가 차량의 전방 등에 위치한 객체를 인식한 정보를 획득하는 단계(S400)가 추가될 수 있다.In the embodiment of FIG. 12, in order to efficiently reduce the amount of calculation in the generation of ROI (region of interest), in the present invention,
즉, 열화상 카메라(123)와 Radar(142), LiDAR(141)를 별도로 이용하는 경우에는, 객체 인식에 따른 100% 의 효과를 거두기는 어려우나 열화상 카메라(123)와 Radar(142), LiDAR(141)에서 획득한 정보를 함께 이용하여 객체 인식을 향상 할 수 있는 방법을 본 발명에서는 적용한다.That is, when the
구체적으로 본 발명에서는 S400 단계를 통해, Radar(142) 및 LiDAR(141)를 통해 획득된 정보를 통해 영상에서 먼저 객체 배치(localization)를 확인 한 후, 열화상 카메라(123)를 통해 획득된 정보를 기초로 이미지를 분석하여 객체(보행자, 차량, 동물)을 인식할 수 있다.More specifically, in the present invention, the localization is first confirmed in the image through the information obtained through the
즉, 본 기술에서는 원거리는 Radar(142)를 이용하고, 중거리 또는 근거리는 LiDAR(141)를 이용하여 선 판단하고, 열화상 카메라(123)를 통해 획득된 열화상 영상에 대한 이미지 분석을 통해 보행자, 차량, 동물에 대한 객체 인식을 할 수 있다.That is, in this technique, the
또한, 열화상 카메라(123)를 단독으로 이용하는 경우, 낮은 resolution의 결과가 도출될 수 있으나 Radar(142) 및 LiDAR(141)를 함께 이용하는 경우에는 낮은 resolution에서도 정확한 객체 인식이 가능해진다.In addition, when the
결국, 객체와의 거리 정보는 Radar(142) 또는 LiDAR(141)를 통해 확보하고, 객체에 대한 인식을 열화상 카메라(123)를 통해 확인을 함으로써, 차량이나 보행자 등 위험인자에 대한 판단이 가능해진다.As a result, the distance information to the object is obtained through the
이후, S360 단계에서는 검출된 헤드 포인트와 풋 라인과 S400 단계를 통해 획득된 LiDAR(141) 및 RADAR(142) 정보의 조합을 통해 ROI(Region of Interest)를 생성할 수 있다(S360).In operation S360, a region of interest (ROI) may be generated through a combination of the detected head point and the foot line and the
전술한 본 발명의 구성 및 방법이 적용되는 경우, 야간 운전 시 전조등에 의해 확보되는 운전자의 시야범위를 벗어나 운전자의 눈으로 볼 수 없는 전방의 차량, 보행자 및 동물 등을 감지하여 운전자에게 더 많은 전방 영상 정보를 제공하기 위한 나이트 비전 방법 및 시스템이 사용자에게 제공될 수 있다.When the structure and method of the present invention described above are applied, it is possible to detect a forward vehicle, a pedestrian, and an animal that are out of sight of the driver and can not be seen by the driver's eyes, A night vision method and system for providing image information can be provided to the user.
즉, 본 발명은 차량에 설치된 FIR(Far Infra-Red) 카메라가 물체의 열에너지를 감지하면, 디지털 영상 신호로 변환하고, 변환된 영상 신호를 특정 알고리즘(Algorithm)을 통해 분석, 수정 및 보완하여 디스플레이에 표시하거나 알람을 출력하여 운전자가 사전에 전방 상황을 알 수 있도록 지원하는 나이트 비전 방법 및 시스템을 사용자에게 제공할 수 있다.That is, according to the present invention, when a Far Infra-Red (FIR) camera installed in a vehicle senses heat energy of an object, it converts it into a digital image signal, analyzes the converted image signal through a specific algorithm, A night vision method and system can be provided to the user to support the driver to know the forward situation in advance.
또한, 본 발명은 라이다 및 레이더를 통해 획득된 정보를 이용하여 ROI(Region of Interest)의 생성에 있어 연산량을 대폭 감소시키고, 더 높은 정확도를 갖는 전방 정보를 운전자가 사전에 알 수 있도록 하는 나이트 비전 방법 및 시스템을 사용자에게 제공할 수 있다.The present invention also provides a method and apparatus for reducing the amount of computation in the generation of a region of interest (ROI) using information obtained through radar and radar, Vision method and system to the user.
상술한 본 발명의 실시 예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시 예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. The above-described embodiments of the present invention can be implemented by various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.
하드웨어에 의한 구현의 경우, 본 발명의 실시 예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention may be implemented in one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices Field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시 예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, a procedure, or a function for performing the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various well-known means.
상술한 바와 같이 개시된 본 발명의 바람직한 실시 예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시 예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시 예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The foregoing detailed description of preferred embodiments of the invention disclosed herein is provided to enable any person skilled in the art to make and use the present invention. While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. For example, those skilled in the art can utilize each of the configurations described in the above-described embodiments in a combination of them. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation in the claims may be combined to form an embodiment or be included in a new claim by amendment after the filing.
Claims (11)
상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하는 제 2 단계;
상기 열에너지 정보에서 버티컬 에지(Vertical Edgy)를 추출하는 제 3 단계;
상기 제 1 열에너지 정보 중 상기 추출된 버티컬 에지에 맵핑(mapping) 되는 제 2 열에너지 정보를 추출하는 제 4 단계;
상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하는 제 5 단계;
상기 일단과 타단 포인트를 이용하여 ROI(Region of Interest)를 생성하는 제 6 단계;
식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하는 제 7 단계;
상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8 단계; 및
상기 추출한 ROI를 디스플레이부를 통해 표시하는 제 9 단계; 를 포함하되,
상기 제 1 단계 내지 제 5 단계 사이에는,
LiDAR(light detection and ranging) 및 RADAR(Radio Detecting And Ranging) 중 적어도 하나를 통해 상기 적어도 하나의 객체에 대한 추가정보를 획득하는 제 10 단계; 를 더 포함하고,
상기 제 6 단계에서는,
상기 추가정보와 상기 일단과 타단 포인트를 함께 이용하여 ROI를 생성하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.A first step of acquiring thermal energy information for at least one object through a Far Infra-Red (FIR) camera;
A second step of extracting first thermal energy information satisfying a predetermined condition among the thermal energy information;
A third step of extracting a vertical edge from the thermal energy information;
A fourth step of extracting second thermal energy information mapped to the extracted vertical edge of the first thermal energy information;
A fifth step of extracting a vertical one end point and another end point of the object included in the second thermal energy information;
A sixth step of generating a region of interest (ROI) using the one end and the other end;
A seventh step of comparing a plurality of classifiers related to a first object to be identified with an object included in the ROI;
An eighth step of extracting an ROI corresponding to at least one of the plurality of classifiers in the ROI; And
Displaying the extracted ROI through a display unit; , ≪ / RTI &
Between the first step and the fifth step,
A step 10) of obtaining additional information about the at least one object through at least one of light detection and ranging (LiDAR) and radio detaching and ranging (RADAR); Further comprising:
In the sixth step,
And the ROI is generated using the additional information and the one end and the other end point together.
상기 제 6 단계에서는,
상기 추가정보를 이용하여 상기 적어도 하나의 객체의 배치를 확인하고,
상기 제 5 단계에서 추출된 일단과 타단 포인트 중 상기 확인된 배치에 대응되는 일단과 타단 포인트만을 이용하여 ROI를 생성하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.The method according to claim 1,
In the sixth step,
Confirm the placement of the at least one object using the additional information,
Wherein the ROI is generated using only one end point and the other end point corresponding to the identified arrangement among the one end point and the other end point extracted in the fifth step.
상기 LiDAR는 상기 FIR 카메라로부터 미리 설정된 이격 거리 이내에 위치하는 상기 적어도 하나의 객체에 대한 정보를 획득하고,
상기 RADAR는 상기 FIR 카메라로부터 미리 설정된 이격 거리를 벗어나 위치하는 상기 적어도 하나의 객체에 대한 정보를 획득하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.The method according to claim 1,
Wherein the LiDAR obtains information about the at least one object located within a preset distance from the FIR camera,
Wherein the RADAR obtains information on the at least one object located outside a preset separation distance from the FIR camera.
상기 미리 설정된 조건은 미리 설정된 수치 이상의 밝기 값을 갖는 조건인 것을 특징으로 하는 나이트 비전 정보 표시 방법.The method according to claim 1,
Wherein the preset condition is a condition having a brightness value equal to or greater than a predetermined value.
상기 미리 설정된 조건은 제 1 조건 및 제 2 조건을 포함하고,
상기 제 1 조건의 밝기 값은 상기 제 2 조건의 밝기 값보다 크며,
상기 제 4 단계는 상기 제 2 조건을 만족하는 제 1 열에너지 정보에 적용되고,
상기 제 5 단계는 상기 제 1 조건을 만족하는 제 1 열에너지 정보와 상기 제 2 에너지 정보를 이용하여 수행되는 것을 특징으로 하는 나이트 비전 정보 표시 방법.5. The method of claim 4,
Wherein the predetermined condition includes a first condition and a second condition,
Wherein the brightness value of the first condition is greater than the brightness value of the second condition,
Wherein the fourth step is applied to the first thermal energy information satisfying the second condition,
Wherein the fifth step is performed using the first thermal energy information and the second energy information satisfying the first condition.
상기 제 2 단계와 제 3 단계는 동시에 수행되는 것을 특징으로 하는 나이트 비전 정보 표시 방법.The method according to claim 1,
Wherein the second step and the third step are simultaneously performed.
상기 제 8 단계 및 제 9 단계 사이에는,
상기 일단과 타단 포인트 중 적어도 하나를 이용하여 상기 추출한 ROI에 포함된 객체를 트래킹(Tracking)하는 제 8-1 단계; 를 더 포함하고,
상기 제 9 단계에서는, 상기 제 8-1 단계에서 트래킹하는 정보를 표시하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.The method according to claim 1,
Between the eighth step and the ninth step,
An eighth step of tracking an object included in the extracted ROI using at least one of the one end and the other end; Further comprising:
And the ninth step displays the information to be tracked in the eighth step.
상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고,
상기 반복 수행되는 제 6 단계는,
이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 6-1 단계;
상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 6-2 단계;
상기 제 1 객체와 관련된 배니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 6-3 단계; 및
상기 배니싱 영역 통계 정보와 상기 배니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 일단과 타단 포인트를 이용하여 ROI를 생성하는 제 6-4 단계; 를 포함하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.The method according to claim 1,
The first to ninth steps are repeatedly performed,
The sixth step, which is repeatedly performed,
A sixth step of setting a vanishing line around the vertical axis of the object included in the extracted ROI from the eighth step performed previously;
(6-2) setting a vanishing region based on the set vanishing line;
6-3) comparing the vanishing area statistical information related to the first object with the vanishing area; And
If the difference between the vanishing region statistical information and the vanishing region is within a preset range, generating an ROI using the one end and the other end; And displaying the night vision information.
상기 제 1 단계 내지 제 9 단계는 반복하여 수행되고,
상기 반복 수행되는 제 8 단계는,
이전에 수행된 상기 제 8 단계로부터 상기 추출한 ROI에 포함된 객체의 세로축을 중심으로 배니싱 라인(vanishing line)을 설정하는 제 8-2 단계;
상기 설정한 배니싱 라인을 기초로 배니싱 영역(vanishing region)을 설정하는 제 8-3 단계;
상기 제 1 객체와 관련된 배니싱 영역 통계 정보와 상기 배니싱 영역을 비교하는 제 8-4 단계; 및
상기 배니싱 영역 통계 정보와 상기 배니싱 영역의 차이가 미리 설정된 범위 이내인 경우, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제 8-5 단계; 를 더 포함하는 것을 특징으로 하는 나이트 비전 정보 표시 방법.The method according to claim 1,
The first to ninth steps are repeatedly performed,
In the eighth step,
An 8-2 step of setting a vanishing line around the vertical axis of the object included in the extracted ROI from the eighth step performed previously;
8-3) setting a vanishing region on the basis of the set vanishing line;
Comparing the vanishing area statistical information associated with the first object and the vanishing area; And
Extracting an ROI corresponding to at least one of the plurality of classifiers from the ROI when the difference between the vanishing region statistical information and the vanishing region is within a preset range; And displaying the night vision information.
상기 제 1 객체는 전방의 차량, 보행자 및 동물을 포함하고,
상기 제 1 단계에서 상기 열에너지 정보는 야간에 획득되는 것을 특징으로 하는 나이트 비전 정보 표시 방법.The method according to claim 1,
Wherein the first object comprises a forward vehicle, a pedestrian and an animal,
Wherein the thermal energy information is obtained at night in the first step.
상기 적어도 하나의 객체에 대한 추가정보를 획득하는 LiDAR(light detection and ranging) 및 RADAR(Radio Detecting And Ranging);
상기 열에너지 정보 중 미리 설정된 조건을 만족하는 제 1 열에너지 정보를 추출하고, 상기 열에너지 정보에서 버티컬 엣지(Vertical Edgy)를 추출하며, 상기 제 1 열에너지 정보 중 상기 추출된 버티컬 엣지에 맵핑(mapping) 되는 제 2 열에너지 정보를 추출하고, 상기 제 2 열에너지 정보에 포함된 객체의 버티컬 일단과 타단 포인트를 추출하며, 상기 추가정보와 상기 일단과 타단 포인트를 함께 이용하여 ROI를 생성하고, 식별하고자 하는 제 1 객체와 관련된 복수의 분류자(classifier)와 상기 ROI에 포함된 객체를 비교하며, 상기 ROI에서 상기 복수의 분류자 중 적어도 하나에 대응되는 ROI를 추출하는 제어부; 및
상기 추출한 ROI를 표시하는 디스플레이 부; 를 포함하는 나이트 비전 정보 표시 장치.A Far Infra-Red (FIR) camera that obtains thermal energy information for at least one object;
Light detection and ranging (LiDAR) and Radio Detecting And Ranging (RADAR) to obtain additional information about the at least one object;
The first thermal energy information extracting unit extracts first thermal energy information satisfying a predetermined condition among the thermal energy information, extracts a vertical edge from the thermal energy information, and maps the first thermal energy information to the extracted vertical edge Extracting two thermal energy information, extracting vertical and other end points of the object included in the second thermal energy information, generating an ROI using the additional information, the one end and the other end point together, A controller for comparing a plurality of classifiers associated with the classifier and an object included in the ROI and extracting an ROI corresponding to at least one of the plurality of classifiers in the ROI; And
A display unit for displaying the extracted ROI; The night vision information display device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170045386A KR101935853B1 (en) | 2017-04-07 | 2017-04-07 | Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging) |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170045386A KR101935853B1 (en) | 2017-04-07 | 2017-04-07 | Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging) |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180113807A true KR20180113807A (en) | 2018-10-17 |
KR101935853B1 KR101935853B1 (en) | 2019-01-07 |
Family
ID=64099406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170045386A KR101935853B1 (en) | 2017-04-07 | 2017-04-07 | Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging) |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101935853B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190070951A (en) * | 2016-11-17 | 2019-06-21 | 주식회사 토비스 | Night vision system |
CN110933796A (en) * | 2019-12-18 | 2020-03-27 | 深圳美电科技有限公司 | Far infrared temperature measurement module heating device and use method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003302470A (en) * | 2002-04-05 | 2003-10-24 | Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai | Pedestrian detection device and pedestrian detection method |
KR101543105B1 (en) * | 2013-12-09 | 2015-08-07 | 현대자동차주식회사 | Method And Device for Recognizing a Pedestrian and Vehicle supporting the same |
-
2017
- 2017-04-07 KR KR1020170045386A patent/KR101935853B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190070951A (en) * | 2016-11-17 | 2019-06-21 | 주식회사 토비스 | Night vision system |
CN110933796A (en) * | 2019-12-18 | 2020-03-27 | 深圳美电科技有限公司 | Far infrared temperature measurement module heating device and use method |
Also Published As
Publication number | Publication date |
---|---|
KR101935853B1 (en) | 2019-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10958896B2 (en) | Fusing measured multifocal depth data with object data | |
JP6036065B2 (en) | Gaze position detection device and gaze position detection method | |
US10504214B2 (en) | System and method for image presentation by a vehicle driver assist module | |
CN109427199B (en) | Augmented reality method and device for driving assistance | |
US11242068B2 (en) | Vehicle display device and vehicle | |
EP2857886B1 (en) | Display control apparatus, computer-implemented method, storage medium, and projection apparatus | |
KR101359660B1 (en) | Augmented reality system for head-up display | |
Eum et al. | Enhancing light blob detection for intelligent headlight control using lane detection | |
US20190005727A1 (en) | Display system, information presentation system, control method of display system, storage medium, and mobile body | |
US20160121794A1 (en) | In-vehicle display apparatus and program product | |
KR101944607B1 (en) | An acquisition system of distance information in direction signs for vehicle location information and method | |
JP2015114757A (en) | Information processing apparatus, information processing method, and program | |
JP2007257286A (en) | Display system for vehicle | |
JP2006338594A (en) | Pedestrian recognition system | |
CN111273765B (en) | Vehicle display control device, vehicle display control method, and storage medium | |
KR102033858B1 (en) | Prediction system for traffic accident | |
KR20200082109A (en) | Feature data extraction and application system through visual data and LIDAR data fusion | |
US20170116488A1 (en) | Method for identifying an incoming vehicle and corresponding system | |
CN110546026A (en) | Adjusting device, display system and adjusting method | |
GB2550472A (en) | Adaptive display for low visibility | |
JP2020032866A (en) | Vehicular virtual reality providing device, method and computer program | |
KR101935853B1 (en) | Night Vision System using LiDAR(light detection and ranging) and RADAR(Radio Detecting And Ranging) | |
JP2010070117A (en) | Image irradiation system and image irradiation method | |
KR102169885B1 (en) | Night vision system displaying thermal energy information and its control method | |
KR102169884B1 (en) | Night vision system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |