KR101795652B1 - Device for Measuring Visibility for Fog Guardian Device - Google Patents

Device for Measuring Visibility for Fog Guardian Device Download PDF

Info

Publication number
KR101795652B1
KR101795652B1 KR1020170047474A KR20170047474A KR101795652B1 KR 101795652 B1 KR101795652 B1 KR 101795652B1 KR 1020170047474 A KR1020170047474 A KR 1020170047474A KR 20170047474 A KR20170047474 A KR 20170047474A KR 101795652 B1 KR101795652 B1 KR 101795652B1
Authority
KR
South Korea
Prior art keywords
image
region
frames
area
unit
Prior art date
Application number
KR1020170047474A
Other languages
Korean (ko)
Inventor
이상우
Original Assignee
주식회사 누리플랜
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 누리플랜 filed Critical 주식회사 누리플랜
Priority to KR1020170047474A priority Critical patent/KR101795652B1/en
Application granted granted Critical
Publication of KR101795652B1 publication Critical patent/KR101795652B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/24Fluid dynamics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a visible range measuring device for a fog damage prevention apparatus. More specifically, the visible range measuring device captures the movement of a vehicle running on a road as images to measure the visible range on a real-time basis. According to an embodiment of the present invention, the visible range measuring device includes: a communication unit (10); an image processing unit (20); a control unit (30); a display unit (50); and a brightness measuring unit (60). The image processing unit (20) executes a difference operation to obtain difference images between an initial image frame and subsequent consecutive image frames among multiple image frames that are input from the communication unit (10) for a predetermined period.

Description

안개피해방지장치용 가시거리 측정장치{Device for Measuring Visibility for Fog Guardian Device}Technical Field [0001] The present invention relates to a device for measuring fog,

본 발명은 안개피해방지장치용 가시거리 측정장치에 관한 것으로, 보다 상세하게는 안개발생시 가시거리에 따른 단계별 대응책을 구축할 수 있는 안개피해방지장치에 적용되어 도로에 주행중인 차량의 움직임을 영상으로 캡쳐하고 비정상적 광원을 제거하여 가시거리(시정)를 실시간으로 정확하게 측정할 수 있는 안개피해방지장치용 가시거리 측정장치에 관한 것이다. The present invention relates to a visual distance measuring apparatus for a fog damage preventive apparatus, and more particularly, to a fog damage preventive apparatus capable of constructing a step-by-step countermeasure according to a visual distance when a fog occurs, And more particularly, to a visible range measuring device for a fog damage prevention device capable of accurately measuring a visible distance in real time by capturing and removing an abnormal light source.

일반적으로 안개는, 대기 중의 수증기가 차가운 수면이나 지면과 맞닿아 응결현상이 일어나는 것으로, 대기 중에 수증기가 다량 함유되어 있거나 공기가 이슬점 온도 이하로 냉각되거나 또는 대기 중에 미세한 물방울의 생성을 촉진시키는 응결핵이 많이 존재하는 경우 등과 같은 조건에 주로 발생된다. Generally, fog is a condensation phenomenon that occurs when the water vapor in the air comes into contact with a cold water surface or the ground. It causes condensation, which contains a large amount of water vapor in the air, cools the air below the dew point temperature, or promotes the formation of fine water droplets And the case where there is a large amount.

이와 같이 안개가 발생되는 지역의 도로 특히 고속도로에서 주행중인 자동차의 운전자 시야를 방해하는 가장 위험한 요인이 되고 있으며, 실제로 안개 발생으로 안전운행에 막대한 지장을 초래함은 물론 다중 추돌 또는 충돌로 이어져 대형 사고를 초래하는 문제점이 있다. In this way, it becomes the most dangerous factor obstructing the driver's view of the motorway in the area where the fog occurs, especially the motorway in the highway. In fact, occurrence of fog causes great obstacle to safe driving, .

이에 대한 대책으로 자동차의 전방에 안개 등을 장착하여 사용하거나 비상등을 점멸하는 방식으로 사고를 방지하려 하고 있으나, 이와 같은 방지책은 도로 특히 자동차가 주행중인 도로에서는 안개 발생에 의한 사고를 근원적으로 방지할 수 없는 문제점이 있다.As a countermeasure against this, the fog lamp is mounted on the front of the automobile or the accident light is blinked to prevent the accident. However, such a preventive measure can prevent the accident caused by fog on the road, There is no problem.

한편, 이와 같은 문제점들을 해결하기 위해 안개를 소산시키는 기술이 개발되고 있으며, 최근에 공지된 기술로서 특허 공개 제10-2015-0083981호가 있다. Meanwhile, in order to solve such problems, a technique of dissipating fog has been developed, and as a publicly known technology, there is a patent publication No. 10-2015-0083981.

상기 특허공개 제10-2015-0083981호의 안개 소산 장치 제어 시스템은, 복수의 지역 각각에 설치되며, 안개 제거를 위해 송풍기 및 열풍기를 통해 생성된 바람을 분사하는 복수의 안개 소산 장치; 상기 복수의 지역 각각에 설치되어 대기 상황 촬영하는 복수의 촬영 장치; 상기 복수의 지역 각각에서 촬영된 상기 대기 상황을 촬영한 영상을 분석하여 상기 복수의 지역 각각에서 안개발생 여부를 판단하고, 안개가 발생된 경우 상기 복수의 지역 각각에 설치된 상기 복수의 안개 소산 장치를 구동시키는 복수의 제어 장치; 및 상기 복수의 지역 중 어느 하나의 지역에 설치된 복수의 안개 소산 장치를 제어하기 위한 사용자 명령이 입력되면, 상기 복수의 제어 장치 중 상기 어느 하나의 지역에 설치된 복수의 안개 소산 장치를 제어하는 제어 장치로 상기 복수의 안개 소산 장치를 제어하기 위한 제어 명령을 전송하는 원격지 제어 장치로 구성되어 있다.The fog dissipating device control system of Patent Publication No. 10-2015-0083981 includes a plurality of fog dissipating devices installed in each of a plurality of areas, for spraying wind generated through a blower and a hot air blower to remove fog; A plurality of photographing devices installed in each of the plurality of areas and photographing an atmospheric condition; And an image of the atmospheric condition photographed in each of the plurality of areas is analyzed to determine whether or not fog occurs in each of the plurality of areas, and when the fog occurs, the plurality of fog diffusers installed in each of the plurality of areas A plurality of control devices for driving the plurality of control devices; And a controller for controlling a plurality of mist dispersing devices installed in any one of the plurality of control devices when a user command for controlling the plurality of mist dispersing devices installed in any one of the plurality of areas is input, And a remote control device for transmitting a control command for controlling the plurality of fog dissipating devices.

이와 같은 구성에 의해 상기 안개 소산 장치 제어 시스템은 복수의 지역에 설치된 복수의 안개 소산 장치를 원격지에서 통합하여 제어할 수 있다는 점에서, 복수의 지역에 설치된 복수의 안개 소산 장치의 관리에 있어서 편의성이 향상될 수 있는 작용 효과를 제공한다.With this configuration, the fog dissipating device control system can control a plurality of fog dissipating devices installed in a plurality of areas in a remote place, and therefore, convenience in managing a plurality of fog dissolving devices installed in a plurality of areas And provides an action effect that can be improved.

그러나 상기 안개 소산 장치 제어 시스템은 안개 발생 정도에 따른 안개시정을 정확히 실시간으로 측정할 수 없어 가시거리에 대한 대응 대책을 정확하게 구축할 수 없어 신뢰성이 저하되는 문제점이 있다.However, the fog dissipating apparatus control system can not accurately measure fog correction according to the degree of occurrence of fog in real time, so that countermeasures against the visible distance can not be accurately established, thereby reducing reliability.

한편 상기와 같은 문제점을 해결하기 위한 최근의 실시예가 본 출원인이 전용실시권자로 등록된 등록특허 제10-1032160호에 공지되어 있다. Meanwhile, a recent embodiment for solving the above problems is known from Japanese Patent Registration No. 10-1032160, which is registered as a dedicated licensee of the present applicant.

상기 특허 제10-1032160호에 개시된 카메라를 이용한 도로 시정 측정 시스템 및 그 방법에 의하면, 도로에 설치된 카메라로부터 영상 신호를 수신하는 통신부; 상기 수신된 영상 신호로부터 차량의 이동 영역을 추출하고, 상기 추출된 이동 영역을 이용하여 가시선(visualline)을 결정하는 영상 처리부; 및 상기 영상 신호에 대한 비선형 곡선적합(non-linear curve fitting)의 수행을 통해 결정되는 시정 산출 함수, 및 상기 시정 산출 함수의 계수를 이용하여 상기 결정된 가시선에 대응하는 시정(visibility)을 산출하는 제어부로 구성되며: 도로에 설치된 카메라로부터 영상 신호를 수신하는 단계; 상기 수신된 영상 신호로부터 차량의 이동 영역을 추출하는 단계; 상기 추출된 이동 영역을 이용하여 가시선(visual line)을 결정하는 단계; 및 상기 영상 신호에 대한 비선형 곡선적합의 수행을 통해 결정되는 시정 산출 함수, 및 상기 시정 산출 함수의 계수를 이용하여 상기 결정된 가시선에 대응하는 시정(visibility)을 산출하는 단계에 의해 시정측정이 이루어진다. According to the road correction measuring system and the method using the camera disclosed in the above-mentioned Japanese Patent No. 10-1032160, a communication unit for receiving a video signal from a camera installed on a road; An image processing unit for extracting a moving region of the vehicle from the received video signal and determining a visualline using the extracted moving region; And a controller for calculating a visibility corresponding to the determined line of sight using the coefficients of the corrective calculation function, the correction function being determined by performing non-linear curve fitting on the image signal, The method comprising: receiving a video signal from a camera installed on a road; Extracting a moving region of the vehicle from the received video signal; Determining a visual line using the extracted moving area; And calculating a visibility corresponding to the determined visible line by using a correction calculation function determined by performing nonlinear curve fitting on the image signal and a coefficient of the correction calculation function.

이와 같은 구성 및 작동에 의해, 기존에 도로에 설치된 카메라를 이용하여 시정을 측정할 수 있고, 차량의 이동 영역으로부터 얻어진 가시선(visual line)과 도로 모델(road model)을 이용하여 시정을 측정할 수 있으며, 영상 신호로부터 비나 눈이 감지되는 경우에도 영상 필터링을 통해 유연하게 시정을 측정할 수 있고, 측정된 시정 결과를 라디오와 같은 유무선장치나 고속도로 정보 안내판(VMS) 등에 표시하여 운전자의 안전운전을 유도할 수 있는 작용효과를 제공한다. With such a configuration and operation, the visibility can be measured using a camera installed on the road, and visibility can be measured using a visual line and a road model obtained from the moving region of the vehicle In addition, even when rain or snow is detected from the video signal, it is possible to flexibly measure the visibility through image filtering and displays the measured correction result on a wired or wireless device such as a radio or a highway information board (VMS) Inducing action effect.

그러나 상기 특허 제10-1032160호의 카메라를 이용한 도로 시정 측정 시스템 및 그 방법은 도로 이외의 부분에서 물체가 이동하는 경우, 예컨대 도로상에서 주행하는 자동차로 오인하여 해당 영역을 도로로 오인함으로써 정확한 가시선 및 도로 모델을 추출해낼 수 없으며, 결국 정확한 시정을 산출해내지 못함은 물론 시스템 전체의 오동작을 초래하는 문제점이 있다.However, in the system and method for road correction using the camera of the above-mentioned Japanese Patent No. 10-1032160, when an object moves on a part other than the road, for example, it is mistaken as an automobile traveling on the road, It is not possible to accurately calculate the correctness and, at the same time, cause malfunction of the entire system.

또한, 상기 제시된 특허 및 종래기술을 이용하여 도로의 시정을 측정하는 경우 불특정 차량의 전조등의 이상 발광시 해당영역의 가시거리가 순간적으로 정상적인것으로 측정되어, 결과적으로 정확한 시정을 산출해내지 못함은 물론 시스템 전체의 오동작을 초래하는 문제점이 있다. In addition, when the correction of the road is measured using the above-mentioned patent and the related art, the visual distance of the corresponding area is instantaneously measured as normal when the headlamp of the unspecified vehicle is lighted out, Thereby causing a malfunction of the entire system.

따라서 본 발명의 목적은 도로 이외의 영역에서의 물체의 움직임이 발생되더라도 실제로 차량이 이동하는 순수 이동영역만을 정확히 추출하고 비정상적 광원을 제거하여 더욱 정확한 가시거리를 측정할 수 있는 안개피해방지장치용 가시거리 측정장치를 제공하는데 있다. Therefore, it is an object of the present invention to provide a visibility display device for a fog damage prevention device capable of accurately extracting only a pure moving region in which a vehicle actually moves and removing an abnormal light source to measure a more accurate visible distance even if an object moves in a region other than a road. And a distance measuring device.

상기 목적은, 안개발생시 가시거리에 따른 단계별 대응책을 구축하기 위한 안개피해방지장치용 가시거리 측정장치에 있어서, 안개발생 예상지역에 설치되어 해당영역을 촬영하기 위한 CCTV 카메라, CCD 카메라, CMOS 카메라 중 어느 하나로부터 촬영된 영상신호를 전송하도록 구성된 통신부; 상기 통신부로부터 일정시간 동안 입력된 n(n은 자연수)개의 영상 프레임 중, 최초 영상 프레임과 후속하는 연속 영상 프레임들 간의 차연산(difference operation)을 통해 차영상(difference image)들을 획득하고, 미리 설정된 임계치를 이용하여 상기 획득된 차영상들을 이진화하고, 상기 이진화된 차영상들을 합성하여 이동 영역을 추출하며, 상기 추출된 이동 영역으로부터 도로 이외의 영역을 제거한 후 수평방향 프로젝션(projection)과 임계치 자동추출 알고리즘을 통해 상기 이동 영역의 상단 부분을 탐색하여 가시선을 결정하도록 구성된 영상처리부; 상기 통신부 및 상기 영상처리부에 연결되고, 가시거리 측정장치를 운용하기 전에 상기 영상 신호에 대해 3개의 시정 기준선을 이용하여 비선형 곡선적합(non-linear curve fitting)을 수행하여 상기 시정 산출 함수 및 상기 시정 산출 함수의 계수를 결정하고, 상기 시정 산출 함수 및 상기 시정 산출 함수의 계수를 이용하여 시정을 산출하도록 구성된 제어부; 상기 제어부에 연결되며, 상기 제어부에 의해 추출된 시정 산출 함수 및 상기 시정 산출 함수의 계수와, 산출된 시정을 저장하도록 구성된 메모리부; 상기 제어부에 연결되며, 상기 제어부에 의해 산출된 시정을 디스플레이하도록 구성된 표시부; 및 이동중인 차량의 전조등 또는 후미등의 광의 세기를 측정하기 위한 조도측정부를 포함하며: 상기 영상처리부는, 영상신호가 데이터 처리속도 산출 프로그램에 의해 산출된 데이터 최고 처리속도에 적합한 처리 용량을 가지도록 상기 영상신호의 1초당 프레임수 중 이미지가 가장 선명한 일부 프레임(예를 들면, 1초당 20프레임 중 가장 선명한 3-5 프레임)으로 구성된 편집 영상을 저장하는 프레임편집모듈을 포함하고, 상기 프레임편집모듈은, 실시간으로 촬영된 영상신호를 각각의 프레임(예를 들면, 초당 20 프레임)으로 구분하고, 상기 프레임들에 대한 형상의 분기, 절곡, 만곡 및 음영선을 추출하며, 상기 형상의 분기, 절곡, 만곡 및 음영선이 추출된 프레임을 삭제하고, 상기 삭제되지 않은 각 프레임 중 이미지가 가장 선명한 프레임 중 일부 프레임(예를 들면, 초당 3-5 프레임)을 선별하여 저장하는 프레임 편집 알고리즘을 가지며: 상기 영상처리부는, 통신부를 통해 제어부로 전송된 각각의 영상 프레임(1 ~ n)들의 이웃하는 각각의 영상프레임 쌍들을 각각 드레스홀딩(thresholding)하고, 각각의 드레스홀딩된 영상 프레임 전체를 다시 드레스홀딩한 후 실제적으로 차량들이 이동하는 유효도로 이외의 영역을 마스킹 하도록 동작되고, 상기 조도측정부로부터 측정된 조도가 평균값 이상으로 감지되면 해당시간의 영상프레임을 제외하도록 동작되며, 각각의 드레스홀딩된 프레임 각각을 모두 대비하여 차량의 이동영역(관심영역)에 높은 비트를 할당하고 나머지 이동영역외영역(비관심 영역)에는 상대적으로 낮은 비트를 할당하여 실제적인 차량의 이동영역을 구획하여 설정하도록 동작되고, 추출된 각각의 상기 차영상(df1 ~ dfn) 모두를 대비하여 특정 관심영역에는 높은 비트를 할당하고 그 이외의 나머지 비관심영역에는 상대적으로 낮은 비트를 할당하는 방식으로 실제적인 차량 이동영역을 설정하며, 차영상(df1 ~ dfn) 모두의 대비시, 영상의 변화가 많은 부분과 그렇지 않은 부분을 각각 관심영역과 비관심영역으로 구획하고 서로 다른 가중치가 부여되도록 하는 가중치부여모듈을 포함하고, 상기 가중치부여모듈은, 상기 영상신호의 프레임들을 순차적으로 비교하고 프레임의 전체영역을 조사하여 변화영역만을 추출하고, 상기 변화영역에 전처리 및 이치화를 수행한 후 각 프레임에서 잡영을 제거하고 영역해석을 통해서 변화영상을 저장하며, 각 프레임들이 변화영역이 많은 그룹과 그렇지 않은 그룹으로 구분되도록 하고, 이때, 변화영역이 많은 그룹의 중복 영역에 높은 비트가 부여되도록 하고 변화영역이 적은 그룹의 중복 영역에 낮은 비트가 부여되도록 하여, 상기 이동영역의 추출시 일정한 크기 이상의 용량을 가지는 프레임들만이 선별되어 차연산 처리되도록 하는 것을 특징으로 하는 안개피해방지장치용 가시거리 측정장치에 의해 달성될 수 있다.The object of the present invention is to provide a visual distance measuring apparatus for a fog damage preventive device for establishing a stepwise countermeasure according to a visual distance when a fog occurs, comprising a CCTV camera, a CCD camera, and a CMOS camera A communication unit configured to transmit a video signal photographed from either one; (N is a natural number) image frames input from the communication unit for a predetermined period of time to obtain difference images through a difference operation between a first image frame and subsequent successive image frames, Extracts a moving region by combining the binarized difference images, removes a region other than the road from the extracted moving region, and then performs horizontal projection and threshold automatic extraction An image processing unit configured to search for an upper portion of the moving region through an algorithm to determine a line of sight; And performing non-linear curve fitting on the video signal using the three correction baselines before operating the visual distance measuring device, so as to calculate the corrective calculation function and the visibility A control unit configured to determine a coefficient of the calculation function and calculate a correction using the correction calculation function and the coefficient of the correction calculation function; A memory unit connected to the control unit and configured to store the calculated corrective calculation function and the corrected corrective function extracted by the control unit and the calculated corrective action; A display connected to the control unit and configured to display a visibility calculated by the control unit; And an illuminance measuring unit for measuring the intensity of light of a headlight or a tail lamp of a moving vehicle, wherein the image processing unit comprises: an image processing unit for calculating a data processing speed, And a frame editing module for storing an edited image composed of some of the frames whose image is most clear (for example, 3-5 frames which is the clearest among 20 frames per second) of the video signal per second of the video signal, , Divides the video signal photographed in real time into respective frames (for example, 20 frames per second), extracts branching, bending, curving and shading lines of the frames with respect to the frames, A frame in which a curved line and a shadow line are extracted is deleted, (1 to n) transmitted to the control unit through the communication unit, and a frame editing algorithm for selecting and storing the image frames (for example, 3-5 frames per second) Holding the pair of dress-holding frames, thresholding each of the pairs, and dress-holding the whole dress-held image frame again, and then masking an area other than the effective road where the vehicles actually move, If it is detected that the average value is greater than or equal to the average value, it is operated to exclude the image frame of the corresponding time, allocate a high bit to the movement region (ROI) of the vehicle in preparation for each of the dress- ) Is allocated to allocate a relatively low bit so as to divide and set an actual moving region of the vehicle, A real vehicle movement region is set by allocating a high bit to a specific region of interest and allocating a relatively low bit to the remaining regions of interest other than the difference images df1 to dfn, and a weighting module for dividing the portion where the image is changed in a large amount and the portion where the image is largely changed into a region of interest and a region of non-interest, and to assign different weights to each of the regions of interest (df1 to dfn) , The frames of the video signal are sequentially compared, and only the change area is extracted by irradiating the entire area of the frame. After the preprocessing and binarization are performed on the change area, the contour is removed from each frame and the change image is stored , And each frame is divided into a group having a large change area and a group having a large change area. At this time, A high bit is assigned to the redundant area of the group and a low bit is assigned to the redundant area of the group having the small change area so that only frames having a capacity equal to or larger than a predetermined size are extracted for the difference operation And a visible range measuring device for a fog damage prevention device.

본 발명에 의하면, 도로 이외의 영역에서의 물체의 움직임이 발생되더라도 해당영역을 비관심 지역으로 간주함은 물론 이를 마스킹 처리하여 순수 차량 이동 영역만을 정확히 설정할뿐 아니라 차량의 전조등의 이상 발광시 해당시간의 영상프레임을 제외시켜 더욱 정확하게 가시거리 또는 시정을 측정함으로써 안개피해 방지장치의 오동작을 방지할 수 있는 현저한 효과를 제공한다.According to the present invention, even if a movement of an object occurs in an area other than the road, the area is regarded as a non-interest area, and the masking process is performed to set the area of the pure vehicle accurately, It is possible to prevent a malfunction of the mist preventing device by measuring the visibility or visibility more precisely by excluding the image frame of the mist preventing device.

도 1은 본 발명에 따른 안개피해방지장치용 가시거리 측정장치의 기본구성을 보여주는 블록도.
도 2는 본 발명에 따른 안개피해방지장치용 가시거리 측정장치의 시정거리측정과정을 보여주는 도면.
도 3은 도 2에서 영상 신호로부터 차량의 이동 영역을 추출하는 하나의 실시예를 보여주는 도면.
도 4는 도 2에서 시정함수를 이용하여 시정을 산정하는 하나의 실시예를 보여주는 도면.
도 5는 본 발명에 따른 가시거리 측정장치에서 카메라 영상으로부터 시정 기준선을 입력 받기 위한 시정 기준선 영역의 하나의 실시예를 보여주는 디스플레이 도면.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a basic configuration of a visible range measuring apparatus for a fog damage prevention apparatus according to the present invention; FIG.
2 is a view showing a process of measuring a corrective distance of a visual distance measuring apparatus for a fog damage prevention apparatus according to the present invention.
Figure 3 illustrates one embodiment for extracting a moving region of a vehicle from a video signal in Figure 2;
FIG. 4 illustrates one embodiment for calculating the visibility using the corrective function in FIG. 2; FIG.
5 is a view showing one embodiment of a corrective reference line area for receiving a corrective reference line from a camera image in a visual distance measuring apparatus according to the present invention.

이하, 첨부된 도면을 참조하면서 본 발명의 바람직한 실시예에 대하여 상세히 설명하기로 한다. 본 발명은 본 출원인이 전용실시권자로 등록된 등록특허 제10-1032160호를 개량하여 발명한 것으로서, 설명의 명확성을 위해 상기 등록특허를 일부 인용하여 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The present invention is an improvement on the registered patent application No. 10-1032160 registered by the present applicant as the exclusive licensee, and the registered patent will be partially cited for clarity of explanation.

도 1 내지 도 5에 도시된 바와 같이, 본 발명의 하나의 실시예에 따른 안개피해방지장치용 가시거리 측정장치는 기본적으로 통신부(10), 영상 처리부(20), 제어부(30), 메모리부(40), 표시부(50) 및 조도 측정부(60)를 포함한다.1 to 5, a visible range measuring apparatus for a fog damage prevention apparatus according to an embodiment of the present invention basically comprises a communication unit 10, an image processing unit 20, a control unit 30, (40), a display unit (50), and an illuminance measurement unit (60).

여기서, 상기 통신부(10)는 고속도로, 일반도로, 공항 항만 등에 설치된 CCTV 카메라, CCD 카메라, CMOS 카메라 등과 같은 카메라로부터 영상을 확보하기 위한 수단에 연결되어 그로부터 촬영되어 확보된 영상신호를 수신하도록 구성된다. Here, the communication unit 10 is connected to a means for securing an image from a camera such as a CCTV camera, a CCD camera, a CMOS camera, etc. installed on a highway, a public road, an airport port, etc., and is configured to receive a captured image signal from the camera .

상기 통신부(10)는 또한 상기 제어부(30)에서 시정이 산출되는 경우, 상기 산출된 시정에 관한 정보, 또는 상기 시정에 따른 안전주행 속도 정보를 교통관리센터로 전송할 수 있다. 이에 따라, 상기 교통관리센터에서는 라디오와 같은 유무선장치 및/또는 고속도로 정보 안내판(VMS) 등을 통해 운전자에게 안개 발생 사실과 함께 시정에 관한 정보, 안전주행 속도정보 등을 알려주게 된다.The communication unit 10 may also transmit the information on the calculated correction or the safe running speed information according to the correction to the traffic management center when the control unit 30 calculates the correction. Accordingly, the traffic management center notifies the driver of the occurrence of fog, information on the correction, and the safe running speed information through a wired / wireless device such as a radio and / or a highway information information board (VMS).

상기 통신부(10)가 연결되는 상기 제어부(30)에는 그 통신부(10)로부터 수신된 영상 신호를 이용하여 차량의 이동 영역(moving area)을 추출하도록 구성된 영상처리부(20)가 연결된다. The control unit 30 to which the communication unit 10 is connected is connected to an image processing unit 20 configured to extract a moving area of the vehicle using the video signal received from the communication unit 10. [

상기 영상처리부(20)는 상기 촬영부로부터 일정시간 동안 입력된 n(상기 n은 자연수)개의 영상 프레임 중, 최초 영상 프레임과 나머지 영상 프레임간의 차연산(difference operation)을 통해 차영상(difference image)들을 획득하고, 미리 설정된 임계치를 이용하여 상기 획득된 차영상들을 이진화하며, 상기 이진화된 차영상들을 합성함으로써 상기 이동 영역을 추출한다. 이어서, 상기 영상처리부(20)는 상기 추출된 이동 영역을 이용하여 가시선(visual line)을 결정하는바, 이 같은 가시선 결정을 위해 상기 영상처리부(20)는 상기 추출된 이동 영역으로부터 상기 도로 외의 영역을 제거한 후, 수평방향 프로젝션(projection)과 임계치 자동추출 알고리즘을 통해 상기 이동 영역의 상단 부분을 탐색함으로써 상기 가시선을 결정할 수 있는 것이다(도 4). The image processing unit 20 performs a difference operation between a first image frame and a remaining image frame among n image frames (n is a natural number) input from the photographing unit for a predetermined time, And binarizes the obtained difference images using a preset threshold value, and extracts the moving region by synthesizing the binarized difference images. Then, the image processing unit 20 determines a visual line using the extracted moving area. In order to determine such a visible line, the image processing unit 20 extracts, from the extracted moving area, The visual line can be determined by searching the upper portion of the moving region through a horizontal projection and a threshold automatic extraction algorithm (FIG. 4).

여기서, 영상처리부(20)는, 실시간으로 촬영되어 전송되는 대용량의 영상신호로 인하여 데이터 처리시 과도한 부하가 발생되지 않도록 상기 영상신호의 처리 용량이 제어되도록 한다. Here, the image processing unit 20 controls the processing capacity of the image signal so that an excessive load is not generated during data processing due to a large-capacity image signal captured and transmitted in real time.

보다 바람직하게는, 영상처리부(20)는, 영상신호가 데이터 처리속도 산출 프로그램에 의해 산출된 데이터 최고 처리속도에 적합한 처리 용량을 가지도록 상기 영상신호의 1초당 프레임수 중 이미지가 가장 선명한 일부 프레임(예를 들면, 1초당 20프레임 중 가장 선명한 3-5 프레임)으로 구성된 편집 영상을 저장하는 프레임편집모듈을 포함한다. More preferably, the image processing unit 20 is configured to calculate a data processing speed of the video signal so that the video signal has a processing capacity suitable for the data maximum processing speed calculated by the data processing speed calculating program, (For example, 3-5 frames which is the sharpest among 20 frames per second)).

여기서, 프레임편집모듈은, 실시간으로 촬영된 영상신호를 각각의 프레임(에를 들면, 초당 20 프레임)으로 구분하고, 상기 프레임들에 대한 형상의 분기, 절곡, 만곡 및 음영선을 추출하며, 상기 형상의 분기, 절곡, 만곡 및 음영선이 추출된 프레임을 삭제하고, 상기 삭제되지 않은 각 프레임 중 이미지가 가장 선명한 프레임 중 일부 프레임(예를 들면, 초당 3-5 프레임)을 선별하여 저장하는 프레임 편집 알고리즘을 가진다. Here, the frame editing module divides the video signal photographed in real time into respective frames (for example, 20 frames per second), extracts branching, bending, curvature and shading lines of the frames with respect to the frames, (E.g., 3 to 5 frames per second) of the clearest frames among the frames that have not been deleted, and a frame editing process Algorithm.

따라서 프레임편집모듈에 의해 상기 영상신호의 프레임수가 감소되기 때문에 처리되어야 할 영상신호의 처리 용량이 감소하게 되고, 이에 대용량을 가지는 영상신호가 실시간으로 전송될 경우 발생될 수 있는 과부하가 방지되어 신속한 시정 측정을 가능하게 할 수 있다. Accordingly, since the number of frames of the video signal is reduced by the frame editing module, the processing capacity of the video signal to be processed is reduced, and overload that may occur when the video signal having a large capacity is transmitted in real time is prevented, Measurement can be made possible.

상기 통신부(10) 및 상기 영상처리부(20)에 연결된 상기 제어부(30)는 시정 산출 함수를 이용하여 상기 결정된 가시선에 대응하는 시정(visibility)을 산출하도록 구성된다. The controller 30 connected to the communication unit 10 and the image processing unit 20 is configured to calculate a visibility corresponding to the determined line of sight using the corrective calculation function.

상기 제어부(30)는 시정 산출 함수를 이용하여 상기 결정된 가시선에 대응하는 시정(visibility)을 산출하도록 구성된다. The controller 30 is configured to calculate a visibility corresponding to the determined line of sight using the corrective calculation function.

보다 상세히 설명하면, 상기 제어부(30)는 본 발명에 따른 가시거리 측정장치를 운용하기 전에, 상기 영상 신호에 대해, 3개의 시정 기준선을 이용하여 비선형 곡선적합(non-linear curve fitting)을 수행함으로써 상기 시정 산출 함수 및 상기 시정 산출 함수의 계수를 결정할 수 있도록 구성된다. 예컨대, 상기 비선형 곡선적합은 주어진 몇 개의 데이터를 이용하여 특정 함수에 최소 오차를 갖도록 함수의 계수를 결정하는 방법으로서, 상기 3개의 시정 기준선은 상기 영상 신호에 해당하는 영상의 하단부 영역 중 하나의 수평선을 의미하는 제1 시정 기준선(fl)과, 상기 영상의 중간 영역 중 하나의 수평선을 의미하는 제2 시정 기준선(sl)과, 상기 영상의 상단부 영역 중 하나의 수평선을 의미하는 제3 시정 기준선(tl)을 가리킨다(도 5 참조).More specifically, the control unit 30 performs non-linear curve fitting on the image signal using three correction baselines before operating the visual distance measuring apparatus according to the present invention And the coefficients of the corrective calculation function and the corrective calculation function. For example, the nonlinear curve fitting is a method of determining a coefficient of a function so as to have a minimum error in a specific function using a given data, wherein the three correction baselines are one horizontal line of the lower end region of the image corresponding to the video signal A second visual reference line sl indicating one horizontal line of the middle area of the image and a third visual reference line sl indicating one horizontal line of the upper part of the image, tl) (see Fig. 5).

그리고, 상기 제어부(30)는 상기 산출된 시정 정보를 출력할 수 있으며, 이에 따라 상기 통신부(10)는 상기 출력된 시정 정보를 교통관리센터로 전송하고, 상기 교통관리센터에서는 안전주행 속도 정보를 라디오와 같은 유무선장치 및/또는 고속도로 정보 안내판(VMS)을 통해 운전자에게 알려준다. The control unit 30 can output the calculated corrective information so that the communication unit 10 transmits the outputted corrective information to the traffic management center. In the traffic management center, And informs the driver through a wired / wireless device such as a radio and / or a highway information sign (VMS).

또한, 상기 제어부(30)는 소정의 날씨 정보 검출 알고리즘을 이용하여 상기 영상 신호로부터 날씨 정보를 검출하고, 상기 검출된 날씨 정보를 이용하여 상기 도로에 눈 또는 비가 오는지 여부를 판단할 수 있다. 상기 판단 결과, 상기 도로에 눈 또는 비가 오는 경우, 상기 영상 처리부(20)는 상기 영상 신호에서 눈 또는 비를 필터링한 후, 상기 이동 영역을 추출할 수 있다. 여기서, 상기 날씨 정보 검출 알고리즘은 상기 카메라를 통해 얻어지는 영상을 이용하여 날씨 정보를 검출할 수 있으며, 상기 제어부(30)는 맑은 날의 영상 RGB 평균값을 기준으로 한 날씨 정보 검출 알고리즘 등을 이용하여 상기 날씨 정보를 검출할 수 있다. 상기 날씨 정보 검출 알고리즘은 당업자에게 널리 공지된 기술이므로 설명의 명료성을 위해 이에 대한 상세한 설명은 생략한다. In addition, the controller 30 may detect weather information from the video signal using a predetermined weather information detection algorithm, and determine whether the road is snowy or rainy by using the detected weather information. As a result of the determination, if the road is snowing or raining, the image processing unit 20 may extract the moving region after filtering the snow or rain in the image signal. Here, the weather information detection algorithm may detect weather information using an image obtained through the camera. The controller 30 may use the weather information detection algorithm based on the average RGB value of a clear day, Weather information can be detected. Since the weather information detection algorithm is well known to those skilled in the art, a detailed description thereof will be omitted for clarity of explanation.

상기 제어부(30)에 연결되는 메모리부(40)는 그 제어부(30)에 의해 산출된 시정과 임시 영상자료 등을 저장하도록 구성된다. The memory unit 40 connected to the control unit 30 is configured to store the corrective and temporary image data calculated by the control unit 30.

상기 메모리부(40)는 상기 제어부(30)에 의해 결정된 시정 산출 함수 및 상기 시정 산출 함수의 계수를 저장할 수 있다. The memory unit 40 may store the corrective calculation function determined by the controller 30 and the coefficient of the corrective calculation function.

그리고 상기 제어부(30)에는 표시부(50)가 연결되어, 그 제어부(30)에 의해 산출된 시정을 디스플레이 하도록 구성되어 있다. The display unit 50 is connected to the control unit 30 and displays the calculated correction.

또한 상기 조도측정부(60)는 예컨대 카메라 장치에 설치되어 이동중인 차량의 전조등 또는 후미등으로부터 발산되는 광의 조도를 측정하여 이를 영상처리부(20)로 전달한도록 구성된다. The illuminance measuring unit 60 is configured to measure the illuminance of light emitted from a headlight or a tail lamp of a moving vehicle, for example, and transmit the measured illuminance to the image processing unit 20.

특히 본 발명의 하나의 주요 특징에 따르면, 상기 영상처리부(20)는 실제로 차량이 이동하는 순수 도로, 즉 순수 차량 이동 영역만을 획득 또는 추출하기 위한 마스킹 기능을 갖는 것이 바람직하다. In particular, according to one of the main features of the present invention, the image processing unit 20 preferably has a masking function for acquiring or extracting only a pure road on which a vehicle moves, that is, a pure vehicle moving region.

보다 상세하게는 CCD 카메라와 같은 촬영수단에 의해 촬영된 영상신호가 통신부(10)를 통해 제어부(30)로 전송되면 각각의 영상 프레임(1 ~ n)들의 이웃하는 각각의 영상프레임 쌍들을 각각 드레스홀딩(thresholding)하고, 각각의 드레스홀딩된 복수개(n-1개)의 드레스홀딩 프레임 전체를 다시 드레스홀딩한 후 실제적으로 차량들이 이동하는 유효도로 이외의 영역을 마스킹 하도록 구성된다. 여기서, 드레스홀딩이란, 예컨대 특허 제10-1032160호 등에 공지된 바와 같이 영상 이진화 처리 방식 중 하나의 절차로, 영상 프레임의 모든 픽셀을 점검해서, 미리 설정된 임계값 보다 크거나 밝으면 흰색으로 작거나 어두우면 검은색으로 변경시키는 과정을 의미한다. More specifically, when a video signal photographed by a photographing means such as a CCD camera is transmitted to the control unit 30 through the communication unit 10, pairs of neighboring video frames of the video frames 1 to n (N-1) dress holding frames, and masking areas other than the effective road where the vehicles actually move. Here, dress holding is a procedure of image binarization processing, for example, as disclosed in, for example, Japanese Patent No. 10-1032160 or the like, in which all pixels of an image frame are checked, and if dressing is larger than a preset threshold value, If it is dark, it means changing to black.

이와 같이 상기 영상처리부(20)에 의해 영상프레임이 드레스홀딩되고 마스킹됨으로써, 예컨대 순수 차량이동영역(순수 도로) 이외의 부분에서 이동하는 물체가 움직이거나 이동한다 하여도 이를 제외시킴으로써 순수 차량이동영역을 정확히 확인하여 설정할 수 있는 것이다.As a result, the image frame is dressed and masked by the image processing unit 20, so that even if an object moving or moving from a portion other than the pure vehicle moving region (pure road) is moved or moved, It can be confirmed and set correctly.

본 발명의 다른 하나의 특징에 따르면, 상기 영상처리부(20)는 추출된 각각의 상기 차영상(df1 ~ dfn) 모두를 대비하여 특정 관심영역, 즉 차량이 실제로 주행하는 유효도로에는 미리 설정된 임계치 보다 높은 비트를 할당하고 그 이외의 나머지 비관심영역에는 미리 설정된 임계치 보다 낮은 비트를 할당하는 방식으로 실제적인 차량 이동영역을 설정한다. 이와 같은 관심영역 및 비관심영역의 구획은 상기 마스킹처리 전 또는 그 마스킹처리와 동시에 실행되는 것이 바람직하다. According to another aspect of the present invention, the image processing unit 20 may compare all of the extracted difference images df1 to dfn to a predetermined interest area, that is, an effective road on which the vehicle actually travels, An actual vehicle movement region is set in such a manner that a high bit is allocated and bits other than the remaining non-interest regions are allocated to bits lower than a preset threshold value. It is preferable that the sections of the ROI and the ROI are executed before the masking process or simultaneously with the masking process.

다시 말해서, 상기 영상처리부(20)의 차영상(df1 ~ dfn) 모두의 대비시, 차량이 실제로 주행하는 유효도로는 주행하는 차량의 움직임에 따라 변화되는 면적이 많아지게 되고 차량이 주행하지 않는 유효도로 이외의 주변에 해당되는 산이나 강 및 들판은 움직이는 물체에 의해 변화되는 면적이 상대적으로 적어지게 되므로, 상기 영상의 변화가 많은 부분과 그렇지 않은 부분을 미리 설정된 면적 변화량을 기준으로 각각 관심영역과 비관심영역으로 구획하고 서로 다른 가중치가 부여되도록 하는 가중치부여모듈을 포함한다. In other words, when all of the vehicle images df1 to dfn of the image processing unit 20 are contrasted, the effective road on which the vehicle actually travels increases in area depending on the movement of the traveling vehicle, Since the mountains, rivers and fields corresponding to the periphery other than the roads are relatively small in the area changed by the moving object, the areas with large and small variations of the image are divided into areas of interest And a weighting module for partitioning into non-interest areas and assigning different weights.

여기서, 가중치부여모듈은, 상기 영상신호의 프레임들을 순차적으로 비교하고 프레임의 전체영역을 조사하여 변화영역만을 추출하고, 상기 변화영역에 전처리 및 이치화를 수행한 후 각 프레임에서 잡영을 제거하고 영역해석을 통해서 변화영상을 저장하며, 각 프레임들이 변화영역이 많은 그룹과 그렇지 않은 그룹으로 구분되도록 하고, 이때, 변화영역이 많은 그룹의 중복 영역에 높은 비트가 부여되도록 하고 변화영역이 적은 그룹의 중복 영역에 낮은 비트가 부여되도록 하여, 상기 이동영역의 추출시 일정한 크기 이상의 용량을 가지는 프레임들 즉, 변화영역이 많은 그룹의 프레임들만이 선별되어 차연산 처리되도록 할 수 있고, 이를 통하여 상기 이동동역의 추출이 신속하게 이루어지도록 하여 전반적인 데이터 처리 속도가 향상되도록 할 수 있다. Here, the weighting module sequentially compares the frames of the video signal, extracts only the change region by irradiating the entire region of the frame, preprocesses and binarizes the change region, removes the hash from each frame, So that each frame is divided into a group having a large change area and a group having a little change area. At this time, a high bit is assigned to a redundant area of a group having a large change area, A frame having a capacity equal to or larger than a predetermined size, that is, only a group of frames having a large number of change areas, can be selected and subjected to a difference operation, thereby extracting the mobile station So that overall data processing speed can be improved. All.

일예로, 도로의 폭과 유사한 폭을 가지는 강을 따라 강변도로가 위치되는 경우 강 보다는 도로에 많은 안개가 빈번하게 발생하게 되며 이러한 상태에서 도로 이외의 강물이 유효도로로 인식되는 경우 시정이 올바르게 측정되지 않게 된다. 이에, 상기와 같이 가중치부여모듈에 의해, 도로와 도로 주변을 각각 관심영역과 비관심영역으로 구획하고 그에 따른 가중치가 부여되는 경우, 순수 차량 이동영역만이 추출되도록 할 수 있고, 순수 차량 이동영역 외의 영역에 유람선 등과 같은 이동 물체가 있는 경우 이로 인한 시정거리의 측정이 방지되도록 할 수 있다.For example, if a riverside road is located along a river with a width similar to the width of the road, a lot of mist occurs more frequently on the road than on the river. In such a situation, if the river other than the road is recognized as an effective road, . Thus, when the road and the road periphery are divided into the ROI and the ROI by the weighting module as described above and only the weights are assigned thereto, only the pure vehicle movement region can be extracted, It is possible to prevent the measurement of the correcting distance due to a moving object such as a cruise ship or the like.

이에 따라 차량이 이동하는 순수 도로영역만이 차량의 이동영역으로 추출됨으로써, 이 이동영역 이외의 영역에 움직이는 물체가 있다 하여도 가시거리 측정장치의 오측정이 방지됨은 물론 이로 인한 안개피해방지장치의 오동작을 방지할 수 있는 것이다.Accordingly, only the pure road area where the vehicle moves is extracted to the moving area of the vehicle, so that even if there is an object moving in the area other than the moving area, the measurement of the visual distance measuring device is prevented, It is possible to prevent a malfunction.

상기와 같이 구성되는 안개피해방지장치용 가시거리 측정장치에 의한 가시거리 측정 처리과정은 다음과 같다. The process of measuring the visible range by the visible range measuring device for the fog damage prevention device constructed as described above is as follows.

도 2에 도시된 바와 같이, 도로가 또는 그 도로를 주시할 수 있는 소정의 위치에 설치된 CCD 카메라(A)에 의해 촬영된 최초의 영상 프레임이 통신부(10)를 통해 제어부(30)로 전달된다. 이와 같이 전달된 최초 영상프레임은 오퍼레이터(B) 또는 엔지니어에 의해 로드 모델(road model)로 초기화 된다(C). 이 같은 로드 모델의 초기화는, 예컨대 도로 영역과 도로외 영역의 분리, 시정 기준선, CCD 카메라의 설치 높이, 도로의 경사도, CCD 카메라의 각도 등을 이용하여 시정 측정에 활용될 수 있는 변수를 결정하는 것을 의미한다. 그리고 CCTV 카메라에서 출력된 2D 이미지로부터 특정 목표물까지의 거리를 오차 없이 정확히 계산하기는 곤란하지만, 예컨대 특허 제10-1032160호에 공지된 방식으로 로드 모델을 확정할 수 있다(D). 2, the first image frame photographed by the CCD camera A provided at a predetermined position where the road or the road can be viewed is transmitted to the control unit 30 through the communication unit 10 . The original image frame thus transmitted is initialized to a road model by the operator B or engineer (C). The initialization of such a load model determines variables that can be utilized for corrective measurement, for example, by separating the road area and the off-road area, setting the reference line, installing the CCD camera, tilting the road, and angle of the CCD camera . Although it is difficult to accurately calculate the distance from the 2D image outputted from the CCTV camera to the specific target without error, the load model can be determined in a manner known in, for example, Japanese Patent No. 10-1032160 (D).

또한, 상기 CCD 카메라(A)로부터 촬영된 영상(E)이 통신부(10)를 통해 영상처리부(20)에 전송되면 그 영상처리부(20)는 각각의 영상 이미지를 대조 또는 대비하고(F) 대비된 이미지를 이용하여 이동영역을 추출하여(G) 최종 이동영역을 확정한다(H). When the image E photographed from the CCD camera A is transmitted to the image processing unit 20 through the communication unit 10, the image processing unit 20 collates or contrasts the respective image images, (G) the final movement region is determined (H) by extracting the movement region using the generated image.

보다 상세히 설명하면, 도 3에 도시된 바와 같이, 상기 CCD 카메라(A)로부터 일정시간 촬영되어 통신부(10)를 통해 영상처리부(20)에 n개의 영상프레임(f1 ~ fn)이 입력되면, 최초의 제1영상프레임(f1)과 다음 제2영상프레임(f2), 그 제2영상프레임(f2)과 제3영상프레임(f3), 제3영상프레임(f3)과 제4영상프레임(f4),.......... 최종적으로 제n-1영상프레임(fn-1)과 제n영상프레임(fn)을 연속적으로 드레스홀딩(thresholding)하여 n-1개의 차영상(df1 ~ dfn)을 추출해 낸다. 3, when n image frames f1 to fn are input to the image processing unit 20 through the communication unit 10 after being photographed for a predetermined time from the CCD camera A, The second image frame f2 and the third image frame f3, the third image frame f3 and the fourth image frame f4 of the first image frame f1 and the second image frame f2 of the first image frame f1, , .......... Finally, thresholding the n-1th image frame fn-1 and the nth image frame fn successively to generate n-1 difference images df1- dfn).

이와 같이 차영상(df1 ~ dfn)이 추출되면 각각의 차영상(df1 ~ dfn) 모두를 대비하여 특정 관심영역, 즉 차량이 실제로 주행하는 유효도로에는 높은 비트를 할당하고 그 이외의 나머지 비관심영역에는 상대적으로 낮은 비트를 할당하는 방식으로 구획하여 실제적인 차량 이동영역을 설정한다. 동시에 관심영역, 즉 차량의 순수 이동영역이외의 부분을 마스킹하여 최종적으로 순수 차량 이동영역만을 추출해 낸다. When the difference images df1 to dfn are extracted as described above, all of the difference images df1 to dfn are compared with each other to allocate a high bit to a specific region of interest, that is, an effective road actually traveled by the vehicle, And allocates relatively low bits to set an actual vehicle movement area. At the same time, a portion other than the region of interest, i.e., the pure motion region of the vehicle, is masked to finally extract only the pure vehicle motion region.

상기와 같이 순수 차량 이동영역이 결정되면 그 차량 이동영역 영상프레임을 이용하여 가시선을 검출하고(I), 그 검출된 가시선을 결정한다. 즉 상기 이동영역 영상프레임에 수평방향 프로젝션과 임계치 자동추출 알고리즘을 통해 그 이동영역 영상프레임의 상단부분을 검출하여 가시선을 결정한다(J).When the pure vehicle moving region is determined as described above, the visible line is detected using the vehicle moving region image frame (I), and the detected line of sight is determined. That is, an upper part of the moving image frame is detected through the horizontal projection and the threshold automatic extraction algorithm on the moving area image frame to determine the line of sight (J).

상기와 같이 가시선이 결정되면, 복수의 시정 기준선이 설정된 로드모델에 비교 또는 합성하고 비선형 곡선접합을 수행하여 시정 산출 함수를 결정한 후 상기 가시선이 어느 부분에 위치하는가를 추출하면 그 가시선의 높이에 대한 시정을 계산해낼 수 있는 것이다(K). When the line of sight is determined as described above, a plurality of correction baselines are compared with or synthesized with a set load model, nonlinear curve joining is performed to determine a corrective calculation function, and where the line of sight is located is extracted, It is possible to calculate the visibility (K).

또한, 본 발명의 주요 특징에 따르면, 예컨대 해당영역의 특정구간을 통과하는 차량이 일반적인 전조등이 아닌 상향등을 순간적으로 작동하는 경우 CCD 카메라(A)에 의해 촬영되어 통신부(10)를 통해 영상처리부(20)에 전송된 프레임은 정상상태 또는 대낮으로 오인되므로, 이 영상프레임이 적용되는 경우 정상적인 드레스홀딩을 이룰 수 없을 뿐 아니라 적시에 안개소산장치를 작동시킬 수 없거나 오동작의 원인이 될 수 있는 것이다. According to the main feature of the present invention, for example, when a vehicle passing through a specific section of the area instantaneously operates an upside lamp rather than a general headlight, it is picked up by the CCD camera A and transmitted through the communication section 10 to the image processing section 20 are misinterpreted as a normal state or in the daytime. Therefore, when this image frame is applied, not only normal dress holding can be achieved but also the fog dissipating device can not be operated in a timely manner or cause malfunction.

이에 따라, 위와 같이 일시적 또는 순간적으로 평균값 이상의 조도가 조도 측정부(60)에 의해 감지 또는 측정되는 경우 상기 영상처리부(20)는 해당시간의 영상프레임을 배제하거나 삭제한 후 드레스홀딩하여 차영상들을 추출하는 것이 바람직하다. 여기서, 조도의 평균값이라 함은 다양한 차량의 일반적인 전조등 또는 후미등의 평균 조도를 의미하는 것으로 이해될 수 있으나, 이는 가시거리측정장치 또는 안개소산장치의 설치위치 또는 목적에 따라 설치자 또는 작업자가 임의로 설정하여 조도측정부(60)를 작동시킬 수 있음은 자명하다할 것이다. Accordingly, when the illuminance measuring unit 60 detects or measures the illuminance above or below the average value temporarily or instantaneously, the image processing unit 20 excludes or deletes the image frame of the corresponding time, holds the dresses, It is preferable to extract it. Here, the average value of the illuminance may be understood to mean an average illuminance of a general headlight or a tail lamp of various vehicles. However, the average value of the illuminance may be determined by the installer or the operator depending on the installation position or purpose of the visible- It will be obvious that the illuminance measurement unit 60 can be operated.

결국 본 발명의 주요 특징에 따르면, 촬영부에서 촬영된 복수의 영상프레임들로부터 획득된 차영상들을 대비 및 조합하는 과정에서 관심영역과 비관심영역의 구분 처리 및 마스킹 과정이 추가됨으로써 자동차의 순수 이동 영역 외의 영역에 이동 물체가 있는 경우 이를 제거함은 물론 차량의 일시적이고 순간적인 발광으로 인해 촬영되는 비정상 영상프레임을 제외시킴으로써 정확한 가시거리를 측정해 낼 수 있는 것이다.As a result, according to the main feature of the present invention, in the process of comparing and combining the difference images obtained from the plurality of image frames photographed by the photographing unit, the distinction processing and the masking process of the interest region and the non- It is possible to measure an accurate visible distance by excluding an abnormal image frame which is photographed due to temporal and instantaneous light emission of the vehicle as well as removing it when there is a moving object in an area outside the area.

이하, 상기와 같이 구성되는 안개피해 방지장치용 가시거리 측정장치를 이용한 가시거리 측정방법을 구체적으로 설명하면 다음과 같다. Hereinafter, a visible range measuring method using the visible range measuring apparatus for a fog damage prevention apparatus will be described in detail.

먼저, 본 발명에 따른 안개피해방지장치용 거시거리 측정장치는 그 제어부(30)에서 시정 기준선이 설정되어 있는지를 판단한다. First, the macroscopic distance measuring apparatus for a fog damage prevention apparatus according to the present invention determines whether a corrective reference line is set in the controller 30.

시정기준선이 설정되어 있으면 도로에 설치된 CCD 카메라로부터 촬영된 영상 프레임을 통신부(10)를 통해 수신한다. 그러나 시정 기준선이 설정되어 있지 않으면 제어부(30)는 통신부(10)를 통해 영상신호로 입력 받은 후, 그 제어부(30) 및 영상처리부(20)에서 제1 시정 기준선, 제2 시정 기준선 및 제3 시정 기준선을 설정한 후, 각각의 시정 기준선을 이용하여 비선형곡선적합(non-linear curve fitting)을 수행하고 시정 산출 함수 및 시정 산출 함수의 계수를 결정하여 이를 저장하여 시정 기준선으로 이용한다. When the corrective reference line is set, an image frame photographed from the CCD camera installed on the road is received through the communication unit 10. [ However, if the correction reference line is not set, the control unit 30 receives the image signal through the communication unit 10 and then outputs the first correction reference line, the second correction reference line, and the third correction reference line in the control unit 30 and the image processing unit 20, After setting the correction baseline, nonlinear curve fitting is performed using each correction baseline, and the coefficients of the correction calculation function and the correction calculation function are determined and stored as a correction reference line.

이어서, 제어부(30)는 일정시간 또는 단위시간 동안 영상 프레임을 수신하였는지를 판단한다. Then, the control unit 30 determines whether the image frame has been received for a predetermined time or unit time.

단위시간에 도달하거나 경과되면 수신되는 영상신호를 통해 날씨 정보를 감지하며, 단위시간이 경과되지 않으면 단위 시간이 경과될 때까지 영상프레임의 수신을 반복적으로 수행한다. When the unit time is reached or elapsed, the weather information is detected through the received image signal. If the unit time does not elapse, the image frame is repeatedly received until the unit time elapses.

한편, 상기 단위시간이 경과되면 제어부(30)는 날씨정보를 이용하여 도로에 눈 또는 비가 오는지 여부를 판단한다.On the other hand, when the unit time has elapsed, the control unit 30 determines whether snow or rain is on the road by using weather information.

눈 또는 비가 오면 수신된 영상신호로부터 눈 또는 비를 필터링하고, 눈 또는 비가 감지되지 않으면 수신된 영상신호로부터 차량의 이동 영역을 추출한다. 보다 상세히 설명하면, CCD 카메라에 의해 일정시간 촬영되어 통신부(10)를 통해 영상처리부(20)에 입력된 n개의 영상프레임(f1 ~ fn)이 입력되면, 최초의 제1영상프레임(f1)과 다음으로 반복되는 영상프레임들을 지나 최종 영상프레임(fn)을 연속적으로 드레스홀딩하여 n-1개의 차영상(df1 ~ dfn)을 추출한다. 다음으로 추출된 각각의 차영상(df1 ~ dfn) 모두를 대비하고 합성한 후 특정 관심영역에 높은 비트를 할당하고 나머지 비관심영역에는 상대적으로 낮은 비트를 할당하여 실제적인 이동영역을 구획하여 설정한다. 다음으로 차량의 이동영역을 제외한 부분을 마스킹하여 최종 차량 이동영역을 추출해 낸다. 또한, 조도측정부(60)에 의해 일시적 또는 순간적으로 평균 이상의 조도의 광이 탐지된 순간의 영상프레임을 영상처리부(20)애서 제외한 후 상기와 같은 드레스홀딩 및 차영상 추출 단계를 실행함으로써 더욱 정확하게 차량의 이동영역을 구획하여 설정할 수 있는 것이다. The eye or rain is filtered from the received video signal when an eye or a rain is present, and a moving region of the vehicle is extracted from the received video signal if no eye or rain is detected. More specifically, when n image frames (f1 to fn) captured by the CCD camera for a predetermined time and input to the image processing unit 20 through the communication unit 10 are input, the first image frame f1 and the first image frame Next, n-1 difference images df1 to dfn are extracted by successively dressing and holding the final image frame fn through repeated image frames. Next, all of the extracted difference images df1 to dfn are compared and synthesized, and then a high bit is assigned to a specific region of interest and a relatively low bit is assigned to the remaining regions of interest to divide and set an actual region of motion . Next, the portion excluding the moving region of the vehicle is masked to extract the final moving region of the vehicle. In addition, by performing the above-described dress holding and difference image extraction steps after excluding the image frame at the moment when the light intensity measuring unit 60 temporarily or instantaneously detects the light having the average or higher illuminance, It is possible to divide and set the moving region of the vehicle.

이와 같이 최종 차량 이동영역이 결정되면 수평방향 프로젝션과 임계치 자동추출 알고리즘을 이용하여 이동영역의 상단 부분을 탐색하여 가시선을 결정한다.When the final vehicle movement area is determined, the upper part of the movement area is searched to determine the line of sight using the horizontal projection and the threshold automatic extraction algorithm.

다음으로 제어부(30)는 시정 산출 함수를 이용하여 가시선에 대응하는 시정(visibility)을 측정한다.Next, the control unit 30 measures the visibility corresponding to the line of sight using the corrective calculation function.

최종적으로 상기 측정된 시정을 표시부(50)에 디스플레이하고 메모리부(40)에 저장한다. Finally, the measured correction is displayed on the display unit 50 and stored in the memory unit 40.

상기와 같이 구성 및 실행되는 가시거리 측정장치는 제한적이진 않지만 안개피해 방지장치에 적용되어 안개가 발생된 지역에서 가시거리를 정확히 측정하여 이를 경고 및 전파함으로써 안개로 인한 피해를 방지할 수 있는 것이다. The visual distance measuring apparatus constructed and executed as described above is not limited but can be applied to a mist preventing apparatus to accurately measure a visible distance in a mist generating region and to warn and propagate the visible distance to prevent damage due to mist.

또한 촬영수단에 의해 촬영된 복수의 영상프레임들로부터 획득된 차영상들을 대비 및 조합하는 과정에서 관심영역 구분 처리 및 마스킹 처리함은 물론 비정상적인 광의 측정시 촬영된 영상프레임을 제외시킴으로써, 자동차의 순수 이동 영역외의 영역에 이동 물체가 있는 경우에도 이로 인한 오측정 및 오동작의 발생이 방지되며, 안개가 발생될 때만 안개피해 방지장치가 작동됨으로써, 신뢰성 및 제품성이 향상될 수 있는 것이다.In addition, in the process of comparing and combining the difference images obtained from the plurality of image frames photographed by the photographing means, not only the interest region classification process and the masking process but also the image frames taken in the measurement of the abnormal light are excluded, Even when there is a moving object in an area outside the area, it is possible to prevent the occurrence of erroneous measurement and malfunction due to the moving object, and the mist preventing device is operated only when the mist is generated, so that the reliability and productability can be improved.

Claims (1)

안개발생시 가시거리에 따른 단계별 대응책을 구축하기 위한 안개피해방지장치용 가시거리 측정장치에 있어서,
안개발생 예상지역에 설치되어 해당영역을 촬영하기 위한 CCTV 카메라, CCD 카메라, CMOS 카메라 중 어느 하나로부터 촬영된 영상신호를 전송하도록 구성된 통신부(10);
상기 통신부(10)로부터 일정시간 동안 입력된 n(n은 자연수)개의 영상 프레임 중, 최초 영상 프레임과 후속하는 연속 영상 프레임들 간의 차연산(difference operation)을 통해 차영상(difference image)들을 획득하고, 미리 설정된 임계치를 이용하여 상기 획득된 차영상들을 이진화하고, 상기 이진화된 차영상들을 합성하여 이동 영역을 추출하며, 상기 추출된 이동 영역으로부터 도로 이외의 영역을 제거한 후 수평방향 프로젝션(projection)과 임계치 자동추출 알고리즘을 통해 상기 이동 영역의 상단 부분을 탐색하여 가시선을 결정하도록 구성된 영상처리부(20);
상기 통신부(10) 및 상기 영상처리부(20)에 연결되고, 가시거리 측정장치를 운용하기 전에 상기 영상 신호에 대해 3개의 시정 기준선을 이용하여 비선형 곡선적합(non-linear curve fitting)을 수행하여 시정 산출 함수 및 시정 산출 함수의 계수를 결정하고, 시정 산출 함수 및 시정 산출 함수의 계수를 이용하여 시정을 산출하도록 구성된 제어부(30);
상기 제어부(30)에 연결되며, 상기 제어부(30)에 의해 추출된 시정 산출 함수 및 시정 산출 함수의 계수와, 산출된 시정을 저장하도록 구성된 메모리부(40);
상기 제어부(30)에 연결되며, 상기 제어부(30)에 의해 산출된 시정을 디스플레이하도록 구성된 표시부(50); 및
이동중인 차량의 전조등 또는 후미등의 광의 세기를 측정하기 위한 조도측정부(60)를 포함하며:
상기 영상처리부(20)는,
영상신호가 데이터 처리속도 산출 프로그램에 의해 산출된 데이터 최고 처리속도에 적합한 처리 용량을 가지도록 상기 영상신호의 1초당 프레임수 중 이미지가 가장 선명한 일부 프레임으로 구성된 편집 영상을 저장하는 프레임편집모듈을 포함하고,
상기 프레임편집모듈은,
실시간으로 촬영된 영상신호를 각각의 프레임으로 구분하고, 상기 프레임들에 대한 형상의 분기, 절곡, 만곡 및 음영선을 추출하며, 상기 형상의 분기, 절곡, 만곡 및 음영선이 추출된 프레임을 삭제하고, 상기 삭제되지 않은 각 프레임 중 이미지가 가장 선명한 프레임을 선별하여 저장하는 프레임 편집 알고리즘을 가지며:
상기 영상처리부(20)는,
통신부(10)를 통해 제어부(30)로 전송된 각각의 영상 프레임(1 ~ n)들의 이웃하는 각각의 영상프레임 쌍들을 각각 드레스홀딩(thresholding)하고, 각각의 드레스홀딩된 영상 프레임 전체를 다시 드레스홀딩한 후 차량들이 이동하는 유효도로 이외의 영역을 마스킹 하도록 동작되고,
상기 조도측정부(60)로부터 측정된 조도가 미리 설정된 차량들의 전조등이나 후미등의 평균 조도 이상으로 감지되면 해당시간의 영상프레임을 제외하도록 동작되며,
각각의 드레스홀딩된 프레임들을 모두 대비하여 차량의 이동영역(관심영역)에는 미리 설정된 임계치 보다 높은 비트를 할당하고 나머지 이동영역외영역(비관심 영역)에는 미리 설정된 임계치 보다 낮은 비트를 할당하여 차량의 이동영역을 구획하여 설정하도록 동작되고,
획득된 각각의 상기 차영상(df1 ~ dfn) 모두를 대비하여 특정 관심영역에는 미리 설정된 임계치 보다 높은 비트를 할당하고 그 이외의 나머지 비관심영역에는 미리 설정된 임계치 보다 낮은 비트를 할당하는 방식으로 차량 이동영역을 설정하며,
차영상(df1 ~ dfn) 모두의 대비시, 미리 설정된 면적 변화량을 기준으로 영상의 변화가 많은 부분과 그렇지 않은 부분을 각각 관심영역과 비관심영역으로 구획하고 서로 다른 가중치가 부여되도록 하는 가중치부여모듈을 포함하고,
상기 가중치부여모듈은,
상기 영상신호의 프레임들을 순차적으로 비교하고 프레임의 전체영역을 조사하여 변화영역만을 추출하고, 상기 변화영역에 전처리 및 이치화를 수행한 후 각 프레임에서 잡영을 제거하고 영역해석을 통해서 변화영상을 저장하며, 각 프레임들이 미리 설정된 면적 변화량을 기준으로 변화영역이 많은 그룹과 그렇지 않은 그룹으로 구분되도록 하고, 이때, 변화영역이 많은 그룹의 중복 영역에 미리 설정된 임계치 보다 높은 비트가 부여되도록 하고 변화영역이 적은 그룹의 중복 영역에 미리 설정된 임계치 보다 낮은 비트가 부여되도록 하여, 상기 이동영역의 추출시 변화영역이 많은 그룹에 해당되는 프레임들만이 선별되어 차연산 처리되도록 하는 것을 특징으로 하는 안개피해방지장치용 가시거리 측정장치.
A visual distance measuring device for a fog damage prevention device for establishing a stepwise countermeasure according to a visible distance when a fog occurs,
A communication unit 10 configured to transmit a video signal photographed from any one of a CCTV camera, a CCD camera, and a CMOS camera installed in a fog occurrence expected area and photographing the corresponding area;
Difference images are obtained through a difference operation between an original image frame and subsequent consecutive image frames among n (n is a natural number) image frames input from the communication unit 10 for a predetermined period of time A binarization unit that binarizes the obtained difference images using a preset threshold value, extracts a moving region by combining the binarized difference images, removes a region other than the road from the extracted moving region, An image processing unit (20) configured to search a top portion of the moving region through a threshold value automatic extraction algorithm to determine a line of sight;
Before the visual distance measuring apparatus is operated, nonlinear curve fitting is performed on the image signal using three correction reference lines, and the correction is performed by correcting A control unit (30) configured to determine coefficients of the calculation function and the correction calculation function, and calculate a correction using coefficients of the correction calculation function and the correction calculation function;
A memory unit (40) connected to the control unit (30) and configured to store the coefficients of the corrective calculation function and the corrective calculation function extracted by the control unit (30) and the calculated corrective system;
A display unit (50) connected to the control unit (30) and configured to display a visibility calculated by the control unit (30); And
And an illuminance measurement unit (60) for measuring the intensity of light of the headlight or tail lamp of the moving vehicle,
The image processing unit (20)
And a frame editing module for storing an edited image composed of some of the frames having the clearest image among frames per second of the video signal so that the video signal has a processing capacity suitable for the data maximum processing speed calculated by the data processing speed calculating program and,
Wherein the frame editing module comprises:
Dividing the video signal photographed in real time into respective frames, extracting branching, bending, curving and shading lines of the frames with respect to the frames, and extracting the frames from which the branching, bending, And a frame editing algorithm for selecting and storing the frames with the clearest image among the frames not yet deleted,
The image processing unit (20)
Each neighboring pair of image frames of each video frame 1 to n transmitted to the control unit 30 through the communication unit 10 is thresholded and each of the dress- The vehicle is operated to mask an area other than the valid road where the vehicles move after holding,
If the illuminance measured by the illuminance measuring unit 60 is detected to be equal to or higher than the average illuminance of the headlights or tail lights of the preset vehicles,
A bit higher than a preset threshold value is allocated to a moving region (region of interest) of the vehicle, and a bit lower than a preset threshold value is allocated to the remaining region of the moving area (non-interest region) To move and set the moving area,
A bit higher than a preset threshold value is allocated to a specific region of interest in contrast to all of the obtained difference images df1 to dfn and a bit lower than a preset threshold value is allocated to remaining non- Area,
A weighting module for dividing the portion where the image has a large amount of change and the portion where the amount of the image is largely changed into a region of interest and a region of non-interest on the basis of a preset amount of area change when contrasting all of the difference images df1 to dfn, / RTI >
The weighting module,
The video signal frames are sequentially compared and the entire region of the frame is examined to extract only the change region, and the pre-processing and binarization are performed on the change region, and then the neuron is removed from each frame and the changed image is stored through the region analysis , Each frame is divided into a group having a large change area and a group having a large change area on the basis of a predetermined area change amount. At this time, a bit higher than a preset threshold value is given to a redundant area of a group having a large change area, Wherein a bit smaller than a preset threshold value is assigned to the overlapping area of the group so that only the frames corresponding to the group having a large change area at the time of extracting the moving area are selected and subjected to the difference operation processing. Distance measuring device.
KR1020170047474A 2017-04-12 2017-04-12 Device for Measuring Visibility for Fog Guardian Device KR101795652B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170047474A KR101795652B1 (en) 2017-04-12 2017-04-12 Device for Measuring Visibility for Fog Guardian Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170047474A KR101795652B1 (en) 2017-04-12 2017-04-12 Device for Measuring Visibility for Fog Guardian Device

Publications (1)

Publication Number Publication Date
KR101795652B1 true KR101795652B1 (en) 2017-11-09

Family

ID=60385867

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170047474A KR101795652B1 (en) 2017-04-12 2017-04-12 Device for Measuring Visibility for Fog Guardian Device

Country Status (1)

Country Link
KR (1) KR101795652B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097762A (en) * 2019-03-25 2019-08-06 南京微达电子科技有限公司 A kind of road video image low visibility scale evaluation method and system
KR102027086B1 (en) * 2019-03-28 2019-09-30 주식회사 카이넥스엠 Changeable sign board device system changing the speed limitdepending according to environment
CN111121714A (en) * 2019-12-25 2020-05-08 中公高科养护科技股份有限公司 Method and system for measuring driving sight distance
CN112614050A (en) * 2020-12-01 2021-04-06 深圳市豪恩汽车电子装备股份有限公司 Device and method for acquiring vehicle bottom road surface image of motor vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191276A (en) 2002-12-13 2004-07-08 Koito Ind Ltd Apparatus for distinguishing road-surface state
JP2008052453A (en) 2006-08-23 2008-03-06 Hokkaido Development Engineering Center Traveling support system
KR101032160B1 (en) 2009-10-06 2011-05-02 충주대학교 산학협력단 System and method for road visibility measurement using camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191276A (en) 2002-12-13 2004-07-08 Koito Ind Ltd Apparatus for distinguishing road-surface state
JP2008052453A (en) 2006-08-23 2008-03-06 Hokkaido Development Engineering Center Traveling support system
KR101032160B1 (en) 2009-10-06 2011-05-02 충주대학교 산학협력단 System and method for road visibility measurement using camera

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097762A (en) * 2019-03-25 2019-08-06 南京微达电子科技有限公司 A kind of road video image low visibility scale evaluation method and system
CN110097762B (en) * 2019-03-25 2020-10-09 南京微达电子科技有限公司 Road video image low visibility scale estimation method and system
KR102027086B1 (en) * 2019-03-28 2019-09-30 주식회사 카이넥스엠 Changeable sign board device system changing the speed limitdepending according to environment
CN111121714A (en) * 2019-12-25 2020-05-08 中公高科养护科技股份有限公司 Method and system for measuring driving sight distance
CN112614050A (en) * 2020-12-01 2021-04-06 深圳市豪恩汽车电子装备股份有限公司 Device and method for acquiring vehicle bottom road surface image of motor vehicle
CN112614050B (en) * 2020-12-01 2024-03-22 深圳市豪恩汽车电子装备股份有限公司 Device and method for acquiring road surface image of motor vehicle bottom

Similar Documents

Publication Publication Date Title
CN110555361B (en) Image processing method for lane classification
KR101795652B1 (en) Device for Measuring Visibility for Fog Guardian Device
TWI302879B (en) Real-time nighttime vehicle detection and recognition system based on computer vision
US10552706B2 (en) Attachable matter detection apparatus and attachable matter detection method
US8670592B2 (en) Clear path detection using segmentation-based method
US7566851B2 (en) Headlight, taillight and streetlight detection
KR101364727B1 (en) Method and apparatus for detecting fog using the processing of pictured image
WO2018073778A9 (en) System and method for object and obstacle detection and classification in collision avoidance of railway applications
CN108197523B (en) Night vehicle detection method and system based on image conversion and contour neighborhood difference
JPH08221577A (en) Device and method for detecting/extracting moving object
KR20030080285A (en) Apparatus and method for queue length of vehicle to measure
CN107909012B (en) Real-time vehicle tracking detection method and device based on disparity map
JPH07210795A (en) Method and instrument for image type traffic flow measurement
KR101728507B1 (en) Device for Measuring Visibility for Fog Guardian Device
KR101134857B1 (en) Apparatus and method for detecting a navigation vehicle in day and night according to luminous state
KR20130000023A (en) Method for dectecting front vehicle using scene information of image
JP6413318B2 (en) Vehicle detection device, system, and program
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP5175765B2 (en) Image processing apparatus and traffic monitoring apparatus
KR20140103441A (en) Vehicle lane recognition method and system using vision guidance device
CN110388985B (en) Method for determining color of street sign and image processing system
JP6413319B2 (en) Vehicle detection device, system, and program
WO2014050285A1 (en) Stereo camera device
Chiu et al. An embedded real-time vision system for 24-hour indoor/outdoor car-counting applications
Gumpp et al. Recognition and tracking of temporary lanes in motorway construction sites

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant