KR102357256B1 - Two dimensional aerosol extinction coefficient and directional visibility measurement methods, using arbitrary landscape image photography - Google Patents

Two dimensional aerosol extinction coefficient and directional visibility measurement methods, using arbitrary landscape image photography Download PDF

Info

Publication number
KR102357256B1
KR102357256B1 KR1020200090605A KR20200090605A KR102357256B1 KR 102357256 B1 KR102357256 B1 KR 102357256B1 KR 1020200090605 A KR1020200090605 A KR 1020200090605A KR 20200090605 A KR20200090605 A KR 20200090605A KR 102357256 B1 KR102357256 B1 KR 102357256B1
Authority
KR
South Korea
Prior art keywords
fine dust
dissipation coefficient
camera
grid
space
Prior art date
Application number
KR1020200090605A
Other languages
Korean (ko)
Inventor
김덕현
Original Assignee
한밭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한밭대학교 산학협력단 filed Critical 한밭대학교 산학협력단
Priority to KR1020200090605A priority Critical patent/KR102357256B1/en
Application granted granted Critical
Publication of KR102357256B1 publication Critical patent/KR102357256B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/02Investigating particle size or size distribution
    • G01N15/0205Investigating particle size or size distribution by optical means, e.g. by light scattering, diffraction, holography or imaging
    • G01N15/0227Investigating particle size or size distribution by optical means, e.g. by light scattering, diffraction, holography or imaging using imaging, e.g. a projected image of suspension; using holography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Electro-optical investigation, e.g. flow cytometers
    • G01N15/1434Electro-optical investigation, e.g. flow cytometers using an analyser being characterised by its optical arrangement
    • G01N2015/144Imaging characterised by its optical setup
    • G01N2015/1443Auxiliary imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Electro-optical investigation, e.g. flow cytometers
    • G01N15/1434Electro-optical investigation, e.g. flow cytometers using an analyser being characterised by its optical arrangement
    • G01N2015/144Imaging characterised by its optical setup
    • G01N2015/1445Three-dimensional imaging, imaging in different image planes, e.g. under different angles or at different depths, e.g. by a relative motion of sample and detector, for instance by tomography

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Dispersion Chemistry (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a method for calculating an average dissipation coefficient of fine dust in each direction in a space in sight of a camera based on the amount of fine dust in the atmosphere to obtain a dissipation coefficient of each voxel based on the calculated average dissipation coefficient of fine dust. An objective of the present invention is to provide a method of measuring direction dependent visibility range and two dimensional space fine dust distribution using an arbitrary landscape image of a camera, which calculates contribution of a dissipation coefficient of a plurality of voxels in a given space from an average value of fine dust in a plurality of directions obtained from one camera and an average dissipation coefficient obtained from another camera located at another direction through a solution of a system of equations, to obtain a dissipation coefficient of fine dust in each voxel. Since a dissipation coefficient of each direction is obtained using the above result and a dissipation coefficient in each voxel is obtained, dissipation coefficients of each location and each direction in a given space may be obtained by applying the obtained dissipation coefficients to a Koschmieder visibility distance definition.

Description

카메라의 임의 풍경 영상을 이용한 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법{Two dimensional aerosol extinction coefficient and directional visibility measurement methods, using arbitrary landscape image photography}Two dimensional aerosol extinction coefficient and directional visibility measurement methods, using arbitrary landscape image photography

본 발명은 카메라의 임의 풍경 영상을 이용한 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법에 관한 것으로서, 대기 중의 미세먼지의 양이 변하여 시정이 나빠지고, 시정이 나빠지면 카메라 피사체의 선명도(대비:contrast)가 변하여 시정거리가 나빠지는 원리를 이용하여 피사체 방향으로 미세먼지의 평균 소산계수를 얻을 수 있다는 사실과, 카메라의 시각(FOV: Field of View)에 있는 모든 피사체를 이용하는 경우 그 모든 방향으로의 시정과 그 모든 방향으로의 미세먼지의 평균 소산계수를 얻을 수 있다는 원리를 이용하는 카메라의 임의 풍경 영상을 이용한 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법에 관한 것이다.The present invention relates to a method for measuring direction-dependent visibility distance and two-dimensional spatial fine dust distribution using an arbitrary landscape image of a camera. The fact that the average dissipation coefficient of fine dust in the direction of the subject can be obtained using the principle that the visibility distance deteriorates due to the change of contrast It relates to a method of measuring the direction-dependent visibility distance and two-dimensional spatial fine dust distribution using an arbitrary landscape image of a camera using the principle that visibility of and the average dissipation coefficient of fine dust in all directions can be obtained.

2018년 한국대기환경학회에서 발표된 논문에서 보면 현재 중국 베이징의 미세먼지 농도는 1990년대의 한국의 미세먼지 농도와 비슷하다는 보고가 있는데 과학적으로는 틀리지 않으나 국민 정서상 받아들이기 어려운 결과로, 이는 미세먼지의 단위부피당 질량(

Figure 112020076202395-pat00001
을 측정의 표준으로 삼고 있어 이를 직접 비교하는 오류에서 일어난 일이다.According to a paper presented at the Korean Association of Atmospheric Environment in 2018, there is a report that the current fine dust concentration in Beijing, China is similar to the fine dust concentration in Korea in the 1990s. Mass per unit volume of dust (
Figure 112020076202395-pat00001
This was caused by an error in direct comparison with the standard of measurement.

일반인들이 관심을 두는 체감 미세먼지는 가시거리를 통한 것으로 이러한 물리량은 소산 계수(

Figure 112020076202395-pat00002
에 기반을 두는 물리량이며 이 값은 일반인들이 느끼는 미세먼지에 대한 정서와 부합한다. 또한, 실제 미세먼지에 묻어있는 오염원의 화학적 물리적 활성화는 그 면적에 비례기 때문에 환경/보건학 적으로도 단위 부피에 존재하는 미세먼지의 질량보다는 단위 부피에 존재하는 미세먼지의 총 면적이(
Figure 112020076202395-pat00003
더 중요한 물리량이다.The perceived fine dust that the general public is interested in is through the visible distance, and this physical quantity is the dissipation coefficient (
Figure 112020076202395-pat00002
It is a physical quantity based on In addition, since chemical and physical activation of pollutants embedded in actual fine dust is proportional to the area, from an environmental/health perspective, the total area of fine dust present in a unit volume (
Figure 112020076202395-pat00003
It is a more important physical quantity.

이러한 비 합리적인 계측은 기존의 미세먼지 총량 측정 장비의 값(TSP)을 그대로 사용하는 관행 때문이기도 하다. 그리고 몇 년 전부터 초미세먼지에 해당하는 PM2.5와 PM10을 동시에 측정하여서 초미세먼지의 중요성을 부각하고 있으나, 아직 미세먼지의 크기 분포와 같은 물리량을 알리는 노력이 진행 중에 있다.This unreasonable measurement is also due to the practice of using the value (TSP) of the existing total amount of fine dust measurement equipment as it is. In addition, the importance of ultrafine dust has been emphasized by simultaneously measuring PM2.5 and PM10, which are ultrafine particles, for several years, but efforts are still being made to inform the physical quantity such as the size distribution of fine dust.

광학적인 방법은 질량을 측정하는 기존의 방법에 대하여 직접

Figure 112020076202395-pat00004
단위의 물리량을 측정하기 때문에 일반인이 느끼는 정서에 맞는 그리고 실제 보건 환경학적으로 중요한 물리량을 측정한다고 할 수 있다.The optical method is directly related to the conventional method of measuring mass.
Figure 112020076202395-pat00004
Because it measures the physical quantity of a unit, it can be said that it measures a physical quantity that fits the emotions of the general public and is important in terms of actual health and environment.

그러나 초미세먼지의 측정 PM2.5와 PM10 등으로 이분화된 정도에 그칠 뿐만 아니라 역시 국소적인 지역에서의 측정하기 때문에 동네나 넓은 지역을 대표하기엔 여전히 부족함이 있다. 이러한 측면에서 비교적 넓은 지역으로 측정 범위를 다양화할 수 있고, 또 쉽게 얻을 수 있는 장치가 요구되고 있다.However, the measurement of ultrafine dust is not only dichotomized into PM2.5 and PM10, but it is also measured in a local area, so it is still insufficient to represent a neighborhood or a large area. In this respect, a device that can diversify the measurement range to a relatively wide area and can be easily obtained is required.

현재 국내에는 여러 가지(방범, 시계 측정, 교통상황 모니터링, 구름 분포 측정) 목적으로 카메라가 곳곳에 설치되어 있어, H/W 적인 장치 구축은 이미 존재한다고 할 수 있다. 그러므로 이를 활용할 수 있는 알고리즘이나 방법을 개발하는 것은 매우 중요하고 그 가치를 배가 할 수 있다. Currently, cameras are installed everywhere in Korea for various purposes (crime prevention, visibility measurement, traffic condition monitoring, cloud distribution measurement), so it can be said that H/W device construction already exists. Therefore, it is very important to develop an algorithm or method that can utilize it, and its value can be doubled.

시정을 측정하는 장치는 산란식, 투과식, 그리고 영상을 이용하는 방법이 있다. 그러나 시정은 미세먼지의 산란계수와 태양의 방향과 위치 등에 의존하기 때문에 같은 양의 미세먼지가 있더라도 시정은 달라진다. 기존의 산란식과 투과식은 미세먼지의 양과만 관계되기 때문에 다양한 환경(태양의 위치)에서 적용이 어렵다. 영상을 이용하는 방법도, 영상을 획득한 지점에서 바라본 풍경의 선명도만으로 시정을 유추하고 각 거리에서의 미세먼지 정보나, 거리 분해능이 있는 시정정보를 얻기 힘들다. 기존의 특허나 방법은 각 위치에서 시정거리 정보를 제공하는 것이 아니라 한 지점에서의 시정 정보만 주는 한계가 있었다.Devices for measuring visibility include a scattering type, a transmission type, and a method using an image. However, since visibility depends on the scattering coefficient of fine dust and the direction and position of the sun, visibility is different even with the same amount of fine dust. Because the existing scattering and transmission equations are related only to the amount of fine dust, it is difficult to apply them in various environments (position of the sun). In the method of using the image, visibility is inferred only from the sharpness of the landscape viewed from the point where the image was acquired, and it is difficult to obtain fine dust information at each street or visibility information with distance resolution. Existing patents or methods have a limitation in providing visibility information only at one point rather than providing visibility distance information at each location.

본 특허는 2 차원 픽셀에서 미세먼지의 소산계수를 얻기 때문에 2 차원 평면 각 픽셀에서 시정정보를 줄 수 있을 뿐만 아니라, 방향에도 의존하는 시정 정보를 제공한다. 이를테면, 같은 미세먼지 조건에서 태양을 안고 운전을 하는 입장과, 태양을 등지고 운전하는 운전자에게 다른 시정거리를 제공하는 것이며, 또한 운전자가 다른 위치에 있을 때 시정이 어떻게 변하는가에 대한 정보도 제공한다. 즉 2 차원 공간의 픽셀에서의 시정이나 미세먼지의 소산계수 정보를 제공해 줄 수 있다는 것이다.Since this patent obtains the dissipation coefficient of fine dust from a two-dimensional pixel, visibility information can be provided for each pixel in a two-dimensional plane as well as visibility information dependent on the direction. For example, it provides different visibility distances to a driver who drives with his back to the sun and a driving position with the sun in the same fine dust condition, and also provides information on how visibility changes when the driver is in different positions. In other words, it can provide visibility of pixels in two-dimensional space or dissipation coefficient information of fine dust.

대한민국 등록특허 제10-1892999호(2018.08.23.)Republic of Korea Patent Registration No. 10-1892999 (2018.08.23.)

본 발명의 목적은 대기 중의 미세먼지의 양을 카메라의 시야에 있는 공간에서 각 방향으로 미세먼지의 평균 소산계수를 구하고 이로부터 그 방향에 있는 2차원 공간상의 각 복셀의 소산계수를 구할 수 있는 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법을 제공하는 데 있다.An object of the present invention is to obtain the average dissipation coefficient of fine dust in each direction in the space in the field of view of the camera for the amount of fine dust in the atmosphere, and from this, the direction in which the dissipation coefficient of each voxel in the two-dimensional space in that direction can be obtained It aims to provide a method for measuring dependent visibility distance and two-dimensional spatial fine dust distribution.

본 발명의 다른 목적은, 하나의 카메라로 얻은 여러 방향에서의 미세먼지의 평균값과 또 다른 방향으로 위치한 다른 카메라를 통하여 얻은 평균 소산계수로부터 주어진 공간의 여러 개의 각 복셀의 소산계수의 기여도를 연립방정싱의 해를 통하여 산출하여 각 복셀에서의 미세먼지의 소산계수를 얻을 수 있는 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법을 제공하는 데 있다.Another object of the present invention is to calculate the contribution of the dissipation coefficient of each voxel in a given space from the average value of fine dust in several directions obtained with one camera and the average dissipation coefficient obtained through another camera located in another direction. The purpose of this study is to provide a method for measuring the direction-dependent visibility distance and two-dimensional spatial fine dust distribution that can be calculated through Jung Singh's solution to obtain the fine dust dissipation coefficient in each voxel.

상기와 같은 목적을 달성하기 위해 본 발명은 카메라의 임의 풍경 영상을 이용한 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법에 관한 것으로, 미세먼지 분포를 측정하기 위한 지역을 2차원 평면공간으로 하여 상기 2차원 평면공간을 n×m 개(n, m은 1 이상의 자연수)의 격자형 공간으로 구획하는 단계; 컬러 영상을 얻을 수 있는 디지털 카메라가 설치된 특정 위치에서 상기 격자형 공간을 향해 1 ∼ n×m 개 방향으로 상기 카메라에서 획득된 RGB 파장을 통해 상기 격자형 공간의 끝단까지의 거리에 대해 미세먼지의 평균 소산계수를 산출하는 단계; 상기 각 방향에 대한 미세먼지의 평균 소산계수를 해당 방향으로 각 격자형 공간에서의 미세먼지 소산계수와 상기 격자형 공간을 통과하는 거리에 관한 n×m차 연립 방정식으로 생성하는 단계; 및 상기 연립 방정식을 계산하여 각 격자형 공간에 대한 미세먼지 소산계수를 산출하는 단계;를 포함한다.In order to achieve the above object, the present invention relates to a method for measuring a direction-dependent visibility distance and a two-dimensional spatial fine dust distribution using an arbitrary landscape image of a camera. partitioning the two-dimensional planar space into n×m grid spaces (n and m are natural numbers greater than or equal to 1); At a specific location where a digital camera capable of obtaining a color image is installed, in 1 to n×m directions toward the grid-type space, the distance from the end of the grid-type space to the end of the grid-type space through the RGB wavelengths obtained from the camera calculating an average dissipation coefficient; generating an average dissipation coefficient of fine dust in each direction as an n×m-order simultaneous equation regarding a fine dust dissipation coefficient in each grid space in the corresponding direction and a distance passing through the grid space; and calculating the simultaneous equation to calculate a fine dust dissipation coefficient for each grid-type space.

그리고 상기 미세먼지의 평균 소산계수를 산출하는 단계에서는, 상기 격자형 공간에서 서로 이격된 위치에서 2대 이상의 카메라를 배치하여 각 카메라가 설치된 위치에서 상기 격자형 공간을 향해 총 1 ∼ n×m 개 방향으로 상기 격자형 공간의 끝단까지의 거리에 대해 미세먼지의 평균 소산계수를 산출한다.And in the step of calculating the average dissipation coefficient of the fine dust, two or more cameras are arranged at positions spaced apart from each other in the grid space, and a total of 1 to n × m cameras are placed toward the grid space from the position where each camera is installed. The average dissipation coefficient of fine dust is calculated for the distance to the end of the grid space in the direction.

이때 2대의 카메라가 사용되는 경우에는, 상기 격자형 공간에서 상호 직각의 각도로 이격되게 배치되는 것이 바람직하다.In this case, when two cameras are used, it is preferable to be spaced apart from each other at an angle perpendicular to each other in the grid-type space.

또한 3대의 카메라가 사용되는 경우에는, 상기 격자형 공간에서 상호 60°의 각도로 이격되게 배치되는 것이 바람직하다.In addition, when three cameras are used, it is preferable to be spaced apart from each other at an angle of 60° in the grid space.

그리고 상기 미세먼지의 평균 소산계수를 산출하는 단계에서는, 상기 카메라에서 획득한 RGB 파장 중에서 Green 파장을 통해 소산계수를 산출할 수 있다.In the step of calculating the average dissipation coefficient of the fine dust, the dissipation coefficient may be calculated through the Green wavelength among the RGB wavelengths obtained by the camera.

본 발명에 따른 카메라의 임의 풍경 영상을 이용한 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법에 따르면, 카메라의 시야에 있는 공간을 2차원 평면 상의 복수의 픽셀로 구분했을 때 각 픽셀에서의 미세먼지 소산계수를 산출할 수 있어 해당 지역의 미세먼지 평균값이 아니라 해당 지역의 특정 지점별로 미세먼지값을 산출하여 제공할 수 있는 장점이 있다. According to the method for measuring the direction-dependent visibility distance and two-dimensional spatial fine dust distribution using an arbitrary landscape image of a camera according to the present invention, when the space in the camera's field of view is divided into a plurality of pixels on a two-dimensional plane, the fineness in each pixel Since the dust dissipation coefficient can be calculated, there is an advantage in that it is possible to calculate and provide the fine dust value for each specific point in the region, rather than the average value of the fine dust in the region.

그리고 본 발명에 따르면, 다양한 방향으로 촬영하는 디지털 카메라의 영상신호를 이용하여 특정 지점에 대한 미세먼지값을 보다 정확하고 용이하게 실시간으로 제공할 수 있는 이점이 있다.And, according to the present invention, there is an advantage in that it is possible to more accurately and easily provide a fine dust value for a specific point in real time by using an image signal of a digital camera that is photographed in various directions.

도 1은 태양광에 산란된 빛이 눈으로 입사되는 방식을 설명하는 도면,
도 2는 대기 부유물질의 종류 및 각도에 따른 산란특성을 나타내는 도면,
도 3은 특정지역에서 360° 파노라마 영상으로 촬영할 때 보여지는 전경의 선명도 차이를 볼 수 있는 사진,
도 4는 카메라에 대해 일방향과 타방향으로 순차적으로 배열된 피사체를 도시한 도면,
도 5는 2대의 카메라로 2차원 평면공간을 격자형으로 구획한 복셀별로 미세먼지 소산계수를 산출하는 방법을 설명하는 도면이다.
1 is a view for explaining how light scattered by sunlight is incident on the eye;
2 is a view showing the scattering characteristics according to the type and angle of suspended matter in the atmosphere;
3 is a photograph showing a difference in the sharpness of the foreground shown when shooting a 360° panoramic image in a specific area;
4 is a view showing subjects sequentially arranged in one direction and the other with respect to the camera;
FIG. 5 is a view for explaining a method of calculating a fine dust dissipation coefficient for each voxel in which a two-dimensional planar space is partitioned into a grid using two cameras.

이하에서는 첨부된 도면과 함께 본 발명에 따른 카메라의 임의 풍경 영상을 이용한 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법에 대해 상세히 설명하기로 한다.Hereinafter, a method for measuring a direction-dependent visibility distance and a two-dimensional spatial fine dust distribution using an arbitrary landscape image of a camera according to the present invention will be described in detail together with the accompanying drawings.

도 1은 태양광에 산란된 빛이 눈으로 입사되는 방식을 설명하는 도면이고, 도 2는 대기 부유물질의 종류 및 각도에 따른 산란특성을 나타내는 도면이며, 도 3은 특정지역에서 360° 파노라마 영상으로 촬영할 때 보여지는 전경의 선명도 차이를 볼 수 있는 사진이고, 도 4는 카메라에 대해 일방향과 타방향으로 순차적으로 배열된 피사체를 도시한 도면이며, 도 5는 2대의 카메라로 2차원 평면공간을 격자형으로 구획한 복셀별로 미세먼지 소산계수를 산출하는 방법을 설명하는 도면이다.1 is a view for explaining how light scattered by sunlight is incident on the eye, FIG. 2 is a view showing scattering characteristics according to the type and angle of air suspended matter, and FIG. 3 is a 360° panoramic image in a specific area. It is a photograph showing the difference in the sharpness of the foreground shown when shooting with It is a diagram explaining a method of calculating the fine dust dissipation coefficient for each voxel partitioned in a grid type.

본 발명은 한 지점에서 영상을 얻어 그 지점에서 카메라의 시각(FOV) 내에 있는 방향으로 시정거리를 얻고, 다시 카메라의 방향을 바꾸어 영상을 얻어 같은 방법으로 다른 방향으로의 시정거리를 얻는 과정을 통하여 다양한 방향으로의 시정거리를 얻으며, 다양한 방향으로의 시정거리를 제공할 수 있다. 또한 각 방향으로의 시정거리는 코시미더의 정의에 의하면, 그 방향으로의 미세먼지와 관련이 있어, 각 방향으로의 미세먼지의 평균값을 동시에 제공한다.The present invention obtains an image at a point, obtains a visibility distance from that point in a direction within the camera's field of view (FOV), and obtains an image by changing the direction of the camera again through the process of obtaining a visibility distance in another direction in the same way Visibility distances in various directions are obtained, and visibility distances in various directions can be provided. In addition, the visibility distance in each direction is related to the fine dust in that direction, according to the definition of the cosimider, and provides an average value of the fine dust in each direction at the same time.

특정방향으로의 평균 소산계수는, 그 방향에 있는 공간 화소에서 빛이 통과하는 총 길이를 가중치로 하여 각 공간화소의 소산계수를 평균한 것이다.The average dissipation coefficient in a specific direction is an average of the dissipation coefficients of each spatial pixel with the total length of light passing through the spatial pixels in that direction as a weight.

하나의 방향에서 얻은 평균 소산계수는 여러 공간화소의 가중치 평균이므로 다양한 방향에서 평균 소산계수를 구하면 여러 개의 평균 소산계수를 얻을 수 있고, 전체 공간화소의 수보다 많은 방향에서 평균 소산계수를 구하면 각 공간화소에서의 소산계수로 연립방정식의 해를 얻어서 사용할 수 있다.Since the average dissipation coefficient obtained in one direction is a weighted average of several spatial pixels, multiple average dissipation coefficients can be obtained by calculating the average dissipation coefficient in various directions. It is possible to obtain and use the solution of the system of equations with the dissipation coefficient in the pixel.

이렇게 얻은 각 공간화소에서의 소산계수는 그 지점에서의 시정거리를 추출할 수 있어, 결국 2차원 공간에서 위치에 따른 시정거리를 얻을 수 있다. 동시에 각 한 지점에서 여러 방향으로 얻은 평균 소산계수를 이용하면 방향에 따른 시정거리를 환산할 수 있다.The dissipation coefficient at each spatial pixel obtained in this way can extract the visibility distance at that point, and eventually, the visibility distance according to the location in the two-dimensional space can be obtained. At the same time, by using the average dissipation coefficient obtained from each point in several directions, the visibility distance according to the direction can be converted.

이에 대해 보다 자세히 설명하면 다음과 같다.A more detailed description of this is as follows.

시정이란 대기의 혼탁한 정도를 나타내는 기상요소로서 지표면에서 정상적인 시각을 가진 사람이 목표물(0.5°에서 5°정도의 각도크기)을 식별할 수 있는 최대 거리를 ㎞ 단위로 표시되며, 기상청 홈페이지(www.weather.go.kr)에서 1시간 단위로 업데이트 되는 수치를 확인할 수 있다. 이러한 시정은 대기 중에 존재하는 부유물질( 공기, 미세먼지, 안개, 수증기,... 등)과 태양에 의하여 조명되는 피사체의 경우 태양에 의한 조도와 태양의 방향에도 영향을 받는데 가장 중요한 변수는 미세먼지이다.Visibility is a meteorological factor that indicates the degree of atmospheric turbidity, and the maximum distance that a person with normal vision from the ground can identify a target (angle of 0.5° to 5°) is displayed in km unit, and is displayed on the Korea Meteorological Administration website (www. You can check the number updated every hour at .weather.go.kr). Visibility is also affected by suspended substances (air, fine dust, fog, water vapor, etc.) in the atmosphere and, in the case of objects illuminated by the sun, the illuminance and direction of the sun. it is dust

대기 중에 존재하는 미세먼지는 주로 빛을 산란시켜 우리 눈에 도달하는 빛의 세기를 약화시킴에 따라 시정을 악화시키기 때문에 시정은 대기 오염도를 가장 쉽게 체감할 수 있은 지표이다. 하나의 예로 황사, 스모그 등 미세먼지가 많은 날의 시정은 매우 짧다. 시정이 짧다는 것은 대기 부유물질에 의하여 피사체(물체)의 상이 흐릿하게 망막에 맺히게 되는 것을 의미하며, 이런 현상은 피사체에서 출발한 빛이 대기 중에 존재하는 부유물질(공기분자(질소/산소), 미세먼지, 물방울(안개))에 의하여 산란된 신호가 줄어듬과 동시에 부유 물질에 의하여 산란된 빛도 동시에 눈을 통하여 망막에 입사되기 때문이다. Visibility is the most easily perceived indicator of air pollution because fine dust in the air mainly scatters light and weakens the intensity of light reaching our eyes, thereby worsening visibility. As an example, visibility on days with a lot of fine dust, such as yellow dust and smog, is very short. Short visibility means that the image of the subject (object) is blurred on the retina by the suspended matter in the atmosphere. This is because the signal scattered by fine dust and water droplets (fog)) is reduced, and at the same time, the light scattered by suspended matter enters the retina through the eye at the same time.

흐릿함의 정도는 대기 중에 포함된 부유물질의 양, 조명(태양)의 방향, 그리고 조명의 세기 등에 의하여 결정된다. 즉 대기 부유물질의 양이 같더라도 태양광의 위치와 세기에 의하여 달라질 수도 있다는 의미이다. 예를 들어 검은 색 배경에서 흰 물체를 관측하거나 반대로 검은색 배경에서 흰색의 물체를 관측하고 있다면, 근거리에서는 부유물질에 의한 산란 신호가 눈으로 적게 입사되고 물체에서 산란된 빛은 많은 양이 되며, 물체와 카메라의 거리가 멀수록 대기 부유물질에 의한 산란 신호가 커지게 된다. 개념적으로는 도 1과 같은 형태로 눈으로 빛이 입사된다.The degree of blur is determined by the amount of suspended matter in the atmosphere, the direction of the light (sun), and the intensity of the light. In other words, even if the amount of suspended matter in the atmosphere is the same, it may be different depending on the location and intensity of sunlight. For example, if a white object is observed on a black background or a white object is observed on a black background, at a short distance, the scattered signal by suspended matter is less incident to the eye, and the scattered light from the object is large. The greater the distance between the object and the camera, the greater the signal scattering by airborne matter. Conceptually, light is incident on the eye in the form shown in FIG. 1 .

도 1에서 둥근 모양의 검은 색 물체는 부유물질이고, 이는 눈과 물체 사이에 있는 모든 입자를 대표하는 것이다. 도 1에서는 물체(object)와 물체가 없는 부분(background)를 따로 나타내었으며, '1' 은 부유물질에 의하여 산란된 빛이 눈으로 입사되는 경우, '2'는 물체에서 입사되어 눈으로 입사되는 경우, '3'은 물체가 없는 공간(하늘)의 경우에 해당한다. 또한 '4'는 부유입자에 의하여 산란되었으나, 눈으로 입사되지 못하고 공간으로 퍼져나가는 빛을 나타낸 것이다. 마지막으로 'θ'는 태양광과 부유입자 그리고 눈이 만드는 각도를 의미한다.In Fig. 1, the round black object is suspended matter, which represents all particles between the eye and the object. In FIG. 1, an object and a background without an object are shown separately, and '1' indicates that light scattered by suspended matter is incident on the eye, and '2' indicates that the light is incident from the object and is incident on the eye. In this case, '3' corresponds to the case of a space without an object (the sky). In addition, '4' indicates light that is scattered by suspended particles, but does not enter the eye and spreads into space. Finally, 'θ' refers to the angle made by sunlight, suspended particles, and snow.

본 발명에서 기술된 목표물는 도 1에서 '3'과 같은 물체가 렌즈에 의하여 상이 CCD에 맺혀 있을 때 그 밝기 분포를 의미하며, 그 밝기 분포는 위에서 설명한 것과 같이 일정거리에 있는 물체에서 출발한 신호와 물체와 눈의 거리 중간 영역에 있는 모든 입자에 의하여 산란된 것의 합이 될 것이다. 물체에서 산란된 빛의 세기는 비어람베르트(Beer Lambert) 법칙에 의하여 점점 감소할 것이며, 배경신호(흐릿함), 즉 공기 중에 부유한 입자의 산란 신호는 물체와 눈(CCD)사이의 모든 거리에 있는 입자의 산란 효과를 적분한 것이 된다. 이러한 효과를 수학적으로 표현하면 [수학식 1]과 같다.The target described in the present invention means the brightness distribution of an object such as '3' in FIG. 1 when an image is formed on the CCD by a lens, and the brightness distribution is a signal from an object at a certain distance as described above and It will be the sum of the scattered by all particles in the region midway between the object and the eye. The intensity of the scattered light from the object will gradually decrease according to the Beer Lambert law, and the background signal (blurry), that is, the scattered signal of particles suspended in the air, is transmitted at all distances between the object and the eye (CCD). It is the integration of the scattering effect of the particles present. This effect is expressed mathematically as [Equation 1].

Figure 112020076202395-pat00005
Figure 112020076202395-pat00005

[수학식 1]은 거리 R에 있는 물체의 상이 망막(CCD)에서 어떤 세기(I)로 맺히는가를 기술한 것이다. 식에서 'α'는 빛의 소산계수를 나타내고, 'C1'은 공기 중의 부유입자에 의한 것인데, 이는 태양과 부유입자 그리고 눈이 만드는 각도에 의존한다. 'C2'는 물체(태양)의 방향, 색, 반사도 등에 의하여 결정되는 양이다. 전체적으로 영상의 선명도는 이러한 변수들 모두에 의하여 결정된다고 할 수 있다. [Equation 1] describes at what intensity (I) the image of the object at the distance R is formed on the retina (CCD). In the equation, 'α' represents the light dissipation coefficient, and 'C 1 ' is due to suspended particles in the air, which depends on the angle made by the sun, suspended particles, and snow. 'C 2 ' is a quantity determined by the direction, color, and reflectivity of an object (sun). Overall, it can be said that the sharpness of an image is determined by all of these variables.

시정을 정의함에 있어 선명도는 물체의 특성(

Figure 112020076202395-pat00006
)과 부유물질의 특성(
Figure 112020076202395-pat00007
)에 의하여 결정된다. 즉 선명도는 물체의 종류와 부유물질에 의하여 결정된다. 다르게 표현하면 물체의 반사도와 태양의 반사각에 의하여 'C1'이 결정되며, 마찬가지로 태양과 카메라 그리고 대기 부유물질의 종류와 각도에 의하여 'C2' 값이 결정된다. 'C1'값은 산란면의 특성이 주어져 있을 경우(물체가 나무, 바위 등) 오직 태양과 이루는 각도에 의한 Rambertian 반사 특성을 따르고, 'C1'은 부유 입자의 카메라 방향으로의 반사도를 의미하며 Mie 산란 특성을 따른다. 두 산란 특성은 아래 도 2와 같은데, 도면에서 알 수 있듯이 부유입자의 경우 태양광과 물체가 같은 방향에 존재하여 그 각도(θ)가 '0'에 가까운 경우 급격히 산란의 세기가 커진다. 반면에 물체의 Rambertian은 코사인 함수의 꼴로 나타나며, 물체의 종류에 따른 변화가 그리 크기 않다.In defining visibility, sharpness is a characteristic of an object (
Figure 112020076202395-pat00006
) and properties of suspended solids (
Figure 112020076202395-pat00007
) is determined by That is, the sharpness is determined by the type of object and suspended matter. In other words, 'C 1 ' is determined by the reflectivity of the object and the angle of reflection of the sun, and similarly, the 'C 2 ' value is determined by the type and angle of the sun, camera, and air suspended matter. The 'C 1 ' value follows the Lambertian reflection characteristic by the angle formed with the sun only when the scattering surface characteristics are given (objects such as trees, rocks, etc.), and 'C 1 ' means the reflectivity of suspended particles in the camera direction. and follows the Mie scattering characteristics. The two scattering characteristics are the same as in Fig. 2 below. As can be seen from the figure, in the case of suspended particles, sunlight and the object exist in the same direction, and when the angle (θ) is close to '0', the intensity of scattering increases rapidly. On the other hand, the Rambertian of an object appears in the form of a cosine function, and the change according to the type of object is not so great.

반면에 부유 입자의 경우 입자의 크기에 따라 전방산란(forward scattering)이 강하게 일어난다. 즉 배경신호에 해당하는 부유 입자의 산란신호는 각도에 매우 민감하므로 시정의 정의를 고려할 때 같은 물질이 대기 중에 부유하고 있더라도 시정은 태양의 각도에 매우 민감하다, 예를 들어, 태양을 안고 풍경을 바라보는 경우 부유 입자에 의한 산란이 매우 커져서 시정이 나빠진다. 결론적으로 이러한 선명도는 주어진 거리에서 부유물질의 산란 신호의 세기에만 의존한다. 이러한 사실은 우리가 일상 생활에서도 충분히 느낄 수 있다. 그러므로 시정의 정보는 위치, 방향, 그리고 시간적으로 주어져야 한다. 부유 입자가 같더라도 방향에 따라 배경신호의 크기가 달라져 시정거리가 달라지기 때문에 방향에 따라 다른 시정 값을 줄 수 있어야한다. 도 3은 360°파노라마 영상을 보여주는 것으로 같은 전경에서 다른 선명도를 보이는 예를 보이는 것이다. 태양을 포함한 전방산란 근처에서는 배경신호가 커져서 선명도가 나빠지고, 결론적으로 시정이 나빠진다는 것을 알 수 있다. 이러한 점에 있어서 본 발명을 구현함에 있어선 카메라의 화각에 다양한 거리의 목표물체가 존재하도록 카메라를 적절히 선택적으로 설치할 필요가 있으며, 이로부터 다양한 각도에서 시정의 정보를 얻을 필요가 있다.On the other hand, in the case of suspended particles, forward scattering occurs strongly depending on the size of the particles. In other words, the scattering signal of suspended particles corresponding to the background signal is very sensitive to the angle, so when considering the definition of visibility, the visibility is very sensitive to the angle of the sun even if the same material is floating in the atmosphere. When viewed, the scattering by the suspended particles becomes very large and the visibility deteriorates. Consequently, this sharpness depends only on the intensity of the scattering signal of suspended matter at a given distance. This fact can be fully felt in our daily life. Therefore, visibility information must be given in location, direction, and time. Even if the suspended particles are the same, the magnitude of the background signal changes depending on the direction and the visibility distance varies. 3 shows an example of a 360° panoramic image showing different sharpness in the same foreground. It can be seen that in the vicinity of forward scattering including the sun, the background signal becomes larger and the sharpness deteriorates, and consequently the visibility deteriorates. In this regard, in implementing the present invention, it is necessary to properly and selectively install the camera so that target objects of various distances exist in the angle of view of the camera, and there is a need to obtain visibility information from various angles.

공항에서 주로 사용하는 시정은 높은 고도에서 바라본 가장 가까우면서 가장 높은 지역의 산과 같은 물체의 인식이 중요할 것이며, 이러한 기본적 이유 때문에 낮 시간에는 코시미더 정의가 주로 사용된다. 즉 파일럿의 입장에서 하늘을 배경으로 물체의 밝기에 대한 하늘 배경의 밝기를 통하여 정의되는 것이 적정할 수 있다. 즉 시정의 정의는 검은 색과 백색의 물체를 특정 거리에 두고 그 검은색 물체를 구별할 수 있는가에 의하여 결정된다. 예를 들어 그림자가 생긴 산(

Figure 112020076202395-pat00008
)과 하늘(
Figure 112020076202395-pat00009
:배경)의 밝기 차이가 산의 유무를 결정할 수 있으며, 이는 선명도로 인식되기 때문에 대비(혹은 선명도)는 다음과 같이 정의된다. For visibility mainly used in airports, recognition of the closest and highest mountain-like object viewed from a high altitude will be important. That is, from the pilot's point of view, it may be appropriate to define the brightness of an object with the sky as a background through the brightness of the sky background. That is, the definition of visibility is determined by whether black and white objects can be distinguished from each other by placing them at a specific distance. For example, a shadowed mountain (
Figure 112020076202395-pat00008
) and the sky (
Figure 112020076202395-pat00009
: The difference in brightness of the background) can determine the presence or absence of acid, which is recognized as sharpness, so contrast (or sharpness) is defined as follows.

Figure 112020076202395-pat00010
Figure 112020076202395-pat00010

위의 [수학식 2]에서 '

Figure 112020076202395-pat00011
'는 산을 의미하며, '
Figure 112020076202395-pat00012
'는 배경을 의미하므로 대비는 배경신소에 대한 물체(
Figure 112020076202395-pat00013
)와 배경신호(
Figure 112020076202395-pat00014
)의 차이를 말하므로, [수학식 1]을 배경신호와 물체에 적용하면, 즉 아래의 [수학식 3]과 같이 표현할 수 있다.In [Equation 2] above, '
Figure 112020076202395-pat00011
' means mountain, '
Figure 112020076202395-pat00012
' means the background, so the contrast is the object (
Figure 112020076202395-pat00013
) and the background signal (
Figure 112020076202395-pat00014
), if [Equation 1] is applied to the background signal and the object, that is, it can be expressed as [Equation 3] below.

Figure 112020076202395-pat00015
Figure 112020076202395-pat00015

Figure 112020076202395-pat00016
Figure 112020076202395-pat00016

[수학식 3]에서 '

Figure 112020076202395-pat00017
'는 검은 물체의 망막(CCD)에서의 밝기, '
Figure 112020076202395-pat00018
'는 하늘과 같은 배경신호의 망막(CCD)에서의 밝기를 나타낸다. 그러므로 코시미더 선명도는 오직 소산계수와 거리의 변수만 된다. 코시미더의 정의에 따르면 위의 [수학 2]에서 대비(contrast=0.02)가 0.02(2%)가 되는 거리(R)를 시정으로 정의한다. 그러므로 코시미더 시정거리는 550nm 파장에서의 소산계수는 시정 거리(V)와 다음의 관계가 있다.(왜냐하면 log(0.02)=-3.9) In [Equation 3], '
Figure 112020076202395-pat00017
' is the brightness in the retina (CCD) of a black object, '
Figure 112020076202395-pat00018
' indicates the brightness in the retina (CCD) of a background signal such as the sky. Therefore, cosimidor sharpness is only a variable of dissipation coefficient and distance. According to the definition of cosimider, the distance (R) at which the contrast (contrast=0.02) becomes 0.02 (2%) in [Mathematics 2] above is defined as visibility. Therefore, the cosimidor visibility is related to the dissipation coefficient at the wavelength of 550nm as follows (because log(0.02)=-3.9)

Figure 112020076202395-pat00019
Figure 112020076202395-pat00019

550nm 파장은 인간의 망막에 있는 원추세포 3개 중에서 가장 감도가 좋은 파장이며, 목측(eye observation)으로 시정을 관측할 경우 이 파장에서의 소산계수가 가장 영향을 많이 미친다. [수학식 3]에서 550nm에서 소산계수를 알면 시정거리를 알 수 있고, 반대로 시정을 얻으면 550nm에서 소산계수를 얻을 수 있다는 의미이다. 만약 대기 중에 공기만 존재한다면, Rayleigh 산란에 의하여 시정거리는 약 296km가 된다. 결론적으로 위의 식을 통하여 소산계수로부터 시정을 얻을 수도 있으며 역으로도 가능하다. 기존의 장치는 미세먼지에 의한 소산계수로부터 시정을 얻은 반면 본 발명은 시정을 직접 특정하며 또한 시정으로부터 미세먼지의 소산계수를 얻는다. 카메라를 이용하여 소산계수를 얻는 경우 RGB 파장 중에서 Green 파장에서의 소산계수를 이용하는 것이 가장 시정거리 계산에 오차가 적다.The wavelength of 550 nm is the most sensitive among the three cone cells in the human retina, and when observing visibility by eye observation, the dissipation coefficient at this wavelength has the most influence. In [Equation 3], if the dissipation coefficient is known at 550 nm, the visibility distance can be known, and conversely, if the visibility is obtained, it means that the dissipation coefficient can be obtained at 550 nm. If there is only air in the atmosphere, the visibility due to Rayleigh scattering is about 296 km. In conclusion, the correction can be obtained from the dissipation coefficient through the above equation, and vice versa. While the existing device obtains the visibility from the dissipation coefficient due to fine dust, the present invention directly specifies the visibility and also obtains the dissipation coefficient of the fine dust from the visibility. When the dissipation coefficient is obtained using a camera, the use of the dissipation coefficient at the green wavelength among RGB wavelengths has the least error in the calculation of the visibility distance.

고정된 카메라에서 얻는 영상과 이미 알고 있는 목표 피사체의 거리를 알고 있을 경우 3개 이상의 목표물에서 그 3개 지점의 평균 소산계수를 얻는 방법은 알려져 있다. 일례로, 주어진 영상에서 그 방향으로 3 파장에서 미세먼지의 소산계수를 얻는 방법은 본 발명자의 특허출원 제10-2019-0003495호(임의 풍경을 이용한 대기 중의 미세먼지 소산계수 및 크기정보 추출 시스템)와 같은 방법이 사용될 수 있다. A method of obtaining the average dissipation coefficient of the three points from three or more objects is known when the image obtained from a fixed camera and the known distance to the target object are known. As an example, the method of obtaining the dissipation coefficient of fine dust at 3 wavelengths in that direction in a given image is described in Patent Application No. 10-2019-0003495 of the present inventor (A system for extracting fine dust dissipation coefficient and size information in the air using an arbitrary landscape) The same method can be used.

이에 대해 보다 상세히 설명하면, 특허출원 제10-2019-0003495호는, 카메라로 얻은 각 화소의 밝기와 그 화소에 대응하는 풍경의 거리(d)를 아는 조건에서 조명 상수와 난반사 상수, 카메라 상수 등 복잡하게 얽혀 있는 정보로부터도 미세먼지 소산 계수 정보를 얻을 수 있는 시스템을 제시한다.To explain this in more detail, Patent Application No. 10-2019-0003495 discloses a lighting constant, a diffuse reflection constant, a camera constant, etc. under the condition that the brightness of each pixel obtained by the camera and the distance (d) of the landscape corresponding to the pixel are known. We present a system that can obtain fine dust dissipation coefficient information from complex information.

즉 특수한 접근법으로 임의의 풍경에서 특별한 화소점을 찾아서 카메라와 풍경을 구성하는 그 공간에 있는 미세먼지의 소산계수를 각 파장에서 얻는 방법으로, 이렇게 얻은 각 파장(RGB)에서의 소산 정보로부터 미세먼지의 크기 정보를 얻되, 카메라의 RGB 3가지 파장에서 얻은 특정 물체에 해당하는 픽셀의 빛의 세기 분포와 카메라와 풍경까지 거리 정보로부터 풍경과 카메라 사이의 미세먼지의 소산 계수 정보를 얻고 이로부터 입자의 크기의 산출이 이루어지게 된다.In other words, it is a method to find a special pixel point in an arbitrary landscape with a special approach and obtain the dissipation coefficient of fine dust in the space composing the camera and the landscape at each wavelength. of the size information of , but from the light intensity distribution of a pixel corresponding to a specific object obtained from the camera's three RGB wavelengths and the distance information from the camera to the landscape, obtain information on the dissipation coefficient of fine dust between the landscape and the camera, and from this size is calculated.

즉 거리측정부를 통해 카메라와 촬영된 물체 사이의 거리를 산출하게 되며, 산출부는 상기 카메라로부터 얻어진 각 물체의 화소정보를 이용하여 각 파장에서의 소산 계수를 얻은 후, 이론적인 공기 분자의 소산 계수를 제거하여 공기 중 존재하는 미세먼지의 소산 계수를 산출하게 된다.That is, the distance between the camera and the photographed object is calculated through the distance measurement unit, and the calculation unit obtains the dissipation coefficient at each wavelength using the pixel information of each object obtained from the camera, and then calculates the theoretical dissipation coefficient of air molecules. By removing it, the dissipation coefficient of fine dust present in the air is calculated.

아후 추출부를 통해 상기 미세먼지의 소산 계수로부터 입자의 크기정보를 추출하게 되며, 이를 위해 미리 소산 계수 대비 입자의 크기를 실험 내지는 계산을 통해 정리해 놓은 DB를 이용할 수 있다.The particle size information is extracted from the dissipation coefficient of the fine dust through the Ahu extraction unit, and for this purpose, a DB in which the size of the particles compared to the dissipation coefficient is prepared in advance through experiments or calculations can be used.

다시 말해, 주어진 영상으로부터 같은 종류의 물체를 택하면, 일례로 다른 거리에 있는 같은 방향의 전신주, 같은 방향으로 있는 산의 수목, 같은 방향으로 존재하는 건물의 창문 등 다양한 목표물을 이용하여 그 방향으로의 소산계수를 RGB 3파장에서 얻을 수 있다. 이때 [수학식 1]을 이용하기 때문에 최소 3개 이상의 물체가 필요하다.In other words, if the same type of object is selected from a given image, for example, a telephone pole in the same direction at a different distance, a tree in a mountain in the same direction, or a window of a building existing in the same direction, using various targets such as The dissipation coefficient of can be obtained at 3 wavelengths of RGB. At this time, since [Equation 1] is used, at least three objects are required.

일례로 도 4는 오른쪽 방향으로 설치된 카메라의 시각과 다른 두 방향의 피사체를 예로 보인 것이다. 실례에서 1, 2, 3,..의 피사체는 1', 2', 3',.. 등과는 다른 방향으로 존재하고 일례로 1, 2, 3,.. 의 목표물을 이용하여 RGB에서 소산계수를 얻는 경우 그 방향으로의 평균 소산계수 값이고, 다른 방향에 있는 피사체 1', 2', 3',..를 이용하여 소산계수를 얻는 경우엔 다른 방향의 시정거리 및 소산계수이다. 만약에 카메라의 방향을 다른 방향으로 완전히 돌리면, 예를 들어 반대 방향으로 돌리면, 역시 반대 방향으로의 소산계수를 얻는다.As an example, FIG. 4 shows subjects in two directions different from that of the camera installed in the right direction as an example. In the example, the objects of 1, 2, 3,.. exist in different directions from 1', 2', 3',.., etc. For example, using the targets of 1, 2, 3,.. It is the average dissipation coefficient value in that direction when obtaining If you turn the camera completely in the other direction, for example in the opposite direction, you get the dissipation coefficient in the opposite direction too.

도 4에서 1, 2, 3의 피사체만 이용하여 얻은 소산계수는 거리의 평균 소산계수를 얻는 것이고, 1, 2, 3,...12 피사체 즉 12개의 피사체를 가지고 소산계수를 얻으면,

Figure 112020076202395-pat00020
까지의 평균 소산계수를 얻는 것이고, 10, 11, 12의 피사체로 평균 소산계수를 얻으면
Figure 112020076202395-pat00021
거리에 있는 미세먼지의 평균 소산계수를 구한 것이 된다. In Fig. 4, the dissipation coefficient obtained using only the subjects 1, 2, 3 is to obtain the average dissipation coefficient of the distance, and when the dissipation coefficient is obtained with 1, 2, 3,...
Figure 112020076202395-pat00020
It is to obtain the average dissipation coefficient of up to
Figure 112020076202395-pat00021
This is the average dissipation coefficient of fine dust in the street.

다음으로 2차원 표면 각 위치의 공간에서 미세먼지의 소산계수(혹은 [수학식 4]를 적용하면, 시정거리)를 얻을 수 있다. 이를 상세히 설명하면 다음과 같다.Next, it is possible to obtain the dissipation coefficient (or visibility distance, if [Equation 4] is applied) of fine dust in the space of each position of the two-dimensional surface. This will be described in detail as follows.

일례로 주어진 2차원 공간(우리는 2차원 표면에 살고 있음)을 4×4의 16개의 화소로 나눈다고 생각하자. 그리고 일례로 카메라가 화소 31의 좌측에 있다고 생각하자. 도 5는 이러한 공간과 카메라의 위치를 사실적으로 보여준다. 각 화소는 주어진 2차원 표면의 한 지점에 대응되며 일례로 k방향으로 얻은 미세먼지의 평균 소산계수는 [수학식 5]와 같이 쓸 수 있다.As an example, consider a given two-dimensional space (we live on a two-dimensional surface) divided into 16 4x4 pixels. And let's say the camera is to the left of pixel 31 as an example. Figure 5 realistically shows this space and the position of the camera. Each pixel corresponds to a point on a given two-dimensional surface. For example, the average dissipation coefficient of fine dust obtained in the k direction can be written as [Equation 5].

Figure 112020076202395-pat00022
Figure 112020076202395-pat00022

Figure 112020076202395-pat00023
Figure 112020076202395-pat00023

[수학식 5]에서 k방향으로의 시적은 도 5를 참조하면

Figure 112020076202395-pat00024
화소만 기여하고 각 화소 중의 경우도 다른 가중치로 k방향의 시정에 기여한다. 즉
Figure 112020076202395-pat00025
화소는 도 5와 같이 각각의 화소에
Figure 112020076202395-pat00026
경로만큼 기여하기 때문에 이런 가중치의 합으로 표시한다. In [Equation 5], the poem in the k direction is
Figure 112020076202395-pat00024
Only the pixels are contributed, and each pixel also contributes to the visibility in the k direction with a different weight. In other words
Figure 112020076202395-pat00025
As shown in FIG. 5, each pixel is
Figure 112020076202395-pat00026
Since it contributes as much as the path, it is expressed as the sum of these weights.

다른 실례로 도 5에서 N방향으로의 시정(미세먼지의 평균 소산계수)은 다른 공간화소들이 기여한다. As another example, the visibility (average dissipation coefficient of fine dust) in the N direction in FIG. 5 is contributed by other spatial pixels.

[수학식 5]에서 2차원 공간이 주어지고, 카메라의 위치가 결정되면

Figure 112020076202395-pat00027
값은 간단한 기하학으로 얻을 수 있으며, 미지수인 각 공간화소에서의 미세먼지 소산계수 16 개는 16방향으로의 평균 소산계수
Figure 112020076202395-pat00028
즉 [수학식 5]와 같은 16개의 연립방정식을 통하여 얻을 수 있다.When a two-dimensional space is given in [Equation 5] and the position of the camera is determined,
Figure 112020076202395-pat00027
The value can be obtained with simple geometry, and the 16 fine dust dissipation coefficients in each spatial pixel that are unknown are the average dissipation coefficients in 16 directions.
Figure 112020076202395-pat00028
That is, it can be obtained through 16 simultaneous equations as in [Equation 5].

이렇게 카메라의 Green 파장에서 얻은 16개의 소산계수를 [수학식 4]에 적용하면, 각 지점에서의 소산계수와 시정거리를 얻을 수 있다. 그리고 각 방향으로의 평균 소산계수로부터 역시 각 방향으로의 시정거리를 역시 [수학식 4]로부터 얻을 수 있다.If the 16 dissipation coefficients obtained from the green wavelength of the camera are applied to [Equation 4], the dissipation coefficient and the visibility distance at each point can be obtained. And from the average dissipation coefficient in each direction, the visibility distance in each direction can also be obtained from [Equation 4].

그리고 2차원의 격자형 공간에 2대의 카메라를 배치하는 경우에는, 총 n×m 개(n, m은 1 이상의 자연수)의 서로 다른 방향을 생성하기 위하여, 다시 말해 특정 복셀을 지나는 복수의 방향이 서로 근접하여 평행 배열되지 않으면서 총 n×m 개의 서로 다른 방향을 생성하기 위하여 상기 2대의 카메라는 상기 격자형 공간에서 상호 직각의 각도로 이격되게 배치되는 것(도 5 참조)이 바람직하다.And when two cameras are arranged in a two-dimensional grid space, in order to generate a total of n×m (n, m is a natural number greater than or equal to 1) different directions, that is, a plurality of directions passing through a specific voxel In order to generate a total of n×m different directions without being arranged in parallel close to each other, it is preferable that the two cameras are spaced apart from each other at an angle perpendicular to each other in the grid space (refer to FIG. 5 ).

또한 3대의 카메라가 사용되는 경우에는, 상기 격자형 공간에서 상호 60°의 각도로 이격되게 배치되는 것이 바람직하다.In addition, when three cameras are used, it is preferable to be spaced apart from each other at an angle of 60° in the grid space.

카메라가 3대를 초과하여 사용될 수도 있지만, 상호 방향이 겹쳐지기 쉬워져서 효용성은 크게 증가하지 않는다.Although more than three cameras may be used, the mutual direction tends to overlap, so the utility does not increase significantly.

이상에서와 같이 본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.As described above, the rights of the present invention are not limited to the embodiments described above, but are defined by what is described in the claims, and those of ordinary skill in the art can make various modifications and adaptations within the scope of the claims. It is self-evident that you can

Claims (5)

미세먼지 분포를 측정하기 위한 지역을 2차원 평면공간으로 하여 상기 2차원 평면공간을 n×m 개(n, m은 1 이상의 자연수)의 격자형 공간으로 구획하는 단계;
컬러 영상을 얻을 수 있는 디지털 카메라가 설치된 특정 위치에서 상기 격자형 공간을 향해 1 ∼ n×m 개 방향으로 상기 카메라에서 획득된 RGB 파장을 통해 상기 격자형 공간의 끝단까지의 거리에 대해 미세먼지의 평균 소산계수를 산출하는 단계;
상기 각 방향에 대한 미세먼지의 평균 소산계수를 해당 방향으로 각 격자형 공간에서의 미세먼지 소산계수와 상기 격자형 공간을 통과하는 거리에 관한 n×m차 연립 방정식으로 생성하는 단계; 및
상기 연립 방정식을 계산하여 각 격자형 공간에 대한 미세먼지 소산계수를 산출하는 단계;를 포함하고,
상기 미세먼지의 평균 소산계수를 산출하는 단계에서는, 상기 격자형 공간에서 서로 이격된 위치에서 2대 이상의 카메라를 배치하여 각 카메라가 설치된 위치에서 상기 격자형 공간을 향해 총 1 ∼ n×m 개 방향으로 상기 격자형 공간의 끝단까지의 거리에 대해 미세먼지의 평균 소산계수를 산출하는 것을 특징으로 하는 카메라의 임의 풍경 영상을 이용한 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법.
dividing the two-dimensional planar space into n×m grid-type spaces (n, m is a natural number greater than or equal to 1) by using an area for measuring the distribution of fine dust as a two-dimensional planar space;
At a specific location where a digital camera capable of obtaining a color image is installed, in 1 to n×m directions toward the grid-type space, the distance from the end of the grid-type space to the end of the grid-type space through the RGB wavelengths obtained from the camera calculating an average dissipation coefficient;
generating an average dissipation coefficient of fine dust in each direction as an n×m-order simultaneous equation for a fine dust dissipation coefficient in each grid-type space in the corresponding direction and a distance passing through the grid-type space; and
Calculating the simultaneous equation to calculate the fine dust dissipation coefficient for each grid-type space;
In the step of calculating the average dissipation coefficient of the fine dust, two or more cameras are arranged at positions spaced apart from each other in the grid space, and a total of 1 to n × m directions from the position where each camera is installed to the grid space A method for measuring a direction-dependent visibility distance and a two-dimensional spatial fine dust distribution using an arbitrary landscape image of a camera, characterized in that the average dissipation coefficient of fine dust is calculated with respect to the distance to the end of the grid-type space.
삭제delete 제1항에 있어서,
2대의 카메라가 사용되는 경우에는, 상기 격자형 공간에서 상호 직각의 각도로 이격되게 배치되는 것을 특징으로 하는 카메라의 임의 풍경 영상을 이용한 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법.
According to claim 1,
When two cameras are used, a method for measuring a direction-dependent visibility distance and a two-dimensional spatial fine dust distribution using an arbitrary landscape image of a camera, characterized in that they are spaced apart from each other at an angle perpendicular to each other in the grid-type space.
제1항에 있어서,
3대의 카메라가 사용되는 경우에는, 상기 격자형 공간에서 상호 60°의 각도로 이격되게 배치되는 것을 특징으로 하는 카메라의 임의 풍경 영상을 이용한 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법.
According to claim 1,
When three cameras are used, direction-dependent visibility distance and two-dimensional spatial fine dust distribution measurement method using an arbitrary landscape image of a camera, characterized in that they are spaced apart at an angle of 60° from each other in the grid-type space.
제1항에 있어서,
상기 미세먼지의 평균 소산계수를 산출하는 단계에서는, 상기 카메라에서 획득한 RGB 파장 중에서 Green 파장을 통해 소산계수를 산출하는 것을 특징으로 하는 카메라의 임의 풍경 영상을 이용한 방향 의존 시정거리 및 2 차원 공간 미세먼지 분포 측정 방법.
According to claim 1,
In the step of calculating the average dissipation coefficient of the fine dust, direction-dependent visibility distance and two-dimensional spatial fineness using an arbitrary landscape image of a camera, characterized in that calculating the dissipation coefficient through a green wavelength among the RGB wavelengths obtained from the camera How to measure dust distribution.
KR1020200090605A 2020-07-21 2020-07-21 Two dimensional aerosol extinction coefficient and directional visibility measurement methods, using arbitrary landscape image photography KR102357256B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200090605A KR102357256B1 (en) 2020-07-21 2020-07-21 Two dimensional aerosol extinction coefficient and directional visibility measurement methods, using arbitrary landscape image photography

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200090605A KR102357256B1 (en) 2020-07-21 2020-07-21 Two dimensional aerosol extinction coefficient and directional visibility measurement methods, using arbitrary landscape image photography

Publications (1)

Publication Number Publication Date
KR102357256B1 true KR102357256B1 (en) 2022-02-07

Family

ID=80252994

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200090605A KR102357256B1 (en) 2020-07-21 2020-07-21 Two dimensional aerosol extinction coefficient and directional visibility measurement methods, using arbitrary landscape image photography

Country Status (1)

Country Link
KR (1) KR102357256B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114511991A (en) * 2022-02-16 2022-05-17 国能包头能源有限责任公司 Mine dust intelligent analysis and treatment system and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012243288A (en) * 2011-05-24 2012-12-10 Fujitsu Ltd Simulation method, simulation device and simulation program
US20150241330A1 (en) * 2007-11-15 2015-08-27 Xtralis Technologies Ltd. Particle detection
KR101892999B1 (en) 2017-11-28 2018-10-04 (주) 글로벌텔레콤 Method for generating weather data using cctv having ultrafine particle sensing funtion
KR101993447B1 (en) * 2018-03-05 2019-09-30 (주)시정 Visibility meter for vehicles using artificial intelligence
KR20190124625A (en) * 2018-04-26 2019-11-05 강릉원주대학교산학협력단 Method, apparatus, and system for analyzing vertical distribution of particle material using satellite sensor and surface weather observation
KR20200087010A (en) * 2019-01-10 2020-07-20 한밭대학교 산학협력단 Aerosol extinction coefficient and aerosol size distribution measuring system by using arbitrary camera image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150241330A1 (en) * 2007-11-15 2015-08-27 Xtralis Technologies Ltd. Particle detection
JP2012243288A (en) * 2011-05-24 2012-12-10 Fujitsu Ltd Simulation method, simulation device and simulation program
KR101892999B1 (en) 2017-11-28 2018-10-04 (주) 글로벌텔레콤 Method for generating weather data using cctv having ultrafine particle sensing funtion
KR101993447B1 (en) * 2018-03-05 2019-09-30 (주)시정 Visibility meter for vehicles using artificial intelligence
KR20190124625A (en) * 2018-04-26 2019-11-05 강릉원주대학교산학협력단 Method, apparatus, and system for analyzing vertical distribution of particle material using satellite sensor and surface weather observation
KR20200087010A (en) * 2019-01-10 2020-07-20 한밭대학교 산학협력단 Aerosol extinction coefficient and aerosol size distribution measuring system by using arbitrary camera image
KR102146287B1 (en) * 2019-01-10 2020-08-20 한밭대학교 산학협력단 Aerosol extinction coefficient and aerosol size distribution measuring system by using arbitrary camera image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114511991A (en) * 2022-02-16 2022-05-17 国能包头能源有限责任公司 Mine dust intelligent analysis and treatment system and method
CN114511991B (en) * 2022-02-16 2024-01-30 国能包头能源有限责任公司 Intelligent analysis processing system and method for mine dust

Similar Documents

Publication Publication Date Title
KR102146287B1 (en) Aerosol extinction coefficient and aerosol size distribution measuring system by using arbitrary camera image
Narasimhan et al. Vision and the atmosphere
JP4783795B2 (en) Distinguishing between illumination and reflection boundaries
US8509476B2 (en) Automated system and method for optical cloud shadow detection over water
CN104299192B (en) A kind of single image to the fog method based on atmospheric light scattering physical model
Kwon Atmospheric visibility measurements using video cameras: Relative visibility
CN105424655A (en) Visibility detection method based on video images
US20220254014A1 (en) Information processing apparatus, information processing method, program, and sensing system
Malm et al. Human perception of visual air quality
CN107505291B (en) Method for estimating visibility through single image
KR102357256B1 (en) Two dimensional aerosol extinction coefficient and directional visibility measurement methods, using arbitrary landscape image photography
CN103134800A (en) Road weather detection system based on video
CN108563986B (en) Method and system for judging posture of telegraph pole in jolt area based on long-distance shooting image
Balali et al. Image-based retro-reflectivity measurement of traffic signs in day time
Carretas et al. Atmospheric visibility and Angström exponent measurements through digital photography
CN104777103A (en) Sight distance visibility meter and measuring method thereof
CA2841683A1 (en) Method of measuring road markings
Malm et al. Use of cameras for monitoring visibility impairment
Adam et al. Cloud detection and prediction with all sky cameras
Meng et al. Highway visibility detection method based on surveillance video
Zhao-Zheng et al. Real-time video detection of road visibility conditions
KR102209866B1 (en) Preprocessing Method of Distortion Image for Ground Based Total Cloude Cover Automatic Retrieval
KR102373278B1 (en) Distortion Method of Total Cloude Cover in Night Time using Ground Based Whole Sky Image Data
Zhao et al. City-scale distance estimation via near-infrared trispectral light extinction in bad weather
Rusu et al. Luminance Uniformity Analysis Based on Digital Camera Measurements

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant