WO2019151704A1 - Method and system for measuring three-dimensional visibility using traffic monitoring camera - Google Patents

Method and system for measuring three-dimensional visibility using traffic monitoring camera Download PDF

Info

Publication number
WO2019151704A1
WO2019151704A1 PCT/KR2019/000927 KR2019000927W WO2019151704A1 WO 2019151704 A1 WO2019151704 A1 WO 2019151704A1 KR 2019000927 W KR2019000927 W KR 2019000927W WO 2019151704 A1 WO2019151704 A1 WO 2019151704A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
depth
continuity
visibility
Prior art date
Application number
PCT/KR2019/000927
Other languages
French (fr)
Korean (ko)
Inventor
오원영
양승환
Original Assignee
공간정보기술(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 공간정보기술(주) filed Critical 공간정보기술(주)
Publication of WO2019151704A1 publication Critical patent/WO2019151704A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/095Traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • An embodiment of the present invention relates to a three-dimensional visibility measurement method using a traffic monitoring camera, and more particularly, a three-dimensional visibility measurement method using a traffic monitoring camera that can calculate the visibility information of visibility measurement while performing traffic monitoring. And a system using the same.
  • CCTVs closed circuit televisions
  • CCTVs for simple monitoring
  • CCTVs for preventive purposes
  • CCTVs for analysis and tracking for certain purposes.
  • Weather monitoring CCTVs can also be used to prevent drivers from facing the risk of traffic accidents in the event of visibility disturbances such as haze, fog and fog.
  • CCTV combined weather monitoring system is installed weather measurement equipment on the side of the road to prevent accidents caused by fog, to measure the visibility at all times, and to maintain the proper driving speed when the visible distance decreases. It is also used to guide.
  • the visibility system currently used is an optical visibility system that calculates visibility based on light scattering or transmission.
  • this type of visibility system has a disadvantage in that accuracy is poor when there is a visibility disorder phenomenon.
  • the optical visibility system due to the characteristics of the optical visibility system, it is not a whole area to be measured, but is a method of representing the visibility of the area by the measured value at a single point, so it is only 1 m away from the location of the visibility system. Even if fog occurs, there is a serious problem that can not determine the fog itself. For this reason, when the visibility system is installed, the CCTV system is installed in the same place to perform monitoring or reflect the observation result obtained by the person's direct visit. Can be.
  • the weather observation system and method of the Republic of Korea Patent Publication No. 10-2009-0051785 is known.
  • the prior art measures visibility using a visual line and a road model obtained from the moving area of the vehicle.
  • the related art is a communication unit for receiving an image signal from a camera installed on a road and transmitting a result, an image of extracting a moving region of the vehicle from the received image signal and determining a visual line using the extracted moving region. And a processing unit, and a control unit for calculating visibility corresponding to the determined line of sight using the correction calculation function.
  • the present invention has been made to solve the problems of the prior art, and by adding only one camera to the existing traffic monitoring system, a three-dimensional visibility measurement method and system that can accurately perform two functions of monitoring and visibility measurement The purpose is to provide.
  • Another object of the present invention is to create a depth map through the first image and the second image, create an iso-depth line connecting the same depth in the depth map, and then connect the iso-depth lines. Read the continuity to calculate the visible distance, provide the calculated visibility information to the driver through the display device, operate the safety indicator, etc. when the visible distance is less than a certain distance, or display the image to the driver through various display devices inside and outside the vehicle To provide a three-dimensional visibility measurement method and system that can provide.
  • the three-dimensional visibility measurement system for solving the above technical problem, the first camera to shoot the first image and the second camera to shoot a second image from a different angle from the first camera And a controller configured to calculate visible distance information from an input of a first image photographed by the first camera and a second image photographed by the second camera; A storage unit which stores the first image, the second image, and the visible distance information in association with the controller; And a communication module for supporting network interworking between the controller, the first camera, the second camera, and the control server, wherein the controller is configured to generate a depth map using the first image and the second image.
  • An image conversion module, and a visibility measurement module for generating an iso-depth line from the depth map, and detects the connection continuity of the iso-depth line to determine whether there is a certain level or more of continuity.
  • a three-dimensional visibility measurement method comprising: acquiring a stereo image from two cameras and generating a depth map; Creating a depth line in a manner similar to a contour line from the depth map; Determining the connection continuity at the equi-depth line; And when the connection continuity of the iso-depth line has a certain level or more of continuity, acquiring a maximum value of the iso-depth line among the images having the continuity, wherein the maximum value corresponds to a current viewing distance.
  • the three-dimensional visibility measurement method may further comprise determining the authenticity of the image in the acquiring step.
  • the 3D visibility measurement method may further include extracting an edge from an original image and analyzing the edge by overlapping the depth line in order to increase the accuracy of the continuity. have.
  • the three-dimensional visibility measurement method because it is impossible to extract the edge (edge) in the area when the image (image) due to the visibility obstacles, such as fog, overlapping the depth line of the plurality of images And further analyzing the data. In this case, the error of matching due to the fog can be eliminated, so that the more accurate viewing distance can be determined.
  • a method for measuring 3D visibility including a first image photographed by a first camera and a second image photographed by a second camera photographed at a different angle from the first camera.
  • a depth map is generated through the first image and the second image, the visible distance to the object is calculated, the visible distance is provided to the driver through the display, and the visible distance is If the distance is less than a certain distance to turn on the safety indicator light and provide an image through the display, it is more economical than the conventional visibility system can provide more accurate visibility information to the driver, thereby contributing to reducing traffic accidents caused by fog.
  • FIG. 1 is a block diagram of a three-dimensional visibility measurement system using a traffic monitoring camera according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating normal images of the first and second cameras and images at the time of fog generation that may be used in the 3D visibility measurement system according to an exemplary embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a depth map during normal and fog generation that can be used in a three-dimensional visibility measurement system according to an embodiment of the present invention.
  • FIG. 4 is an exemplary view of an image extracted from the depth lines of the normal and the fog occurs that can be used in the three-dimensional visibility measurement system according to an embodiment of the present invention
  • FIG. 5 is an exemplary diagram of boundary image extraction images during normal and fog generation that can be used in a 3D visibility measurement system according to an exemplary embodiment of the present invention.
  • FIG. 6 is an exemplary view of an image obtained by superimposing an extracted depth line image and a boundary line extracted image during normal and fog generation that can be used in a 3D visibility measurement system according to an exemplary embodiment of the present invention.
  • FIG. 7 is a view showing the operation of the display unit and the safety display device according to an embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating a three-dimensional visibility measurement method according to an embodiment of the present invention.
  • FIG. 1 is a block diagram of a three-dimensional visibility measurement system using a traffic monitoring camera according to an embodiment of the present invention.
  • the 3D visibility measuring system 100 includes a first image receiving unit 111, a second image receiving unit 112, an infrared light transmitting unit 114, and a pan / tilt driving unit 116.
  • the controller 120 may include a storage unit 130, a communication unit 140, and a display unit 150.
  • the first image receiver 111 is connected to the first camera to obtain a first image from the first camera.
  • the first image receiving unit 111 may include a receiving port that receives the first image from the first camera, or may be connected to the first camera according to a preset configuration or under the control of the controller 120 to display the first image of the first camera. It may include a means for reading or a component for performing an operation corresponding to the means.
  • the second image receiver 112 is connected to the second camera similarly to the first image receiver 111 to obtain a second image from the second camera.
  • the second image receiving unit 112 includes a receiving port that receives the second image from the second camera, or connects to the second camera according to a preset configuration or under the control of the controller 120 to store the second camera. It may include a means for reading the stored second image or a component for performing an operation corresponding to the means.
  • the first camera and the second camera may be spaced apart by a predetermined interval to generate a stereo image.
  • the first camera and the second camera may be stereo cameras depending on the implementation.
  • the first and second image receivers 111 and 112 may be separate components, but are not limited thereto and may be implemented as a single image receiver.
  • the infrared light emitter 114 may include an infrared light emitter, and may be coupled to the first camera and the second camera so that the first camera and the second camera may be used for photographing at night or during fog.
  • the infrared light emitter 114 may include an infrared light emitter driver for controlling the operation of the infrared light emitter. In this case, the infrared light emitter driver may be controlled by the controller 200.
  • the pan / tilt drive unit 116 includes a pan / tilt drive unit, which is a single hardware installed in a single housing of the first camera and the second camera, and includes a first image and a second image in the first and second cameras. It is made to obtain a stereo image.
  • the pan / tilt driver 116 may include a single drive shaft coupled to the housing such that a pan operation or a tilt operation of the first camera and the second camera is interlocked with each other.
  • the pan / tilt driver 116 may include a driving circuit or a software driving module for controlling the pan / tilt driving unit.
  • the pan / tilt driver 116 may include a first zoom driver coupled to the first camera and a second zoom driver coupled to the second camera.
  • the controller 120 controls the operation of each component of the 3D visibility measurement system.
  • the controller 120 may include a processor or a microprocessor.
  • the controller 120 may include a stereo image conversion module 121, a visibility measurement module 122, and a PTZ control module 123.
  • the stereo image conversion module 121 is a combination of the first image of the first camera and the second image of the second camera or stereo vision image data (hereinafter, simply referred to as 'image data', 'source data' or 'first image data' ) Can be pre-processed side by side or in pairs, vertical errors of pre-processed image data can be removed, geometric correction can be performed, or depth maps can be generated using geometrically corrected image data.
  • the stereo image conversion module 121 extracts a boundary line corresponding to an edge in the image and generates image data (hereinafter, 'correction measurement image data' or 'second image data') overlapping the depth line and the boundary line. Can be.
  • the stereo image conversion module 121 may extract the depth map from the first image and the second image and convert the depth information into the RGB value from the depth map.
  • the visibility measurement module 122 may calculate or obtain a visible distance from the second image data.
  • the information calculated or acquired by the visibility measurement module 122 may be used to operate a safety display device installed as a traffic support device or provide safety driving information to a roadside display device or an in-vehicle display device when fog occurs. .
  • the information may include visibility information.
  • the PTZ control module 123 is a means for controlling the operation of the first camera and the second camera.
  • the PTZ control module 123 may capture a detailed view of the target or the target area through the pan, tilt, and zoom functions.
  • the PTZ control module 123 may control a pan or tilt operation of the pan / tilt driver 116 coupled to the first camera and the second camera so as to focus a desired position in the target area where the first camera and the second camera are set. Can be.
  • the PTZ control module 123 controls the pan / tilt driver 116 to rotate the first camera and the second camera up, down, left, and right to perform 360-degree omnidirectional measurements from the point where the camera is installed.
  • the PTZ control module 123 may simultaneously control the zoom magnifications of the first camera and the second camera at the same magnification or individually adjust the zoom magnifications to different magnifications.
  • the visibility measurement module 122 may automatically operate the zoom lens of the pan / tilt driver 116 and the camera at a predetermined time interval through the PTZ control module 123, but is not limited thereto. It may be implemented to operate as.
  • the stereo image conversion module 121, the visibility measurement module 122, and the PTZ control module 123 described above may be implemented in at least a part of hardware in the controller 120 or the controller 120 may be stored in the storage 130.
  • the module may be implemented to mount at least one of the stereo image conversion module 121, the visibility measurement module 122, and the PTZ control module 123 and execute a function thereof.
  • the storage unit 130 may include storage means such as a semiconductor memory such as a RAM or a ROM, a flash memory, a hard disk, an optical disk, or the like.
  • the storage unit 130 may store at least one or more of the stereo image conversion module 121, the visibility measurement module 122, and the PTZ control module 123 in the form of a software module.
  • the communication unit 140 may support transmission and reception of signals and data between the control unit 120 and each component in the 3D visibility measurement system. That is, the communication unit 140 may include a means or a component for providing or supporting a connection for interworking between the input terminal and the output terminal between the process units in the system.
  • the communication unit 140 may include at least one communication subsystem for supporting a wired communication network, a wired network, a wireless communication network, a wireless network, or a combination thereof
  • the control unit 120 may include the safety display device 160, It may support transmitting and receiving signals and data with the control server 170 or the display device 180.
  • the safety display device 160 may include a fog generation warning device using sound, light, and the like, a vehicle induction lamp, a flashing light, or the like installed in a center line, a lane, a guide rail, and the like in a fog area.
  • the safety display device 160 interlocks with the 3D visibility measurement system 100 and may operate according to the control signal of the system.
  • the control server 170 may collect and monitor the signals or information produced or output from the 3D visibility measurement system 100 and the status of peripheral devices operating in accordance with the signals or information.
  • the control server 170 may classify a fog area or detect a change in a fog area or spread or reduce the fog area based on information of a plurality of adjacent three-dimensional visibility measurement systems, and based on the obtained information.
  • An additional traffic safety system can be operated.
  • the control server 170 may receive the visibility information, the first and second images 201, 201a, 202, 202a or the information of the safety display device 160, and the first and second cameras, the safety.
  • the display device 160 or the display device 180 may be controlled.
  • the display device 180 may include a device installed at a roadside and displaying only text or both text and an image.
  • the display device 180 may include all image display devices operating in an intelligent traffic system (ITS).
  • ITS intelligent traffic system
  • the display device 180 may include various image display devices that are located on a road or installed in a vehicle driving a road.
  • the three-dimensional visibility measurement system 100 is implemented to further include a first camera, a second camera, a safety display device 160, a control server 17 and an external display device 180 in a broad sense. Can be.
  • the first camera photographs the first image 201 and the second camera photographs the second image 202.
  • the first camera may photograph the first image 201a and the second camera may photograph the second image 202a.
  • the camera used in the existing traffic monitoring system is the first camera, it can be implemented to perform two functions of monitoring and visibility measurement by adding only one camera like the second camera.
  • the first camera and the second camera may be configured to capture an image in 360 ° by using a zoom lens having a variable focal length and a pan / tilt device capable of rotating up, down, left, and right.
  • the first camera and the second camera may simultaneously provide a first image and a second image of roads and streets to monitor traffic at different zoom magnifications.
  • each of the first image and the second image may be an enlarged image including an object such as a vehicle.
  • the first camera may be zoomed in and the second camera may be operated in the same manner as the zoom out.
  • the first camera may be implemented to display a general image and the second camera may display an image to which the fog removing function is applied.
  • the controller 120 interoperates with the first camera and the second camera and acquires, as an input, first images 201 and 201a captured by the first camera and second images 202 and 202a captured by the second camera. As illustrated in (a) and (b) of FIG. 3, images 203 and 204 including depth map information may be generated. The depth map can be used to calculate the line of sight information.
  • the controller 120 may include a stereo image conversion module 121, a visibility measurement module 122, and a PTZ (pan / tilt / zoom) control module 123.
  • the stereo image conversion module 121 generates a depth map by using the first image photographed by the first camera and the second image photographed by the second camera, and creates a depth line from the depth map (205 of FIG. 4). And 206, a boundary line may be extracted from the original image (source data) (see 207 and 208 of FIG. 5).
  • the stereo image conversion module 121 may correct the first and second images 201 or 201a, 202 or 202a, and then generate a depth map using the corrected first and second images. By performing the calibration process, a more accurate depth map of the data can be generated.
  • the stereo image conversion module 121 determines a conjugate point from the intersection of the projection center and the reference point on the position plane of the first and second images 201, 201a, 202, and 202a, and uses the conjugate point to determine the three-dimensional image. It is implemented to generate a depth map using Epipolar Geometry which generates.
  • the visibility measurement module 122 is implemented to detect the connection continuity using the depth line and the boundary line, and determine whether the connection continuity has a certain level or more of continuity.
  • the visibility measurement module 122 extracts an edge from the original image of the first image photographed by the first camera and the second image photographed by the second camera, and extracts an edge and the iso-depth line.
  • the analysis can be superimposed (see images 209 and 210 of FIG. 6).
  • the visibility measurement module 122 may be implemented to be optimized by additionally applying a method of extracting a plurality of consecutive images and a statistical method in order to reduce a determination error at a boundary where visibility is unclear when fog occurs.
  • the depth line means a line connecting a point representing a distance and a closeness of a distance on the depth map, similar to a contour line connecting a point having the same height based on the average surface of the sea. If an image is formed so that one object is accurately distinguished from the surrounding background, it may be determined that the image has continuity between contiguous image elements (pixels).
  • the visibility measurement module 122 may examine the continuity in the iso-depth line, and may determine that the value is the visible distance only when the maximum value is acquired only when the continuity is higher than a predetermined level.
  • the visibility distance at that time can be said to be the theoretical maximum that can be obtained from stereo images.
  • the visibility measurement module 122 if the iso-depth line has a continuity of a predetermined level or more, the maximum value in the iso-depth line having continuity is obtained, and the maximum value is calculated as the visible distance information.
  • the iso-depth line in the visibility measurement module 122 does not have a continuity of a predetermined level or more, the minimum value of the iso-depth line is calculated as visual distance information.
  • the display 150 or the display device 180 may display the visual distance calculated by the controller 120 as an image, and display the captured first image 201 and 201a or the second image 202 and 202a. You may.
  • the safety display device 160 may perform a preset operation or output preset information or a screen corresponding to the visible distance information calculated by the controller 120.
  • the safety display device 160 may include a device for providing a safety display function installed on a road such as a road electric light display (VMS), a fog display device, a variable speed limit display device, a directional speaker, and a fog lamp.
  • VMS road electric light display
  • the safety display device 160 when the safety display device 160 is a fog light, when the visible distance information is a predetermined distance or more and does not correspond to the safety distance, it is not lit when the visible distance information is a certain distance or less to notify the driver on the road. Can be operated.
  • the visible distance may be set in a predetermined range so that the brightness and the flashing speed may be adjusted in stages.
  • the display device 180 may provide a visual distance as a numerical value, and may also provide an image of a road taken by the first camera or the second camera.
  • control server 170 displays the visible distance information through the display device 180, when the visibility information calculated by the visibility measurement module 122 is 50m, and at the same time provide an image of the road One or more safety indicators 160 may be activated.
  • the storage unit 130 may store the first image and the second image
  • the control unit 120 may operate the display device 180 and the safety display device 160 through the communication unit 140. Control their behavior.
  • FIG. 8 is a flowchart illustrating a control method of a 3D visibility measurement system according to an embodiment of the present invention.
  • the three-dimensional visibility measurement method includes a series of steps performed by the above-described three-dimensional visibility measurement system.
  • a first image of the first camera is acquired, and the first A second image of the second camera photographed at an angle different from that of the camera may be acquired (S802).
  • the first camera and the second camera simultaneously provide a first image and a second image photographing a road and a street for monitoring traffic from different angles.
  • the first image and the second image may be images including an object such as a vehicle.
  • a first image photographed by the first camera and a second image photographed by the second camera are acquired as inputs, and a depth map is generated using three-dimensional coordinates in the first image and the second image. (S804).
  • the depth map may be generated using the 3D coordinates obtained from the corrected first image and the second image.
  • the step S804 may include generating a depth map using Epipolar Geometry for generating a stereoscopic image through the conjugate point determined from the first image and the second image. According to this method, a more accurate depth map of the data can be generated.
  • This step (S808) extracts an edge from the original image of the first image taken by the first camera and the second image taken by the second camera, and analyzes by overlapping the edge and the iso-depth line. It may include the process of doing.
  • the iso-depth line has a continuity of a predetermined level or more, the maximum value is obtained among the iso-depth lines having continuity, that is, the minimum parallax value is calculated as the visible distance information (S810).
  • step S808 it may be determined whether the photographing center point by the camera is the minimum distance measuring point (S812). If the photographing center point is the minimum distance measuring point, the minimum value or the lowest value among the depth lines may be calculated or applied as the visible distance information (S814).
  • the control unit or the visibility measurement module of the controller may move the photographing center point step by step (S816).
  • the controller may move the photographing center point to a minimum distance measuring point or a position adjacent thereto from a distance to a near distance by a preset step-by-step zoom out method. Then, when the photographing center point is located at a predetermined minimum distance measuring point or the area, the process may return to obtaining the images of the first and second cameras.
  • the safety display device may be operated in correspondence with the visual field information selectively calculated in the above steps (S810 and S814) (S818).
  • this step it is determined whether the visible distance is greater than or equal to a certain distance, and when the visible distance information is a reference value less than or equal to the predetermined distance, the safety display device or the like can be operated.
  • the controller may display the viewing distance through the display device or store the first image, the second image, and the viewing distance information in the storage unit (S820).
  • a depth map is generated based on the first image and the second image, an iso-depth line is formed according to the depth map, the connection continuity of the iso-depth line is examined, and continuity of a predetermined level or more is determined.
  • the visible distance information may be extracted or the visible distance information to an object may be calculated.
  • the calculated information is used to provide visibility information to the driver through the display device, or to provide various safe driving environments such as operating a safety display device and providing an image through the display device when the visible distance information is below a certain distance. It can be used, and by such a configuration and action effect is more economical than the conventional visibility system, there is an effect that can provide more accurate visibility information to the driver.
  • the above-described three-dimensional visibility measurement method may be implemented as a submodule in the form of a software module of the controller, in particular, the visibility measurement module.
  • the visibility measurement module may include a plurality of submodules that perform each function in response to steps S802 to S820, and for example, the plurality of submodules may correspond to an acquisition module (corresponding to an acquisition submodule, which is the same below). ), A generation module, an extraction module, a first determination module, a second determination module, a view distance calculation module, an optimum value applying module, a moving module, an operation module, a display module, and a storage module.

Abstract

Disclosed is a method and system for measuring three-dimensional visibility using a traffic monitoring camera. In the method, a depth map is generated through a first and a second image acquired by a first and a second camera; a contour line is formed according to the depth map; continuity of the contour line is examined; and visible distance information is extracted according to a certain level of continuity thereof or information on a visible distance to an object is calculated. By the method, more accurate visible distance information can be provided to a driver through a display unit, or when the visible distance information falls within a certain distance, a safety display device or the like operates or alarm information can be provided to the driver.

Description

교통 모니터링 카메라를 이용하는 3차원 시정 측정 방법 및 시스템3D visibility measurement method and system using traffic monitoring camera
본 발명의 실시예는 교통 모니터링 카메라를 이용하는 3차원 시정 측정 방법에 관한 것으로서, 보다 상세하게는 교통 모니터링을 수행하면서 시정 측정의 가시거리 정보를 산출할 수 있는 교통 모니터링 카메라를 이용하는 3차원 시정 측정 방법과 이를 이용하는 시스템에 관한 것이다.An embodiment of the present invention relates to a three-dimensional visibility measurement method using a traffic monitoring camera, and more particularly, a three-dimensional visibility measurement method using a traffic monitoring camera that can calculate the visibility information of visibility measurement while performing traffic monitoring. And a system using the same.
현재 전 세계적으로 다양한 목적에 의해 무수히 많은 CCTV(closed circuit television)가 설치되어 있다. 단순 모니터링을 위한 CCTV도 있고, 예방목적의 CCTV도 있으며, 소정 목적의 분석 및 추적을 위한 CCTV도 있다.There are now a number of closed circuit televisions (CCTVs) installed worldwide for various purposes. There are CCTVs for simple monitoring, CCTVs for preventive purposes, and CCTVs for analysis and tracking for certain purposes.
또한, 기상을 모니터링하기 위한 CCTV도 있다. 기상 모니터링 CCTV는 연무, 박무, 안개 등과 같은 시정 장애현상이 발생하는 경우, 운전자가 충분한 가시거리를 확보하지 못하여 교통사고의 위험에 직면하는 것을 방지하기 위해 사용되기도 한다.There is also a CCTV to monitor the weather. Weather monitoring CCTVs can also be used to prevent drivers from facing the risk of traffic accidents in the event of visibility disturbances such as haze, fog and fog.
예를 들어, CCTV 겸용 기상 모니터링 장치는 안개 등에 의한 사고를 미연에 방지하기 위해 도로변에 기상 측정장비를 설치하여 시정을 상시 측정하고, 가시거리가 저하되는 상황이 발생하면 그에 알맞은 주행속도를 유지하도록 안내하는데 이용되기도 한다.For example, CCTV combined weather monitoring system is installed weather measurement equipment on the side of the road to prevent accidents caused by fog, to measure the visibility at all times, and to maintain the proper driving speed when the visible distance decreases. It is also used to guide.
우리나라에는 전국의 기상상태를 측정하기 위해 많은 기상관측소가 설치, 운영되고 있다. 하지만, 대부분의 기상관측소는 도로에 인접해 있지 않아 기상관측소의 관측자료를 도로 이용자가 쉽게 접근하거나 이용하기 어려운 문제가 있다. 이러한 한계를 극복하기 위해 안개 사고에 대한 대책의 일환으로 도로변에 시정계가 설치 운영되고 있다.In Korea, many weather stations are installed and operated to measure the weather conditions of the whole country. However, since most weather stations are not adjacent to roads, there are problems that road users cannot easily access or use observation data from weather stations. To overcome these limitations, municipal governments are installing and operating municipal roadsides as part of countermeasures against fog accidents.
현재 사용되고 있는 시정계는 광학시정계로서 빛의 산란이나 투과량에 의해 시정을 산출하는 방식이다. 그러나, 이러한 방식의 시정계는 시정장애현상이 있는 경우에 오히려 정확도가 떨어지는 단점이 있다.The visibility system currently used is an optical visibility system that calculates visibility based on light scattering or transmission. However, this type of visibility system has a disadvantage in that accuracy is poor when there is a visibility disorder phenomenon.
특히, 광학시정계의 특징상, 지역(area) 전체를 측정 대상으로 하는 것이 아니고 단일지점(point)에서의 측정값으로 그 지역의 시정을 대표하는 방식이어서, 시정계가 있는 위치에서 단 1m만 벗어나 안개가 발생하여도 안개 발생 자체를 파악할 수 없는 심각한 문제점이 있다. 이러한 이유로 시정계를 설치하는 경우, 같은 장소에 CCTV를 함께 설치하여 모니터링을 병행하거나, 사람이 직접 출동하여 목측으로 얻은 관측 결과를 반영하도록 이루어지므로 현재의 시정 안내 시스템은 매우 비효율적으로 운영되고 있다고 할 수 있다.In particular, due to the characteristics of the optical visibility system, it is not a whole area to be measured, but is a method of representing the visibility of the area by the measured value at a single point, so it is only 1 m away from the location of the visibility system. Even if fog occurs, there is a serious problem that can not determine the fog itself. For this reason, when the visibility system is installed, the CCTV system is installed in the same place to perform monitoring or reflect the observation result obtained by the person's direct visit. Can be.
이러한 문제점의 해결을 위해 종래 기술에서는 CCTV를 이용한 가시거리 측정시스템이 출시되고 있으나, 단일(mono) 영상에 의한 방식의 한계점으로 인해 정확성과 신뢰도가 떨어져 실제 사용되는 사례가 매우 적은 실정이다.In order to solve this problem, a conventional visual distance measuring system using CCTV has been released. However, due to the limitation of the mono image method, there are very few cases where the accuracy and reliability are practically used.
일례로, 대한민국 공개특허공보 제10-2009-0051785호의 기상 관측 시스템 및 그 방법이 공지되어 있다. 상기 종래 기술은 차량의 이동 영역으로부터 얻어진 가시선(visual line)과 도로 모델(road model)을 이용하여 시정을 측정한다.As an example, the weather observation system and method of the Republic of Korea Patent Publication No. 10-2009-0051785 is known. The prior art measures visibility using a visual line and a road model obtained from the moving area of the vehicle.
또한, 대한민국 공개특허공보 제10-2011-0037180호의 카메라를 이용한 도로 시정 측정 시스템 및 그 방법이 공지되어 있다. 상기 종래 기술은 도로에 설치된 카메라로부터 영상 신호를 수신하고 결과를 송신하는 통신부, 상기 수신된 영상 신호로부터 차량의 이동 영역을 추출하고 상기 추출된 이동 영역을 이용하여 가시선(visual line)을 결정하는 영상 처리부, 및 시정 산출 함수를 이용하여 상기 결정된 가시선에 대응하는 시정(visibility)을 산출하는 제어부를 포함한다.In addition, the road visibility measurement system and method using a camera of the Republic of Korea Patent Publication No. 10-2011-0037180 is known. The related art is a communication unit for receiving an image signal from a camera installed on a road and transmitting a result, an image of extracting a moving region of the vehicle from the received image signal and determining a visual line using the extracted moving region. And a processing unit, and a control unit for calculating visibility corresponding to the determined line of sight using the correction calculation function.
이와 같이, 종래 기술들은 차량 이동 영역에서 얻은 가시선과 도로 모델을 이용하므로, 차량 속도나 차선의 굴곡 등에 따라 산출된 시정 거리의 정확성과 신뢰도가 떨어지는 문제가 있다.As described above, since the prior art uses the line of sight and the road model obtained in the vehicle moving area, there is a problem in that accuracy and reliability of the visibility distance calculated according to the vehicle speed or the curvature of the lane are inferior.
본 발명은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 기존의 교통모니터링시스템에 단지 한 대의 카메라만을 추가함으로써 모니터링 및 시정측정이라는 두 가지 기능을 정확히 수행 할 수 있는 3차원 시정 측정 방법 및 시스템을 제공하는데 그 목적이 있다.The present invention has been made to solve the problems of the prior art, and by adding only one camera to the existing traffic monitoring system, a three-dimensional visibility measurement method and system that can accurately perform two functions of monitoring and visibility measurement The purpose is to provide.
본 발명의 다른 목적은 제1 영상과 제2 영상을 통해 깊이지도(depth map)를 생성하고, 이 깊이지도에서 동일 깊이를 연결하는 등깊이선(iso-depth line)을 작성한 후 등깊이선의 연결연속성을 판독하여 가시거리를 산출하며, 산출된 가시거리 정보를 디스플레이 장치를 통해 운전자에게 제공하거나 가시거리가 일정 거리 이하인 경우 안전표시장치 등을 작동시키거나 차량 내외의 다양한 디스플레이 장치를 통해 운전자에게 영상을 제공할 수 있는, 3차원 시정 측정 방법 및 시스템을 제공하는데 있다.Another object of the present invention is to create a depth map through the first image and the second image, create an iso-depth line connecting the same depth in the depth map, and then connect the iso-depth lines. Read the continuity to calculate the visible distance, provide the calculated visibility information to the driver through the display device, operate the safety indicator, etc. when the visible distance is less than a certain distance, or display the image to the driver through various display devices inside and outside the vehicle To provide a three-dimensional visibility measurement method and system that can provide.
본 발명의 또 다른 목적은 종래의 시정계 대비 경제적이면서 운전자에게 보다 정확한 시정 정보를 제공할 수 있고 그에 의해 안개로 인한 교통사고를 줄이는데 기여할 수 있는, 3차원 시정 측정 방법 및 시스템을 제공하는데 있다.It is still another object of the present invention to provide a three-dimensional visibility measurement method and system, which is more economical than a conventional visibility system and can provide more accurate visibility information to a driver, thereby contributing to reducing traffic accidents caused by fog.
상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 3차원 시정 측정 시스템은, 제1 영상을 촬영하는 제1 카메라와 상기 제1 카메라와 다른 각도에서 제2 영상을 촬영하는 제2 카메라와 연동하고 상기 제1 카메라가 촬영한 제 1 영상과 상기 제2 카메라가 촬영한 제2 영상의 입력으로부터 가시거리 정보를 산출하는 제어부; 상기 제어부와 연동하여 상기 제1 영상, 상기 제2 영상, 상기 가시거리 정보를 저장하는 저장부; 및 상기 제어부, 상기 제1 카메라 및 상기 제2 카메라와 관제서버 간의 네트워크 연동을 지원하는 통신모듈을 포함하고, 상기 제어부는, 상기 제1 영상과 상기 제2 영상을 이용하여 깊이지도를 생성하는 스테레오 영상 변환 모듈, 및 상기 깊이지도로부터 등깊이선을 생성하고, 상기 등깊이선의 연결연속성을 검출하여 일정 수준 이상의 연속성을 가지는지 판단하는 시정 측정 모듈을 구비한다.The three-dimensional visibility measurement system according to an aspect of the present invention for solving the above technical problem, the first camera to shoot the first image and the second camera to shoot a second image from a different angle from the first camera And a controller configured to calculate visible distance information from an input of a first image photographed by the first camera and a second image photographed by the second camera; A storage unit which stores the first image, the second image, and the visible distance information in association with the controller; And a communication module for supporting network interworking between the controller, the first camera, the second camera, and the control server, wherein the controller is configured to generate a depth map using the first image and the second image. An image conversion module, and a visibility measurement module for generating an iso-depth line from the depth map, and detects the connection continuity of the iso-depth line to determine whether there is a certain level or more of continuity.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 3차원 시정 측정 방법은, 두 대의 카메라로부터 스테레오 영상을 취득하고 깊이지도를 생성하는 단계; 상기 깊이지도로부터 등고선과 유사한 방식의 등깊이선을 작성하는 단계; 및 상기 등깊이선에서 연결연속성을 판단하는 단계; 상기 등깊이선의 연결연속성이 일정 수준 이상의 연속성을 가지는 경우, 상기 연속성을 가진 영상들 중 등깊이선의 최대값을 취득하는 단계-여기서, 상기 최대값은 현재의 가시거리에 대응함-를 포함한다.According to another aspect of the present invention, there is provided a three-dimensional visibility measurement method, comprising: acquiring a stereo image from two cameras and generating a depth map; Creating a depth line in a manner similar to a contour line from the depth map; Determining the connection continuity at the equi-depth line; And when the connection continuity of the iso-depth line has a certain level or more of continuity, acquiring a maximum value of the iso-depth line among the images having the continuity, wherein the maximum value corresponds to a current viewing distance.
일실시예에서, 3차원 시정 측정 방법은, 상기 취득하는 단계에서 상기 상(image)의 진위여부를 판단하는 단계를 더 포함할 수 있다.In one embodiment, the three-dimensional visibility measurement method may further comprise determining the authenticity of the image in the acquiring step.
일실시예에서, 3차원 시정 측정 방법은, 상기 연속성에 대한 정확도를 높이기 위하여 원본영상으로부터 경계선(edge)를 추출하고 상기 경계선(edge)과 등깊이선을 중첩하여 분석하는 단계를 더 포함할 수 있다.In an embodiment, the 3D visibility measurement method may further include extracting an edge from an original image and analyzing the edge by overlapping the depth line in order to increase the accuracy of the continuity. have.
일실시예에서, 3차원 시정 측정 방법은, 안개 등과 같은 시정장애물로 인해 상(image)이 맺히지 않는 경우에 해당 영역에서 경계선(edge)을 추출할 수 없게 되므로, 복수 영상들의 등깊이선을 중첩하여 분석하는 단계를 더 포함할 수 있다. 이 경우, 안개 등에 의한 매칭의 오류를 제거할 수 있으므로 더욱 정확한 가시거리를 판단할 수 있게 된다.In one embodiment, the three-dimensional visibility measurement method, because it is impossible to extract the edge (edge) in the area when the image (image) due to the visibility obstacles, such as fog, overlapping the depth line of the plurality of images And further analyzing the data. In this case, the error of matching due to the fog can be eliminated, so that the more accurate viewing distance can be determined.
상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 측면에 따른 3차원 시정 측정 방법은, 제1 카메라에서 촬영된 제1 영상과 상기 제1 카메라와 다른 각도에서 촬영된 제2 카메라의 제2 영상을 획득하는 제1 단계; 상기 제 1 영상과 상기 제2 영상에 기초하여 깊이지도(depth map)를 생성하는 제2 단계; 상기 깊이지도로부터 등깊이선을 생성하는 제3 단계; 상기 등깊이선의 연결연속성을 검출하여 일정 수준 이상의 연속성을 가지는지 판단하는 제4 단계; 상기 등깊이선이 일정 수준 이상의 연속성을 가지는 경우, 연속성을 갖는 상기 등깊이선 중 최대값을 취득하고, 상기 최대값을 가시거리 정보로 산출하는 제5 단계; 및 상기 등깊이선이 일정 수준 이상의 연속성을 가지지 않는 경우, 상기 등깊이선 중 최소값을 가시거리 정보로 산출하는 제6 단계를 포함한다.According to another aspect of the present invention, there is provided a method for measuring 3D visibility according to another aspect of the present invention, including a first image photographed by a first camera and a second image photographed by a second camera photographed at a different angle from the first camera. Obtaining a first step; Generating a depth map based on the first image and the second image; Generating a depth line from the depth map; A fourth step of determining whether the connection continuity of the equal depth line has a certain level or more of continuity; A fifth step of acquiring a maximum value of the equal depth lines having the continuity and calculating the maximum value as the visible distance information when the iso-depth line has a predetermined level or more of continuity; And a sixth step of calculating the minimum value of the iso-depth lines as the visible distance information when the iso-depth line does not have a predetermined level or more of continuity.
본 발명의 교통 모니터링 카메라를 이용하는 3차원 시정 측정 방법 및 시스템을 이용하면, 가변 초점거리를 갖는 줌렌즈와 상하좌우 회전이 가능한 팬/틸트 장치를 이용함으로써 360° 전방위 측정이 가능하면서도 교통모니터링이 가능한 3차원 시정 측정 시스템 및 방법을 제공할 수 있다.Using the three-dimensional visibility measurement method and system using the traffic monitoring camera of the present invention, by using a zoom lens having a variable focal length and a pan / tilt device that can be rotated up, down, left, and right, it is possible to measure 360 ° omni-directional, while traffic monitoring is possible 3 Dimensional visibility measurement systems and methods can be provided.
또한, 본 발명에 의하면, 제1 영상 및 제2 영상을 통해 깊이지도(depth map)을 생성하고 오브젝트(object)까지의 가시거리를 산출하여 디스플레이를 통해 가시거리를 운전자에게 제공하고, 가시거리가 일정 거리 이하인 경우 안전 표시등을 점등하고 디스플레이를 통해 영상을 제공하여, 종래의 시정계보다 경제적이며 운전자에게 보다 정확한 시정 정보를 제공할 수 있고, 그에 의해 안개로 인한 교통사고를 줄이는데 기여할 수 있다.In addition, according to the present invention, a depth map is generated through the first image and the second image, the visible distance to the object is calculated, the visible distance is provided to the driver through the display, and the visible distance is If the distance is less than a certain distance to turn on the safety indicator light and provide an image through the display, it is more economical than the conventional visibility system can provide more accurate visibility information to the driver, thereby contributing to reducing traffic accidents caused by fog.
또한, 본 발명에 의하면, 기존의 교통모니터링 시스템에 단지 한 대의 카메라만을 추가로 설치함으로써 모니터링 및 시정측정이라는 두 가지 기능을 수행하도록 할 수 있는 효과가 있다.In addition, according to the present invention, by installing only one camera in the existing traffic monitoring system, it is possible to perform two functions of monitoring and visibility measurement.
도 1은 본 발명의 일실시예에 따른 교통 모니터링 카메라를 이용하는 3차원 시정 측정 시스템의 구성도이다.1 is a block diagram of a three-dimensional visibility measurement system using a traffic monitoring camera according to an embodiment of the present invention.
도 2는 본 발명의 일실시예에 따른 3차원 시정 측정 시스템에 이용할 수 있는 제1 및 제2 카메라의 평상시 영상들과 안개발생시 영상들을 예시한 도면이다.2 is a diagram illustrating normal images of the first and second cameras and images at the time of fog generation that may be used in the 3D visibility measurement system according to an exemplary embodiment of the present invention.
도 3은 본 발명의 일실시예에 따른 3차원 시정 측정 시스템에 이용할 수 있는 평상시 및 안개발생시의 깊이지도(depth map)를 예시한 도면이다.3 is a diagram illustrating a depth map during normal and fog generation that can be used in a three-dimensional visibility measurement system according to an embodiment of the present invention.
도 4는 본 발명의 일실시예에 따른 3차원 시정 측정 시스템에 이용할 수 있는 평상시 및 안개발생시의 등깊이선을 추출한 영상의 예시도이고,4 is an exemplary view of an image extracted from the depth lines of the normal and the fog occurs that can be used in the three-dimensional visibility measurement system according to an embodiment of the present invention,
도 5는 본 발명의 일실시예에 따른 3차원 시정 측정 시스템에 이용할 수 있는 평상시 및 안개발생시의 경계선 추출 영상의 예시도이고,FIG. 5 is an exemplary diagram of boundary image extraction images during normal and fog generation that can be used in a 3D visibility measurement system according to an exemplary embodiment of the present invention.
도 6은 본 발명의 일실시예에 따른 3차원 시정 측정 시스템에 이용할 수 있는 평상시 및 안개발생시의 등깊이선 추출 영상과 경계선 추출 영상을 중첩한 영상의 예시도이고,FIG. 6 is an exemplary view of an image obtained by superimposing an extracted depth line image and a boundary line extracted image during normal and fog generation that can be used in a 3D visibility measurement system according to an exemplary embodiment of the present invention.
도 7은 본 발명의 일실시예에 따른 디스플레이부 및 안전표시장치의 작동을 도시한 도면이다.7 is a view showing the operation of the display unit and the safety display device according to an embodiment of the present invention.
도 8은 본 발명의 일실시예에 따른 3차원 시정 측정 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a three-dimensional visibility measurement method according to an embodiment of the present invention.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in this specification and claims are not to be construed as limiting in their usual or dictionary meanings, and the inventors may appropriately define the concept of terms in order to best explain their invention in the best way possible. It should be interpreted as meaning and concept corresponding to the technical idea of the present invention based on the principle that the present invention.
따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiments of the present invention and do not represent all of the technical idea of the present invention, various equivalents that may be substituted for them at the time of the present application It should be understood that there may be water and variations.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 교통 모니터링 카메라를 이용하는 3차원 시정 측정 시스템의 구성도이다.1 is a block diagram of a three-dimensional visibility measurement system using a traffic monitoring camera according to an embodiment of the present invention.
도 1을 참조하면, 본 실시예에 따른 3차원 시정 측정 시스템(100)은 제1 영상 수신부(111), 제2 영상 수신부(112), 적외선 투광부(114) 및 팬/틸트 구동부(116), 제어부(120), 저장부(130), 통신부(140) 및 디스플레이부(150)를 포함하여 이루어질 수 있다.Referring to FIG. 1, the 3D visibility measuring system 100 according to the present exemplary embodiment includes a first image receiving unit 111, a second image receiving unit 112, an infrared light transmitting unit 114, and a pan / tilt driving unit 116. The controller 120 may include a storage unit 130, a communication unit 140, and a display unit 150.
제1 영상 수신부(111)는 제1 카메라에 연결되어 제1 카메라로부터 제1 영상을 획득한다. 제1 영상 수신부(111)는 제1 카메라로부터 제1 영상을 받은 수신 포트를 포함하거나, 미리 설정된 구성에 따라 혹은 제어부(120)의 제어에 따라 제1 카메라에 접속하여 제1 카메라의 제1 영상을 읽어오는 수단이나 이러한 수단에 상응하는 동작을 수행하는 구성부를 포함할 수 있다.The first image receiver 111 is connected to the first camera to obtain a first image from the first camera. The first image receiving unit 111 may include a receiving port that receives the first image from the first camera, or may be connected to the first camera according to a preset configuration or under the control of the controller 120 to display the first image of the first camera. It may include a means for reading or a component for performing an operation corresponding to the means.
제2 영상 수신부(112)는 제1 영상 수신부(111)와 유사하게 제2 카메라에 연결되어 제2 카메라로부터 제2 영상을 획득한다. 제2 영상 수신부(112)는 제2 카메라로부터 제2 영상을 받은 수신 포트를 포함하거나, 미리 설정된 구성에 따라 혹은 제어부(120)의 제어에 따라 제2 카메라에 접속하여 제2 카메라의 저장수단에 저장된 제2 영상을 독출하는 수단이나 이러한 수단에 상응하는 동작을 수행하는 구성부를 포함할 수 있다.The second image receiver 112 is connected to the second camera similarly to the first image receiver 111 to obtain a second image from the second camera. The second image receiving unit 112 includes a receiving port that receives the second image from the second camera, or connects to the second camera according to a preset configuration or under the control of the controller 120 to store the second camera. It may include a means for reading the stored second image or a component for performing an operation corresponding to the means.
제1 카메라와 제2 카메라는 스테레오 영상을 생성하기 위하여 미리 설정된 간격만큼 이격 배치될 수 있다. 제1 카메라와 제2 카메라는 구현에 따라서 스테레오 카메라일 수 있다.The first camera and the second camera may be spaced apart by a predetermined interval to generate a stereo image. The first camera and the second camera may be stereo cameras depending on the implementation.
제1 및 제2 영상 수신부(111, 112)는 별도의 구성부일 수 있으나, 이에 한정되지 않고, 단일 영상 수신부로 구현될 수 있다.The first and second image receivers 111 and 112 may be separate components, but are not limited thereto and may be implemented as a single image receiver.
적외선 투광부(114)는 적외선 투광기를 포함할 수 있고, 제1 카메라 및 제2 카메라의 야간 촬영이나 안개발생시 촬영에 사용가능 하도록 제1 카메라 및 제2 카메라에 결합될 수 있다. 또한, 적외선 투광부(114)는 적외선 투광기의 동작을 제어하는 적외선 투광기 구동부를 포함할 수 있으며, 이 경우 적외선 투광기 구동부는 제어부(200)에 의해 제어될 수 있다.The infrared light emitter 114 may include an infrared light emitter, and may be coupled to the first camera and the second camera so that the first camera and the second camera may be used for photographing at night or during fog. In addition, the infrared light emitter 114 may include an infrared light emitter driver for controlling the operation of the infrared light emitter. In this case, the infrared light emitter driver may be controlled by the controller 200.
팬/틸트 구동부(116)는 제1 카메라와 제2 카메라의 단일 하우징에 설치되는 단일 하드웨어인 팬/틸트 구동유닛을 구비하고, 제1 카메라 및 제2 카메라에서 제1 영상 및 제2 영상을 포함한 스테레오 영상을 획득할 수 있도록 이루어진다. 이를 위해, 팬/틸트 구동부(116)는 제1 카메라와 제2 카메라의 팬 동작이나 틸트 동작이 서로 연동하도록 하우징에 결합된 단일 구동축을 구비할 수 있다. 또한, 팬/틸트 구동부(116)는 팬/틸트 구동유닛을 제어하는 구동 회로나 소프트웨어 구동모듈을 포함할 수 있다.The pan / tilt drive unit 116 includes a pan / tilt drive unit, which is a single hardware installed in a single housing of the first camera and the second camera, and includes a first image and a second image in the first and second cameras. It is made to obtain a stereo image. To this end, the pan / tilt driver 116 may include a single drive shaft coupled to the housing such that a pan operation or a tilt operation of the first camera and the second camera is interlocked with each other. In addition, the pan / tilt driver 116 may include a driving circuit or a software driving module for controlling the pan / tilt driving unit.
또한, 팬/틸트 구동부(116)는 제1 카메라에 결합하는 제1 줌 구동부와 제2 카메라에 결합하는 제2 줌 구동부를 구비할 수 있다.In addition, the pan / tilt driver 116 may include a first zoom driver coupled to the first camera and a second zoom driver coupled to the second camera.
제어부(120)는 3차원 시정 측정 시스템의 각 구성요소의 동작을 제어한다. 제어부(120)는 프로세서 또는 마이크로프로세서를 포함할 수 있다. 제어부(120)는 스테레오 영상 변환 모듈(121), 시정 측정 모듈(122) 및 PTZ 제어 모듈(123)을 포함할 수 있다.The controller 120 controls the operation of each component of the 3D visibility measurement system. The controller 120 may include a processor or a microprocessor. The controller 120 may include a stereo image conversion module 121, a visibility measurement module 122, and a PTZ control module 123.
스테레오 영상 변환 모듈(121)은 제1 카메라의 제1 영상과 제2 카메라의 제2 영상의 조합 데이터 혹은 스테레오 비전 영상 데이터(이하 간략히 '영상 데이터', '소스 데이터' 또는 '제1 영상 데이터')를 나란히 혹은 쌍으로 사전처리 하거나, 사전처리한 영상 데이터의 수직오차를 제거하거나 기하보정을 수행하거나, 기하보정한 영상 데이터를 이용하여 깊이지도를 생성할 수 있다.The stereo image conversion module 121 is a combination of the first image of the first camera and the second image of the second camera or stereo vision image data (hereinafter, simply referred to as 'image data', 'source data' or 'first image data' ) Can be pre-processed side by side or in pairs, vertical errors of pre-processed image data can be removed, geometric correction can be performed, or depth maps can be generated using geometrically corrected image data.
또한, 스테레오 영상 변환 모듈(121)은 영상 내 에지에 대응하는 경계선을 추출하고, 등깊이선과 경계선을 중첩한 영상 데이터(이하 '시정 측정용 영상 데이터' 또는 '제2 영상 데이터')를 생성할 수 있다.In addition, the stereo image conversion module 121 extracts a boundary line corresponding to an edge in the image and generates image data (hereinafter, 'correction measurement image data' or 'second image data') overlapping the depth line and the boundary line. Can be.
또한, 스테레오 영상 변환 모듈(121)은 제1 영상과 제2 영상으로부터 등깊이 지도를 추출하고 등깊이 지도로부터 깊이 정보를 RGB 값으로 변환할 수 있다.In addition, the stereo image conversion module 121 may extract the depth map from the first image and the second image and convert the depth information into the RGB value from the depth map.
시정 측정 모듈(122)은 제2 영상 데이터에서 가시거리를 산출하거나 획득할 수 있다. 시정 측정 모듈(122)에서 산출되거나 획득한 정보는 안개발생시 교통 지원장치로 설치되어 있는 안전표시 장치 등을 가동시키거나 도로변의 디스플레이 장치나 차량 내 디스플레이 장치 등에 안전운행 정보를 제공하는데 이용될 수 있다. 상기 정보는 가시거리 정보 등을 포함할 수 있다.The visibility measurement module 122 may calculate or obtain a visible distance from the second image data. The information calculated or acquired by the visibility measurement module 122 may be used to operate a safety display device installed as a traffic support device or provide safety driving information to a roadside display device or an in-vehicle display device when fog occurs. . The information may include visibility information.
PTZ 제어 모듈(123)은 제1 카메라와 제2 카메라의 동작을 제어하기 위한 수단이다. PTZ 제어 모듈(123)은 팬(pan), 틸트(tilt), 줌(zoom) 기능을 통해 목표물이나 목표 구역에 대한 자세한 모습을 촬영할 수 있다. PTZ 제어 모듈(123)은 제1 카메라와 제2 카메라가 설정된 목표 지역에서 원하는 위치를 포커싱하도록 제1 카메라와 제2 카메라에 각각 결합된 팬/틸트 구동부(116)의 팬 또는 틸팅 동작을 제어할 수 있다.The PTZ control module 123 is a means for controlling the operation of the first camera and the second camera. The PTZ control module 123 may capture a detailed view of the target or the target area through the pan, tilt, and zoom functions. The PTZ control module 123 may control a pan or tilt operation of the pan / tilt driver 116 coupled to the first camera and the second camera so as to focus a desired position in the target area where the first camera and the second camera are set. Can be.
즉, PTZ 제어 모듈(123)은 팬/틸트 구동부(116)를 제어하여 제1 카메라 및 제2 카메라를 상하좌우로 회전시켜 카메라가 설치된 지점으로부터 360도 전방위 측정을 할 수 있도록 한다. 또한, PTZ 제어 모듈(123)은 제1카메라 및 제2카메라의 줌 배율을 동일한 배율로 동시 제어하거나 각각 다른 배율로 개별적으로 조정할 수 있다.That is, the PTZ control module 123 controls the pan / tilt driver 116 to rotate the first camera and the second camera up, down, left, and right to perform 360-degree omnidirectional measurements from the point where the camera is installed. In addition, the PTZ control module 123 may simultaneously control the zoom magnifications of the first camera and the second camera at the same magnification or individually adjust the zoom magnifications to different magnifications.
이때, 시정 측정 모듈(122)은 PTZ 제어 모듈(123)을 통해 팬/틸트 구동부(116) 및 카메라의 줌렌즈를 일정시간 간격으로 자동 운영할 수 있으나, 이에 한정되지 않고, 사용자나 관리자에 의해 수동으로 운영되도록 구현될 수도 있다.In this case, the visibility measurement module 122 may automatically operate the zoom lens of the pan / tilt driver 116 and the camera at a predetermined time interval through the PTZ control module 123, but is not limited thereto. It may be implemented to operate as.
전술한 스테레오 영상 변환 모듈(121), 시정 측정 모듈(122) 및 PTZ 제어 모듈(123)은 제어부(120) 내에 적어도 일부가 하드웨어적으로 구현되거나 제어부(120)가 저장부(130)에 저장된 프로그램 모듈을 수행하여 스테레오 영상 변환 모듈(121), 시정 측정 모듈(122) 및 PTZ 제어 모듈(123) 중 적어도 어느 하나를 탑재하고 그 기능을 실행하도록 구현될 수 있다.The stereo image conversion module 121, the visibility measurement module 122, and the PTZ control module 123 described above may be implemented in at least a part of hardware in the controller 120 or the controller 120 may be stored in the storage 130. The module may be implemented to mount at least one of the stereo image conversion module 121, the visibility measurement module 122, and the PTZ control module 123 and execute a function thereof.
저장부(130)는 램 또는 롬 등의 반도체 메모리, 플래시 메모리, 하드디스크, 광디스크 등의 저장 수단을 포함할 수 있다. 저장부(130)는 스테레오 영상 변환 모듈(121), 시정 측정 모듈(122) 및 PTZ 제어 모듈(123) 중 적어도 어느 하나 이상을 소프트웨어 모듈 형태로 저장할 수 있다.The storage unit 130 may include storage means such as a semiconductor memory such as a RAM or a ROM, a flash memory, a hard disk, an optical disk, or the like. The storage unit 130 may store at least one or more of the stereo image conversion module 121, the visibility measurement module 122, and the PTZ control module 123 in the form of a software module.
통신부(140)는 제어부(120)와 3차원 시정 측정 시스템 내 각 구성요소 간의 신호 및 데이터의 송수신을 지원할 수 있다. 즉, 통신부(140)는 본 시스템 내에서 프로세스 유닛 간의 입력단과 출력단의 상호 연동을 위한 연결을 제공하거나 지원하는 수단이나 구성부를 포함할 수 있다.The communication unit 140 may support transmission and reception of signals and data between the control unit 120 and each component in the 3D visibility measurement system. That is, the communication unit 140 may include a means or a component for providing or supporting a connection for interworking between the input terminal and the output terminal between the process units in the system.
또한, 통신부(140)는 유선 통신망, 유선 네트워크, 무선 통신망, 무선 네트워크 또는 이들의 조합을 지원하기 위한 적어도 하나의 통신 서브 시스템을 구비할 수 있고, 제어부(120)가 안전표시 장치(160), 관제서버(170) 또는 디스플레이 장치(180)와 신호 및 데이터를 송수신하도록 지원할 수 있다.In addition, the communication unit 140 may include at least one communication subsystem for supporting a wired communication network, a wired network, a wireless communication network, a wireless network, or a combination thereof, and the control unit 120 may include the safety display device 160, It may support transmitting and receiving signals and data with the control server 170 or the display device 180.
안전표시 장치(160)는 소리, 빛 등을 이용한 안개발생 경고 장치, 안개발생 지역 내에서 중앙선, 차선, 가이드레일 등에 설치되는 차량유도등, 점멸등 등을 포함할 수 있다. 안전표시 장치(160)는 3차원 시정 측정 시스템(100)과 연동하며 이 시스템의 제어신호에 따라 동작할 수 있다.The safety display device 160 may include a fog generation warning device using sound, light, and the like, a vehicle induction lamp, a flashing light, or the like installed in a center line, a lane, a guide rail, and the like in a fog area. The safety display device 160 interlocks with the 3D visibility measurement system 100 and may operate according to the control signal of the system.
관제서버(170)는 3차원 시정 측정 시스템(100)에서 생산되거나 출력되는 신호나 정보와 이러한 신호나 정보에 따라 동작하는 주변의 연동 장치들의 상태를 수집하고 모니터링할 수 있다. 관제서버(170)는 인접하게 위치하는 다수의 3차원 시정 측정 시스템의 정보에 기초하여 안개발생 지역을 구분하거나 안개발생 지역의 확산, 축소 등의 변화를 감지할 수 있고, 획득한 정보에 기초하여 교통안전 시스템을 추가로 운영할 수 있다.The control server 170 may collect and monitor the signals or information produced or output from the 3D visibility measurement system 100 and the status of peripheral devices operating in accordance with the signals or information. The control server 170 may classify a fog area or detect a change in a fog area or spread or reduce the fog area based on information of a plurality of adjacent three-dimensional visibility measurement systems, and based on the obtained information. An additional traffic safety system can be operated.
관제서버(170)는 가시거리 정보, 제1 및 제2 영상들(201, 201a, 202, 202a) 또는 안전표시 장치(160)의 정보를 수신할 수 있고, 제1 및 제2 카메라들, 안전표시 장치(160) 또는 디스플레이 장치(180)를 제어할 수 있다.The control server 170 may receive the visibility information, the first and second images 201, 201a, 202, 202a or the information of the safety display device 160, and the first and second cameras, the safety. The display device 160 or the display device 180 may be controlled.
디스플레이 장치(180)는 도로변에 설치되어 문자만을 표시하거나 문자와 영상을 함께 표시하는 장치를 포함할 수 있다. 또한, 디스플레이 장치(180)는 지능형 교통 체계(ITS) 속에서 동작하는 모든 영상표시 장치를 포함할 수 있다. 일례로, 디스플레이 장치(180)는 도로상에 위치하거나 도로를 주행 중인 차량에 설치되는 각종 영상표시 장치를 포함할 수 있다.The display device 180 may include a device installed at a roadside and displaying only text or both text and an image. In addition, the display device 180 may include all image display devices operating in an intelligent traffic system (ITS). For example, the display device 180 may include various image display devices that are located on a road or installed in a vehicle driving a road.
본 실시예에 따른 3차원 시정 측정 시스템(100)은 넓은 의미에서 제1 카메라, 제2 카메라, 안전표시 장치(160), 관제서버(17) 및 외부의 디스플레이 장치(180)를 더 포함하도록 구현될 수 있다.The three-dimensional visibility measurement system 100 according to the present embodiment is implemented to further include a first camera, a second camera, a safety display device 160, a control server 17 and an external display device 180 in a broad sense. Can be.
전술한 3차원 시정 측정 시스템(100)의 작동 원리를 좀더 구체적으로 설명하면 다음과 같다.The operation principle of the above-described three-dimensional visibility measurement system 100 will be described in more detail as follows.
도 2의 (a) 및 (b)에 도시된 바와 같이 제1 카메라는 제1 영상(201)을 촬영하고 제2 카메라는 제2 영상(202)을 촬영한다. 또한, 도 2의 (c) 및 (d)에 도시된 바와 같이, 안개발생시 제1 카메라는 제1 영상(201a)을 촬영하고 제2 카메라는 제2 영상(202a)을 촬영할 수 있다.As shown in (a) and (b) of FIG. 2, the first camera photographs the first image 201 and the second camera photographs the second image 202. In addition, as shown in (c) and (d) of FIG. 2, when fog occurs, the first camera may photograph the first image 201a and the second camera may photograph the second image 202a.
기존의 교통모니터링시스템에서 사용하는 카메라가 제1 카메라라면, 제2 카메라와 같이 단지 한 대의 카메라만을 추가함으로써 모니터링 및 시정측정이라는 두 가지 기능을 수행하도록 구현될 수 있다.If the camera used in the existing traffic monitoring system is the first camera, it can be implemented to perform two functions of monitoring and visibility measurement by adding only one camera like the second camera.
제1 카메라 및 제2 카메라는 가변 초점 거리를 갖는 줌 렌즈와 상하좌우 회전이 가능한 팬/틸트 장치를 이용함으로써 360°전방위로 영상 촬영이 가능하도록 구성될 수 있다.The first camera and the second camera may be configured to capture an image in 360 ° by using a zoom lens having a variable focal length and a pan / tilt device capable of rotating up, down, left, and right.
제1 카메라 및 제2 카메라는 서로 다른 줌 배율로 교통 모니터링을 하기 위하여 도로 및 거리를 촬영한 제1 영상 및 제2 영상을 동시에 제공할 수 있다. 여기에서 제1 영상 및 제2 영상 각각은 차량 등의 오브젝트(object)를 포함한 확대된 영상일 수 있다. 이 경우, 제1 카메라는 줌인(zoom in), 제2 카메라는 줌아웃(zoom out)과 같은 방식으로 동작할 수 있다. 또한, 제1 카메라는 일반영상, 제2 카메라는 안개제거 기능을 적용한 영상을 표출하도록 구현될 수 있다.The first camera and the second camera may simultaneously provide a first image and a second image of roads and streets to monitor traffic at different zoom magnifications. Here, each of the first image and the second image may be an enlarged image including an object such as a vehicle. In this case, the first camera may be zoomed in and the second camera may be operated in the same manner as the zoom out. Also, the first camera may be implemented to display a general image and the second camera may display an image to which the fog removing function is applied.
제어부(120)는 제1 카메라 및 제2 카메라와 연동하고 제1 카메라가 촬영한 제 1 영상(201, 201a)과 제2 카메라가 촬영한 제2 영상(202, 202a)을 입력으로 취득하여 도 3의 (a)와 (b)에 도시된 바와 같이 깊이지도(depth map) 정보를 포함한 영상(203, 204)를 생성할 수 있다. 깊이지도는 가시거리 정보를 산출하는데 이용될 수 있다.The controller 120 interoperates with the first camera and the second camera and acquires, as an input, first images 201 and 201a captured by the first camera and second images 202 and 202a captured by the second camera. As illustrated in (a) and (b) of FIG. 3, images 203 and 204 including depth map information may be generated. The depth map can be used to calculate the line of sight information.
이를 위하여 제어부(120)는 스테레오 영상 변환 모듈(121), 시정 측정 모듈(122) 및 PTZ(pan/tilt/zoom) 제어 모듈(123)을 포함할 수 있다.To this end, the controller 120 may include a stereo image conversion module 121, a visibility measurement module 122, and a PTZ (pan / tilt / zoom) control module 123.
스테레오 영상 변환 모듈(121)은 제1 카메라가 촬영한 제1 영상과 제2 카메라가 촬영한 제2 영상을 이용하여 깊이지도를 생성하고, 깊이지도에서 등깊이선을 작성하며(도 4의 205 및 206 영상 참조), 원본 영상(소스 데이터)에서 경계선을 추출할 수 있다(도 5의 207 및 208 영상 참조).The stereo image conversion module 121 generates a depth map by using the first image photographed by the first camera and the second image photographed by the second camera, and creates a depth line from the depth map (205 of FIG. 4). And 206, a boundary line may be extracted from the original image (source data) (see 207 and 208 of FIG. 5).
이때, 스테레오 영상 변환 모듈(121)은 제1 및 제2 영상들(201 또는 201a, 202 또는 202a)을 각각 보정한 후, 보정한 제1 및 제2 영상들을 이용해 깊이 지도를 생성할 수 있다. 보정 과정을 수행하면, 보다 정확한 데이터의 깊이 지도를 생성할 수 있다.In this case, the stereo image conversion module 121 may correct the first and second images 201 or 201a, 202 or 202a, and then generate a depth map using the corrected first and second images. By performing the calibration process, a more accurate depth map of the data can be generated.
전술한 과정에서, 스테레오 영상 변환 모듈(121)은 제1 및 제2 영상들(201, 201a, 202, 202a)의 위치 평면상에서 투영 중심과 기준점의 교차점으로부터 공액점을 결정하고, 공액점을 통해 입체상을 생성하는 에피폴라 기하(Epipolar Geometry)를 사용하여 깊이지도(depth map)를 생성하도록 구현된다.In the above-described process, the stereo image conversion module 121 determines a conjugate point from the intersection of the projection center and the reference point on the position plane of the first and second images 201, 201a, 202, and 202a, and uses the conjugate point to determine the three-dimensional image. It is implemented to generate a depth map using Epipolar Geometry which generates.
시정 측정 모듈(122)은 등깊이선 및 경계선을 이용하여 연결연속성을 검출하고 연결연속성이 일정 수준 이상의 연속성을 가지는지 판단하도록 구현된다.The visibility measurement module 122 is implemented to detect the connection continuity using the depth line and the boundary line, and determine whether the connection continuity has a certain level or more of continuity.
즉, 시정 측정 모듈(122)은 제1 카메라가 촬영한 제1 영상과 제2 카메라가 촬영한 제2 영상의 원본영상으로부터 경계선(edge)를 추출하고, 경계선(edge)과 상기 등깊이선을 중첩하여 분석할 수 있다(도 6의 209 및 210 영상 참조).That is, the visibility measurement module 122 extracts an edge from the original image of the first image photographed by the first camera and the second image photographed by the second camera, and extracts an edge and the iso-depth line. The analysis can be superimposed (see images 209 and 210 of FIG. 6).
또한, 시정 측정 모듈(122)는 안개 발생시 시정이 불명확한 경계지점에서의 판단 오류를 줄이기 위해 연속된 복수의 영상을 추출하는 방법과 통계적인 방법을 추가로 적용하여 최적화 되도록 구현될 수 있다.In addition, the visibility measurement module 122 may be implemented to be optimized by additionally applying a method of extracting a plurality of consecutive images and a statistical method in order to reduce a determination error at a boundary where visibility is unclear when fog occurs.
상기 등깊이선이란 바다의 평균 수면을 기준으로 하여 같은 높이의 지점을 이은 선인 등고선과 유사하게, 상기 깊이지도에서 거리의 멀고 가까움을 나타내는 지점을 이은 선을 의미한다. 하나의 사물이 정확하게 주변 배경과 구분되도록 상(image)이 맺힌다면 이 상(image)은 연접하는 영상소자들(픽셀들) 사이에서 연속성을 가지는 것을 판단할 수 있다.The depth line means a line connecting a point representing a distance and a closeness of a distance on the depth map, similar to a contour line connecting a point having the same height based on the average surface of the sea. If an image is formed so that one object is accurately distinguished from the surrounding background, it may be determined that the image has continuity between contiguous image elements (pixels).
그러므로 상기 시정 측정 모듈(122)은 상기 등깊이선에서 연속성을 검토하여, 일정 수준 이상의 연속성을 가지는 경우에 한하여 그 중 최대값을 취득하면 그 값을 가시거리라고 판단할 수 있다.Therefore, the visibility measurement module 122 may examine the continuity in the iso-depth line, and may determine that the value is the visible distance only when the maximum value is acquired only when the continuity is higher than a predetermined level.
즉, 안개 등에 의한 시정저하가 발생하지 않았다면 당시의 시정거리는 스테레오영상에서 취득할 수 있는 이론적 최대치라고 할 수 있다. 이때, 시정 측정 모듈(122)에서 등깊이선이 일정 수준 이상의 연속성을 가진다면, 연속성을 갖는 등깊이선 중의 최대값을 취득하고, 최대값을 가시거리 정보로 산출한다.In other words, if there is no visibility deterioration due to fog, the visibility distance at that time can be said to be the theoretical maximum that can be obtained from stereo images. At this time, in the visibility measurement module 122, if the iso-depth line has a continuity of a predetermined level or more, the maximum value in the iso-depth line having continuity is obtained, and the maximum value is calculated as the visible distance information.
또한, 안개 등에 의한 시정저하가 발생하는 경우에는 제일 먼 지점부터 상(image)이 맺히지 않게 되고, 상(image)이 맺히지 않으면 매칭점도 규칙성을 가질 수 없게 된다. 이때 상기 시정 측정 모듈(122)에서 상기 등깊이선이 일정 수준 이상의 연속성을 가지지 않는다면, 상기 등깊이선 중의 최소값을 가시거리 정보로 산출한다.In addition, when visibility decreases due to fog or the like, an image is not formed from the farthest point, and if an image is not formed, the matching point may not have regularity. At this time, if the iso-depth line in the visibility measurement module 122 does not have a continuity of a predetermined level or more, the minimum value of the iso-depth line is calculated as visual distance information.
이는 안개 등과 같은 시정장애물로 인해 상(image)이 맺히지 않는 경우에는 해당 영역에서 경계선(edge)을 추출할 수 없게 되므로 연속하는 복수의 영상들의 등깊이선들을 중첩하여 분석하는 경우 안개 등에 의한 매칭의 오류를 제거 할 수 있으므로 더욱 정확한 가시거리를 판단할 수 있을 수 있기 때문이다.This is because when the image is not formed due to visibility obstacles such as fog, it is impossible to extract the edges from the corresponding area. This is because the error can be eliminated, so that a more accurate view distance can be determined.
한편, 촬영된 제1 영상(201) 및 제2 영상(202)은 저장부(130)에 저장된다. 디스플레이부(150) 또는 디스플레이 장치(180)는 제어부(120)에서 산출된 가시거리를 영상으로 표시할 수 있으며, 촬영된 제1 영상(201, 201a) 또는 제2 영상(202, 202a)을 표시할 수도 있다.Meanwhile, the captured first image 201 and the second image 202 are stored in the storage 130. The display 150 or the display device 180 may display the visual distance calculated by the controller 120 as an image, and display the captured first image 201 and 201a or the second image 202 and 202a. You may.
안전 표시장치(160)는 제어부(120)에서 산출된 가시거리 정보에 상응하여 미리 설정된 동작을 수행하거나 미리 설정된 정보나 화면을 출력할 수 있다. 안전 표시장치(160)는 도로전광표시장치(VMS), 안개예고표시 장치, 가변속도제한표시 장치, 지향성 스피커 및 안개등과 같은 도로상에 설치되는 안전표시 기능을 제공하는 장치를 포함할 수 있다.The safety display device 160 may perform a preset operation or output preset information or a screen corresponding to the visible distance information calculated by the controller 120. The safety display device 160 may include a device for providing a safety display function installed on a road such as a road electric light display (VMS), a fog display device, a variable speed limit display device, a directional speaker, and a fog lamp.
일례로, 안전 표시장치(160)가 안개등일 때, 가시거리 정보가 일정 거리 이상으로서 안전거리에 해당하는 경우에는 점등되지 않으며, 상기 가시거리 정보가 일정 거리 이하인 경우에는 점등되어 도로 상의 운전자에게 알릴 수 있도록 작동될 수 있다. 또한, 구현에 따라 가시거리를 일정 범위로 구간 설정하여 단계적으로 밝기와 점멸속도 등이 조절되도록 작동시킬 수 있다.For example, when the safety display device 160 is a fog light, when the visible distance information is a predetermined distance or more and does not correspond to the safety distance, it is not lit when the visible distance information is a certain distance or less to notify the driver on the road. Can be operated. In addition, according to the implementation, the visible distance may be set in a predetermined range so that the brightness and the flashing speed may be adjusted in stages.
따라서 도 7에 도시한 바와 같이 디스플레이 장치(180)는 가시거리를 수치로 제공할 수 있으며, 제1 카메라 또는 제2 카메라에서 촬영한 도로의 영상도 함께 제공할 수 있다.Therefore, as illustrated in FIG. 7, the display device 180 may provide a visual distance as a numerical value, and may also provide an image of a road taken by the first camera or the second camera.
이를 위해, 관제서버(170)는 시정 측정 모듈(122)에서 계산한 가시거리 정보가 50m인 경우에는 디스플레이 장치(180)를 통해 가시거리 정보를 표시하고, 도로를 촬영한 영상을 제공함과 동시에 어느 하나 이상의 안전표시 장치(160)를 작동시킬 수 있다.To this end, the control server 170 displays the visible distance information through the display device 180, when the visibility information calculated by the visibility measurement module 122 is 50m, and at the same time provide an image of the road One or more safety indicators 160 may be activated.
이 경우, 저장부(130)는 제1 영상 및 제2 영상을 저장할 수 있으며, 제어부(120)는 통신부(140)를 통해 디스플레이 장치(180) 및 안전표시 장치(160) 등이 동작하도록 상기 장치들의 동작을 제어할 수 있다.In this case, the storage unit 130 may store the first image and the second image, and the control unit 120 may operate the display device 180 and the safety display device 160 through the communication unit 140. Control their behavior.
도 8은 본 발명의 일실시예에 따른 3차원 시정 측정 시스템의 제어 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a control method of a 3D visibility measurement system according to an embodiment of the present invention.
도 8을 참조하면, 본 실시예에 따른 3차원 시정 측정 방법은 전술한 3차원 시정 측정 시스템에 의해 수행되는 일련의 단계들을 포함하는 것으로서, 먼저 제1 카메라의 제1 영상을 획득하고, 제1 카메라와 다른 각도에서 촬영된 제2 카메라의 제2 영상을 획득할 수 있다(S802).Referring to FIG. 8, the three-dimensional visibility measurement method according to the present embodiment includes a series of steps performed by the above-described three-dimensional visibility measurement system. First, a first image of the first camera is acquired, and the first A second image of the second camera photographed at an angle different from that of the camera may be acquired (S802).
여기서, 제1 카메라 및 제2 카메라는 서로 다른 각도에서 교통 모니터링을 위하여 도로 및 거리를 촬영하는 제1 영상 및 제2 영상을 동시에 제공한다. 제1 영상과 제2 영상은 차량 등의 오브젝트(object)가 포함되는 영상일 수 있다.Here, the first camera and the second camera simultaneously provide a first image and a second image photographing a road and a street for monitoring traffic from different angles. The first image and the second image may be images including an object such as a vehicle.
다음, 제1 카메라가 촬영한 제 1 영상과 상기 제2 카메라가 촬영한 제2 영상을 입력으로 취득하고 제1 영상과 제2 영상 내 3차원 좌표를 이용하여 깊이지도(depth map)를 생성한다(S804).Next, a first image photographed by the first camera and a second image photographed by the second camera are acquired as inputs, and a depth map is generated using three-dimensional coordinates in the first image and the second image. (S804).
상기 단계(S804)는 제1 영상과 제2 영상을 각각 보정한 후, 보정된 제1 영상과 제2 영상에서 획득한 3차원 좌표를 이용하여 깊이지도를 생성할 수 있다. 여기서 상기 단계(S804)는 제1 영상과 제2 영상으로부터 결정한 공액점을 통해 입체상을 생성하는 에피폴라 기하(Epipolar Geometry)를 사용하여 깊이지도를 생성하는 과정을 포함한다. 이러한 방법에 의하면 보다 정확한 데이터의 깊이지도를 생성할 수 있다.In operation S804, after correcting the first image and the second image, the depth map may be generated using the 3D coordinates obtained from the corrected first image and the second image. The step S804 may include generating a depth map using Epipolar Geometry for generating a stereoscopic image through the conjugate point determined from the first image and the second image. According to this method, a more accurate depth map of the data can be generated.
다음, 깊이지도로부터 등깊이선을 생성 또는 추출한다(S806).Next, an equal depth line is generated or extracted from the depth map (S806).
다음, 등깊이선의 연결연속성을 검출하여 일정 수준 이상의 연속성을 가지는지를 판단한다(S808). 본 단계(S808)는 제1 카메라가 촬영한 제1 영상과 제 2 카메라가 촬영한 제2 영상의 원본영상으로부터 경계선(edge)를 추출하고, 경계선(edge)과 상기 등깊이선을 중첩하여 분석하는 과정을 포함할 수 있다.Next, it is determined whether the continuity of the equal depth line is detected to have a continuity of a predetermined level or more (S808). This step (S808) extracts an edge from the original image of the first image taken by the first camera and the second image taken by the second camera, and analyzes by overlapping the edge and the iso-depth line. It may include the process of doing.
다음, 등깊이선이 일정 수준 이상의 연속성을 가지면, 연속성을 갖는 등깊이선 중 최대값을 취득하고, 취득한 최대값을 즉, 최소 시차값을 가시거리 정보로 산출한다(S810).Next, if the iso-depth line has a continuity of a predetermined level or more, the maximum value is obtained among the iso-depth lines having continuity, that is, the minimum parallax value is calculated as the visible distance information (S810).
한편, 상기 단계(S808)에서 등깊이선이 일정 수준 이상의 연속성을 가지지 않는 경우, 카메라에 의한 촬영 중심점이 최소거리 측정지점인지를 판단할 수 있다(S812). 그리고, 촬영 중심점이 최소거리 측정지점이면, 등깊이선 중 최소값 또는 최저값을 가시거리 정보로 산출하거나 적용할 수 있다(S814).On the other hand, when the iso depth line does not have a continuity of a predetermined level or more in step S808, it may be determined whether the photographing center point by the camera is the minimum distance measuring point (S812). If the photographing center point is the minimum distance measuring point, the minimum value or the lowest value among the depth lines may be calculated or applied as the visible distance information (S814).
다른 한편으로, 상기 판단 단계(S812)에서 촬영 중심점이 최소거리 측정지점이 아닌 것으로 판단되면, 제어부 또는 제어부의 시정 측정 모듈은 촬영 중심점을 단계적으로 이동시킬 수 있다(S816). 이 경우, 제어부는 촬영 중심점을 미리 설정된 단계별 줌아웃 방식으로 원거리에서 근거리로 촬영 중심점을 최소거리 측정지점이나 이와 인접한 위치로 이동시킬 수 있다. 그런 다음, 촬영 중심점이 미리 설정되는 최소거리 측정지점이나 그 영역에 위치하는 경우, 제1 및 제2 카메라의 영상을 획득하는 단계로 되돌아갈 수 있다.On the other hand, if it is determined in the determination step (S812) that the photographing center point is not the minimum distance measuring point, the control unit or the visibility measurement module of the controller may move the photographing center point step by step (S816). In this case, the controller may move the photographing center point to a minimum distance measuring point or a position adjacent thereto from a distance to a near distance by a preset step-by-step zoom out method. Then, when the photographing center point is located at a predetermined minimum distance measuring point or the area, the process may return to obtaining the images of the first and second cameras.
다음, 위의 단계들(S810 및 S814)에서 선택적으로 산출된 가시거리 정보에 상응하게 안전 표시장치를 작동시킬 수 있다(S818). 본 단계에서 가시거리가 일정 거리 이상인지를 판단하여 가시거리 정보가 일정 거리 이하의 기준값인 경우에는, 안전 표시장치 등을 작동시킬 수 있다.Next, the safety display device may be operated in correspondence with the visual field information selectively calculated in the above steps (S810 and S814) (S818). In this step, it is determined whether the visible distance is greater than or equal to a certain distance, and when the visible distance information is a reference value less than or equal to the predetermined distance, the safety display device or the like can be operated.
또한, 제어부는 디스플레이 장치를 통하여 가시거리를 표시하거나, 제1 영상, 제2 영상, 가시거리 정보 등을 저장부에 저장할 수 있다(S820).In addition, the controller may display the viewing distance through the display device or store the first image, the second image, and the viewing distance information in the storage unit (S820).
본 실시예에 의하면, 제1 영상과 제2 영상에 기초하여 깊이지도(depth map)을 생성하고, 깊이지도에 따른 등깊이선을 형성하고, 등깊이선의 연결연속성을 검토하여, 일정 수준 이상의 연속성에 따라 가시거리 정보를 추출하거나 오브젝트(object)까지의 가시거리 정보를 산출할 수 있다. 산출된 정보는 디스플레이 장치를 통해 운전자에게 가시거리 정보를 제공하는데 이용되거나, 가시거리 정보가 일정 거리 이하인 경우 안전 표시장치 등을 작동하고 디스플레이 장치를 통해 영상을 제공하는 등 각종 안전운전 환경을 제공하는데 이용될 수 있으며, 이러한 구성 및 작용효과에 의해 종래의 시정계보다 경제적이면서 운전자에게 보다 정확한 시정 정보를 제공할 수 있는 효과가 있다.According to the present embodiment, a depth map is generated based on the first image and the second image, an iso-depth line is formed according to the depth map, the connection continuity of the iso-depth line is examined, and continuity of a predetermined level or more is determined. In accordance with the present invention, the visible distance information may be extracted or the visible distance information to an object may be calculated. The calculated information is used to provide visibility information to the driver through the display device, or to provide various safe driving environments such as operating a safety display device and providing an image through the display device when the visible distance information is below a certain distance. It can be used, and by such a configuration and action effect is more economical than the conventional visibility system, there is an effect that can provide more accurate visibility information to the driver.
전술한 3차원 시정 측정 방법은 제어부 특히 시정 측정 모듈의 소프트웨어 모듈 형태의 서브 모듈들로 구현될 수 있다. 여기서, 시정 측정 모듈은 각 단계들(S802 내지 S820)에 대응하여 각 기능을 수행하는 복수의 서브 모듈들을 구비할 수 있으며, 일례로 복수의 서브 모듈들은 획득 모듈(획득 서브모듈에 대응함, 이하 동일), 생성 모듈, 추출 모듈, 제1 판단 모듈, 제2 판단 모듈, 가시거리 산출 모듈, 최적값 적용 모듈, 이동 모듈, 작동 모듈, 표시 모듈, 저장 모듈 등을 포함할 수 있다.The above-described three-dimensional visibility measurement method may be implemented as a submodule in the form of a software module of the controller, in particular, the visibility measurement module. Here, the visibility measurement module may include a plurality of submodules that perform each function in response to steps S802 to S820, and for example, the plurality of submodules may correspond to an acquisition module (corresponding to an acquisition submodule, which is the same below). ), A generation module, an extraction module, a first determination module, a second determination module, a view distance calculation module, an optimum value applying module, a moving module, an operation module, a display module, and a storage module.
전술한 바와 같이 본 발명의 상세한 설명에서는 바람직한 실시예들에 관하여 설명하였지만, 본 발명의 기술분야에서 통상의 지식을 가진 사람이라면 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음은 이해할 수 있을 것이다. 그러므로 본 발명의 기술적 사상은 전술한 실시예에 국한되어 정해져서는 안 되며, 첨부된 청구범위뿐만 아니라 청구범위와 균등한 것들에 의해 정해져야 한다.As described above, in the detailed description of the present invention has been described with respect to preferred embodiments, those skilled in the art without departing from the spirit and scope of the invention described in the claims below It will be appreciated that various modifications and variations can be made in the present invention. Therefore, the technical spirit of the present invention should not be limited to the above-described embodiments, but should be defined by the appended claims and equivalents thereof.

Claims (5)

  1. 제1 영상을 촬영하는 제1 카메라와 상기 제1 카메라와 다른 각도에서 제2 영상을 촬영하는 제2 카메라와 연동하고 상기 제1 카메라가 촬영한 제 1 영상과 상기 제2 카메라가 촬영한 제2 영상의 입력으로부터 가시거리 정보를 산출하는 제어부;A first image photographed by the first camera and a second image photographed by the second camera in conjunction with a first camera photographing the first image and a second camera photographing the second image at a different angle from the first camera; A controller configured to calculate the visible distance information from the input of the image;
    상기 제어부와 연동하여 상기 제1 영상, 상기 제2 영상, 상기 가시거리 정보를 저장하는 저장부; 및A storage unit which stores the first image, the second image, and the visible distance information in association with the controller; And
    상기 제어부, 상기 제1 카메라 및 상기 제2 카메라와 관제서버 간의 네트워크 연동을 지원하는 통신모듈을 포함하고,And a communication module supporting network interworking between the control unit, the first camera, the second camera, and the control server.
    상기 제어부는,The control unit,
    상기 제1 영상과 상기 제2 영상을 이용하여 깊이지도를 생성하는 스테레오 영상 변환 모듈, 및A stereo image conversion module for generating a depth map using the first image and the second image, and
    상기 깊이지도로부터 등깊이선을 생성하고, 상기 등깊이선의 연결연속성을 검출하여 일정 수준 이상의 연속성을 가지는지 판단하는 시정 측정 모듈을 구비하는, 교통 모니터링 카메라를 이용하는 3차원 시정 측정 시스템.And a visibility measurement module for generating an iso-depth line from the depth map, and detecting a connection continuity of the iso-depth line to determine whether there is a continuity of a predetermined level or more.
  2. 제1 항에 있어서,According to claim 1,
    상기 시정 측정 모듈은,The visibility measurement module,
    상기 등깊이선이 일정 수준 이상의 연속성을 가지는 경우, 연속성을 갖는 상기 등깊이선 중 최대값을 취득하고 상기 최대값을 가시거리 정보로 산출하거나,When the iso-depth line has a continuity of a predetermined level or more, the maximum value is obtained among the iso-depth lines having continuity and the maximum value is calculated as visual distance information,
    상기 제1 영상과 상기 제2 영상으로부터 경계선 추출이 없는 경우, 상기 등깊이선을 중첩하여 가시거리의 최저값을 분석하는 교통 모니터링 카메라를 이용하는 3차원 시정 측정 시스템.3D visibility measurement system using a traffic monitoring camera to analyze the lowest value of the visible distance by overlapping the equi-depth line, if there is no boundary extraction from the first image and the second image.
  3. 제1 항에 있어서,According to claim 1,
    상기 스테레오 영상 변환 모듈은 상기 제1 영상, 상기 제2 영상으로부터 결정한 공액점을 통해 입체상을 생성하는 에피폴라기하(Epipolar Geometry)를 사용하여 상기 깊이지도를 생성하는 교통 모니터링 카메라를 이용하는 3차원 시정 측정 시스템.The stereo image conversion module is a three-dimensional visibility measurement using a traffic monitoring camera for generating the depth map using Epipolar Geometry for generating a three-dimensional image through the conjugate point determined from the first image, the second image system.
  4. 제1 항에 있어서,According to claim 1,
    상기 제어부는 상기 제1 영상, 상기 제2 영상, 상기 가시거리 정보 중 어느 하나 이상을 디스플레이 장치로 출력하거나, 상기 가시거리 정보에 상응하여 안전 표시장치를 동작시키거나, 상기 제1 영상, 상기 제2 영상 및 상기 가시거리 정보 또는 이들의 조합을 상기 관제서버에 제공하는, 교통 모니터링 카메라를 이용하는 3차원 시정 측정 시스템.The controller may output one or more of the first image, the second image, and the viewing distance information to a display device, operate a safety display device according to the viewing distance information, or operate the first image and the first image. A three-dimensional visibility measurement system using a traffic monitoring camera that provides two images and the visible distance information or a combination thereof to the control server.
  5. 제1 카메라에서 촬영된 제1 영상과 상기 제1 카메라와 다른 각도에서 촬영된 제2 카메라의 제2 영상을 획득하는 제1 단계;A first step of acquiring a first image photographed by a first camera and a second image photographed by a second camera photographed at an angle different from that of the first camera;
    상기 제 1 영상과 상기 제2 영상에 기초하여 깊이지도(depth map)를 생성하는 제2 단계;Generating a depth map based on the first image and the second image;
    상기 깊이지도로부터 등깊이선을 생성하는 제3 단계;Generating a depth line from the depth map;
    상기 등깊이선의 연결연속성을 검출하여 일정 수준 이상의 연속성을 가지는지 판단하는 제4 단계;A fourth step of determining whether the connection continuity of the equal depth line has a certain level or more of continuity;
    상기 등깊이선이 일정 수준 이상의 연속성을 가지는 경우, 연속성을 갖는 상기 등깊이선 중 최대값을 취득하고, 상기 최대값을 가시거리 정보로 산출하는 제5 단계; 및A fifth step of acquiring a maximum value of the equal depth lines having the continuity and calculating the maximum value as the visible distance information when the iso-depth line has a predetermined level or more of continuity; And
    상기 등깊이선이 일정 수준 이상의 연속성을 가지지 않는 경우, 상기 등깊이선 중 최소값을 가시거리 정보로 산출하는 제6 단계를 포함하는A sixth step of calculating the minimum value of the iso-depth lines as visual distance information when the iso-depth line does not have a continuity of a predetermined level or more.
    교통 모니터링 카메라를 이용하는 3차원 시정 측정 방법.3D visibility measurement method using traffic monitoring camera.
PCT/KR2019/000927 2018-01-31 2019-01-22 Method and system for measuring three-dimensional visibility using traffic monitoring camera WO2019151704A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0012145 2018-01-31
KR1020180012145A KR101893368B1 (en) 2018-01-31 2018-01-31 Method and system for measuring three dimensional visibility combined with traffic monitoring

Publications (1)

Publication Number Publication Date
WO2019151704A1 true WO2019151704A1 (en) 2019-08-08

Family

ID=63598249

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/000927 WO2019151704A1 (en) 2018-01-31 2019-01-22 Method and system for measuring three-dimensional visibility using traffic monitoring camera

Country Status (2)

Country Link
KR (1) KR101893368B1 (en)
WO (1) WO2019151704A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111627056A (en) * 2020-05-14 2020-09-04 清华大学 Depth estimation-based driving visibility determination method and device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11301974B2 (en) * 2019-05-27 2022-04-12 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image capturing apparatus, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012026927A (en) * 2010-07-26 2012-02-09 Astron Inc Kk Weather measuring apparatus
KR20170007098A (en) * 2015-07-08 2017-01-18 고려대학교 산학협력단 Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value
KR101760323B1 (en) * 2010-01-13 2017-07-21 삼성전자주식회사 Method and system for rendering three dimensional views of a scene
KR101783379B1 (en) * 2010-02-02 2017-09-29 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Depth camera compatibility
KR101797035B1 (en) * 2010-02-09 2017-11-13 삼성전자주식회사 Method for converting overlaying area into 3D image and apparatus thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101357600B1 (en) 2007-11-19 2014-02-11 대한민국(기상청장) System for observing wether and thereof method
KR101032160B1 (en) 2009-10-06 2011-05-02 충주대학교 산학협력단 System and method for road visibility measurement using camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101760323B1 (en) * 2010-01-13 2017-07-21 삼성전자주식회사 Method and system for rendering three dimensional views of a scene
KR101783379B1 (en) * 2010-02-02 2017-09-29 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Depth camera compatibility
KR101797035B1 (en) * 2010-02-09 2017-11-13 삼성전자주식회사 Method for converting overlaying area into 3D image and apparatus thereof
JP2012026927A (en) * 2010-07-26 2012-02-09 Astron Inc Kk Weather measuring apparatus
KR20170007098A (en) * 2015-07-08 2017-01-18 고려대학교 산학협력단 Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111627056A (en) * 2020-05-14 2020-09-04 清华大学 Depth estimation-based driving visibility determination method and device
CN111627056B (en) * 2020-05-14 2023-09-01 清华大学 Driving visibility determination method and device based on depth estimation

Also Published As

Publication number Publication date
KR101893368B1 (en) 2018-09-04

Similar Documents

Publication Publication Date Title
KR101343975B1 (en) System for detecting unexpected accident
US20160379066A1 (en) Method and Camera System for Distance Determination of Objects from a Vehicle
KR101496390B1 (en) System for Vehicle Number Detection
KR20040033986A (en) The Artificial Intelligence Image Security System using the distance and direction of Moving Object
JP2011220732A (en) Vehicle surroundings monitoring device
WO2019172500A1 (en) Video analysis visibility meter using artificial intelligence
WO2016072625A1 (en) Vehicle location checking system for a parking lot using imaging technique, and method of controlling same
WO2017183915A2 (en) Image acquisition apparatus and method therefor
WO2019151704A1 (en) Method and system for measuring three-dimensional visibility using traffic monitoring camera
KR101666466B1 (en) Marine risk management system and marine risk management method using marine object distance measuring system with monocular camera
JP2005024463A (en) Stereo wide visual field image processing apparatus
JP2004351977A (en) Vehicle outside image display device
AU2019353165B2 (en) Optics based multi-dimensional target and multiple object detection and tracking method
RU164432U1 (en) DEVICE FOR AUTOMATIC PHOTOVIDEO FIXATION OF VIOLATIONS DO NOT GIVE ADVANTAGES TO THE PEDESTRIAN AT THE UNRESOLVED PEDESTRIAN TRANSITION
JP2008174028A (en) Target detection system and method
WO2013022153A1 (en) Apparatus and method for detecting lane
KR101600820B1 (en) Method for measuring distance of maritime objects using vertical angle of view per pixel of a camera and system for measuring distance of maritime objects using the same
JP3491029B2 (en) Automatic monitoring device
JP3547946B2 (en) Apron monitoring device
JP2005338941A (en) Method and device for detecting visibility
KR102484691B1 (en) Vehicle detection system and vehicle detection method using stereo camera and radar
KR100844640B1 (en) Method for object recognizing and distance measuring
JP3384033B2 (en) How to monitor parking space
CN110726407A (en) Positioning monitoring method and device
US6791617B1 (en) Distance detecting device and a method for distance detection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19747672

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19747672

Country of ref document: EP

Kind code of ref document: A1