KR102111363B1 - Accident monitoring system in tunnel using camera grouping of IoT based - Google Patents

Accident monitoring system in tunnel using camera grouping of IoT based Download PDF

Info

Publication number
KR102111363B1
KR102111363B1 KR1020180104487A KR20180104487A KR102111363B1 KR 102111363 B1 KR102111363 B1 KR 102111363B1 KR 1020180104487 A KR1020180104487 A KR 1020180104487A KR 20180104487 A KR20180104487 A KR 20180104487A KR 102111363 B1 KR102111363 B1 KR 102111363B1
Authority
KR
South Korea
Prior art keywords
vehicle
unit
monitoring area
tunnel
situation
Prior art date
Application number
KR1020180104487A
Other languages
Korean (ko)
Other versions
KR20200026492A (en
Inventor
이경순
Original Assignee
주식회사 월드씨엔에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 월드씨엔에스 filed Critical 주식회사 월드씨엔에스
Priority to KR1020180104487A priority Critical patent/KR102111363B1/en
Publication of KR20200026492A publication Critical patent/KR20200026492A/en
Application granted granted Critical
Publication of KR102111363B1 publication Critical patent/KR102111363B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • G08G1/054Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed photographing overspeeding vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • H04N5/23238
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템에 관한 것으로, 보다 상세하게는 IoT기반으로 통신이 가능한 다수 개의 카메라를 단위감시영역으로 그룹핑하여 파노라마영상을 생성하고, 해당 파노라마영상에 기초하여 차량의 주행속도, 차선변경여부, 화재 및 연기 발생여부 등을 확인함으로써, 전체 대상감시지역에 대하여 유고발생여부를 신속하게 확인할 수 있도록 한 것이다.
특히, 본 발명은 카메라 단에서 단위감시영역별로 생성된 파노라마영상을 분석하여 영상 내의 차량에 대하여 차량ID를 부여하며, 후단에서는 부여된 차량ID만을 이용하여 해당 차량의 주행상태 및 터널내부상황 등을 판별함으로써, 처리되는 데이터량을 최소화하여 실시간 감시가 가능하며, 이를 통해 유고발생여부를 신속하게 확인할 수 있다.
따라서, 차량 추적 분야, 특히 터널 내에서의 차량 추적 및 감시 분야, 차선 위반 차량 감시 분야, 터널 사고 예방 분야는 물론 이와 유사 내지 연관된 분야에서 신뢰성 및 경쟁력을 향상시킬 수 있다.
The present invention relates to a yugo surveillance system in a tunnel using IoT-based camera grouping. More specifically, a plurality of cameras capable of communication based on IoT are grouped into a unit monitoring area to generate a panoramic image, and based on the panoramic image. By checking the driving speed of the vehicle, whether to change lanes, and whether fire or smoke has occurred, it is possible to quickly check whether or not an accident occurs in the entire target monitoring area.
In particular, the present invention analyzes the panoramic image generated for each unit surveillance area at the camera end, and gives the vehicle ID to the vehicle in the image, and uses the assigned vehicle ID only at the rear end to determine the vehicle's driving status and tunnel internal conditions. By discriminating, real-time monitoring is possible by minimizing the amount of data processed, and through this, it is possible to quickly check whether or not an incident has occurred.
Accordingly, it is possible to improve reliability and competitiveness in the vehicle tracking field, in particular, the vehicle tracking and monitoring field in the tunnel, the lane violation vehicle monitoring field, the tunnel accident prevention field, and the like or related fields.

Description

IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템{Accident monitoring system in tunnel using camera grouping of IoT based}Accident monitoring system in tunnel using camera grouping of IoT based}

본 발명은 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템에 관한 것으로서, 보다 상세하게는 IoT기반으로 통신이 가능한 다수 개의 카메라를 단위감시영역으로 그룹핑하여 파노라마영상을 생성하고, 해당 파노라마영상에 기초하여 차량의 주행속도, 차선변경여부, 화재 및 연기 발생여부 등을 확인함으로써, 전체 대상감시지역에 대하여 유고발생여부를 신속하게 확인할 수 있도록 한 것이다.The present invention relates to a yugo surveillance system in a tunnel using IoT-based camera grouping. More specifically, a plurality of cameras capable of communication based on IoT are grouped into a unit monitoring area to generate a panoramic image, and based on the panoramic image. By checking the driving speed of the vehicle, whether to change lanes, and whether fire or smoke has occurred, it is possible to quickly check whether or not an accident occurs in the entire target monitoring area.

특히, 본 발명은 카메라 단에서 단위감시영역별로 생성된 파노라마영상을 분석하여 영상 내의 차량에 대하여 차량ID를 부여하며, 후단에서는 부여된 차량ID만을 이용하여 해당 차량의 주행상태 및 터널내부상황 등을 판별함으로써, 처리되는 데이터량을 최소화하여 실시간 감시가 가능하며, 이를 통해 유고발생여부를 신속하게 확인할 수 있도록 한 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템에 관한 것이다.In particular, the present invention analyzes the panoramic image generated for each unit surveillance area at the camera end, and gives the vehicle ID to the vehicle in the image, and uses the assigned vehicle ID only at the rear end to determine the vehicle's driving status and tunnel internal conditions. By discriminating, it is possible to monitor in real time by minimizing the amount of data to be processed, and through this, it relates to a surveillance system in the tunnel using IoT-based camera grouping to quickly check whether an incident is generated.

일반적으로, 터널은 고속도로 등의 신속한 통행을 위해 산과 같은 장애물을 관통하여 형성한 것으로, 이러한 터널은 차량이 주행거리를 최소화하여 주행시간을 단축할 수 있다는 장점이 있다.In general, tunnels are formed by penetrating obstacles such as mountains for rapid passage on highways, etc. These tunnels have the advantage that vehicles can minimize driving distance and shorten driving time.

그러나, 터널 내부에서 사고가 발생할 경우 신속한 대처가 어렵다는 단점이 있기 때문에, 무엇보다 터널 내의 사고를 예방하는 것이 매우 중요하다.However, it is very important to prevent accidents in the tunnel, among other things, because there is a disadvantage that it is difficult to respond quickly when an accident occurs inside the tunnel.

한편, 터널 내부는 공기의 흐름이 정체되어 있고 이동 또한 제한적이기 때문에, 터널에서 주행하는 차량들은 개방된 평지와 같은 외부에서 주행하는 상황에 비하여 보다 높은 공기저항을 받게 된다.On the other hand, since the flow of air is stagnant inside the tunnel and movement is limited, vehicles driving in the tunnel receive higher air resistance compared to driving in the outside, such as an open ground.

하여, 차선변경 등과 같이 차량의 횡적 움직임이 커지게 되면 스티어링의 조작성이 순간적으로 저하되면서 차량의 안정성이 급격하게 낮아지고 교통사고를 유발하게 되는 문제점이 있다.Accordingly, when the lateral movement of the vehicle becomes large, such as a lane change, there is a problem that the stability of the vehicle is suddenly lowered and a traffic accident is caused while the operability of the steering is instantaneously deteriorated.

또한, 터널 내부에서 사고가 발생한 경우, 차량의 비상정차공간이나 승객들이 대피할 공간이 협소하고 제약이 많기 때문에 2차사고로 이어질 가능성이 크므로, 터널 내의 사고를 예방과 더불어 2차사고를 예방하는 것 또한 매우 중요하다고 할 것이다.In addition, when an accident occurs inside the tunnel, there is a high possibility of leading to a second accident because the emergency stop space of the vehicle or the space for passengers to evacuate is narrow and limited, so preventing the accident in the tunnel and preventing the second accident It will also be very important.

하기의 선행기술문헌인 대한민국 공개특허공보 제10-2009-0076485호 '터널에서의 사고감시 시스템 및 방법'(이하 '선행기술1'이라 한다)은, 터널 내부의 환경에 대하여 영상기반의 기술을 이용하여 화재사고, 차량의 역주행, 갓길주행, 갓길정차 및 낙하물 등을 감지할 수 있도록 한 것이다.The following prior art document, Korean Patent Publication No. 10-2009-0076485, 'A system and method for accident monitoring in tunnels' (hereinafter referred to as 'prior art 1'), is based on image-based technology for the environment inside the tunnel. It is used to detect fire accidents, reverse driving of vehicles, driving on roads, stopping on roads, and falling objects.

그러나, 선행기술1의 경우, 터널 내부에 대하여 영상기반으로 데이터를 처리하므로, 영상처리를 위한 설비 및 프롸그램 개발 등에 상당한 비용이 소모될 뿐만 아니라, 많은 양의 데이터를 처리해야 한다는 부담이 발생할 수 밖에 없다.However, in the case of the prior art 1, since the data is processed based on the image of the inside of the tunnel, not only a significant cost is consumed for the development of facilities and programs for image processing, but also a burden of processing a large amount of data may occur. There is only.

특히, 카메라에 의해 촬영된 영상을 터널 내에서의 사고 발생시 사후처리를 위한 증거자료로 활용하기 위해서는 일정 수준의 고화질 영상을 요구하게 되는 바, 영상의 화질이 높아질수록 데이터처리에 부담이 더욱더 증가함은 당연할 수 밖에 없다.In particular, in order to use the image taken by the camera as evidence for post-processing in the event of an accident in the tunnel, a certain level of high-definition image is required. As the image quality increases, the burden of data processing increases. Is inevitable.

대한민국 공개특허공보 제10-2009-0076485호 '터널에서의 사고감시 시스템 및 방법'Republic of Korea Patent Publication No. 10-2009-0076485 'Train accident monitoring system and method'

상기와 같은 문제점을 해결하기 위해서, 본 발명은 IoT기반으로 통신이 가능한 다수 개의 카메라를 단위감시영역으로 그룹핑하여 파노라마영상을 생성하고, 해당 파노라마영상에 기초하여 차량의 주행속도, 차선변경여부, 화재 및 연기 발생여부 등을 확인함으로써, 전체 대상감시지역에 대하여 유고발생여부를 신속하게 확인할 수 있는 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템을 제공하는데 목적이 있다.In order to solve the above problems, the present invention generates a panoramic image by grouping a plurality of cameras capable of communication based on IoT into a unit monitoring area, and based on the panoramic image, the vehicle's driving speed, lane change, fire And it is an object to provide a surveillance system in the tunnel using IoT-based camera grouping that can quickly determine whether or not there is an incident by checking whether smoke has been generated, etc.

특히, 본 발명은 카메라 단에서 단위감시영역별로 생성된 파노라마영상을 분석하여 영상 내의 차량에 대하여 차량ID를 부여하며, 후단에서는 부여된 차량ID만을 이용하여 해당 차량의 주행상태 및 터널내부상황 등을 판별함으로써, 처리되는 데이터량을 최소화하여 실시간 감시가 가능하며, 이를 통해 유고발생여부를 신속하게 확인할 수 있도록 한 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템을 제공하는데 목적이 있다.In particular, the present invention analyzes the panoramic image generated for each unit surveillance area at the camera end, and gives the vehicle ID to the vehicle in the image, and uses the assigned vehicle ID only at the rear end to determine the vehicle's driving status and tunnel internal conditions. By discriminating, real-time monitoring is possible by minimizing the amount of data processed, and the purpose of this is to provide an in- tunnel monitoring system using IoT-based grouping of cameras so that it can quickly check whether or not an occurrence has occurred.

특히, 본 발명은 터널 내부를 이동하는 차량들 또한 그룹핑하고, 차량그룹 중 어느 하나를 리더차량으로 설정한 후, 리더차량의 이동에 의해 차량그룹에 포함된 전체 차량의 이동을 확인하면서, 차량그룹 내 차량변화를 통해 유고발생 등을 확인함으로써, 처리되는 데이터를 최소화하면서도 충분한 신뢰성을 확보할 수 있는 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템을 제공하는데 목적이 있다.In particular, the present invention also groups vehicles moving inside the tunnel, sets any one of the vehicle groups as a leader vehicle, and confirms the movement of all vehicles included in the vehicle group by moving the leader vehicle, while the vehicle group The purpose of the present invention is to provide a height monitoring system in a tunnel using IoT-based camera grouping that can secure sufficient reliability while minimizing processed data by checking the occurrence of heights through changes in the vehicle.

상기와 같은 목적을 달성하기 위해서, 본 발명에 따른 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템은, 다수의 카메라가 IoT(Internet of Things)기반으로 통신이 가능하도록 구성되며, 대상감시지역을 다수의 단위감시영역으로 구분하고, 각 단위감시영역별로 촬영된 영상을 분석하여, 단위감시영역을 주행하는 차량에 대한 차량식별정보를 포함하는 차량ID를 차선별로 부여하는 차량식별부; 상기 차량식별부에서 각 단위감시영역별로 부여된 차량ID를 비교한 후, 주의상황 및 유고상황 중 적어도 하나의 상황이 발생하면, 해당 차량ID의 차량이 포함된 영상을 상기 차량식별부에 요청 및 취합하여, 해당 차량에 대한 터널상황정보를 생성하는 이벤트확인부; 및 상기 주의상황 및 유고상황 중 적어도 하나의 상황에 대응하는 알림메시지를 생성하고, 터널의 내부디스플레이, 외부디스플레이 및 차량용 네비게이션시스템 중 적어도 하나를 포함하는 외부기기와 연동하여, 상기 터널상황정보 및 알림메시지 중 적어도 하나를 전송하는 외부기기연동부;를 포함한다.In order to achieve the above object, the yugo surveillance system in the tunnel using the IoT-based camera grouping according to the present invention, a plurality of cameras are configured to enable communication based on the Internet of Things (IoT), and the target surveillance area. A vehicle identification unit that divides into a plurality of unit monitoring areas, analyzes images photographed for each unit monitoring area, and assigns vehicle IDs including vehicle identification information to vehicles driving the unit monitoring area for each lane; After comparing the vehicle IDs assigned to each unit monitoring area in the vehicle identification unit, if at least one of the caution situation and the detention situation occurs, the image including the vehicle of the corresponding vehicle ID is requested to the vehicle identification unit and An event confirmation unit that collects and generates tunnel situation information for a corresponding vehicle; And generating an alert message corresponding to at least one of the caution situation and the yugo situation, and interworking with an external device including at least one of a tunnel internal display, an external display, and a vehicle navigation system, to obtain the tunnel situation information and notification. And an external device linkage unit transmitting at least one of the messages.

또한, 상기 차량식별부는, 상기 단위감시영역마다 구성되는 다수의 단위카메라그룹을 포함하며, 상기 단위카메라그룹은, 다른 단위카메라그룹과 IoT기반으로 통신을 수행하면서, 해당 단위감시영역을 촬영한 영상을 분석하여, 주행하는 차량에 대하여 각 단위감시영역별로 차량ID를 부여하며, 상기 이벤트확인부는, 각 단위감시영역별로 부여된 차량ID를 분석하여 차량의 주행패턴을 확인하고 주의상황 및 유고상황 중 적어도 하나의 상황이 발생했는지를 판단할 수 있다.In addition, the vehicle identification unit includes a plurality of unit camera groups that are configured for each unit monitoring area, and the unit camera group, while performing IoT-based communication with other unit camera groups, images taken of the unit monitoring area The vehicle identification is assigned to each unit monitoring area by analyzing the vehicle, and the event confirmation unit analyzes the vehicle ID assigned to each unit monitoring area to check the driving pattern of the vehicle, and is in a caution situation and a detention situation. It can be determined whether at least one situation has occurred.

또한, 상기 이벤트확인부는, 각 단위감시영역별로 부여된 차량ID를 분석하여 차선변경차량 또는 과속차량이 확인되면, 현재 상황을 주의상황으로 판단할 수 있다.In addition, when the lane change vehicle or the overspeed vehicle is identified by analyzing the vehicle ID assigned to each unit monitoring area, the event confirmation unit may determine the current situation as a caution situation.

또한, 상기 차량식별부는, 상기 차량식별정보의 경우, 진입측의 최초 단위카메라그룹에서 생성한 후, 해당 차량의 이동에 대응하여 릴레이방식으로 다음 단위카메라그룹들에 순차적으로 전송하도록 하고, 상기 차선식별정보의 경우, 각 단위카메라그룹에서 독립적으로 확인 및 생성하여 전송된 차량식별정보에 매칭하도록 하며, 상기 이벤트확인부는, 각 단위카메라그룹에서 매칭한 차량식별정보 및 차선식별정보를 확인하고, 차량식별정보에 매칭된 차선식별정보가 변경된 경우, 해당 차량이 차선을 변경한 것으로 확인할 수 있다.In addition, the vehicle identification unit, in the case of the vehicle identification information, is generated in the initial unit camera group of the entry side, and in response to the movement of the vehicle to transmit sequentially to the next unit camera groups in a relay manner, the lane In the case of identification information, each unit camera group independently checks and generates to match the transmitted vehicle identification information, and the event confirmation unit checks the vehicle identification information and the lane identification information matched by each unit camera group, and the vehicle When the lane identification information matching the identification information is changed, it can be confirmed that the corresponding vehicle has changed the lane.

또한, 상기 메인카메라는, 해당 단위감시영역 중 적어도 일부를 촬영하는 촬영모듈; 해당 단위감시영역 중 적어도 다른 일부를 촬영한 영상을 상기 서브카메라로부터 수신하는 IoT통신모듈; 및 상기 촬영모듈에서 촬영된 영상 및 IoT통신모듈로 수신된 영상을 취합하여 해당 단위감시영역에 대한 파노라마영상을 생성하고, 해당 영상에 포함된 차량 및 차선을 추출하며, 추출된 차량에 차선별로 차량ID를 부여하는 영상처리모듈;을 포함할 수 있다.In addition, the main camera, a shooting module for taking at least a portion of the unit monitoring area; An IoT communication module that receives an image of at least another part of the unit monitoring area from the sub-camera; And collecting images captured by the shooting module and images received by the IoT communication module to generate a panoramic image for the unit monitoring area, extracting vehicles and lanes included in the corresponding image, and extracting the vehicle by lane It may include; an image processing module for giving an ID.

또한, 상기 이벤트확인부는, 각 단위감시영역별로 부여된 차량ID를 분석하여 정지차량 또는 저속차량이 확인되면, 해당 정지차량 또는 저속차량의 앞에서 주행하는 차량의 주행속도를 확인하고, 앞의 차량이 정상속도로 주행하면 정지차량 또는 저속차량에 사고가 발생한 것으로 판단하여, 현재 상황을 사고상황으로 판단할 수 있다.In addition, the event confirmation unit analyzes the vehicle ID assigned to each unit monitoring area, and when a stopped vehicle or a low-speed vehicle is identified, checks the driving speed of the vehicle traveling in front of the stopped vehicle or the low-speed vehicle. When driving at normal speed, it is determined that an accident has occurred in a stationary vehicle or a low-speed vehicle, and the current situation can be determined as an accident.

또한, 상기 차량식별부는, 상기 단위감시영역을 이동하는 차량들을 적어도 하나의 차량그룹으로 편성하고, 상기 이벤트확인부는, 각 단위감시영역에서 편성된 차량그룹들을 비교한 후, 차량그룹 내에 편성된 차량 중 적어도 하나에 변화가 발생하면, 해당 차량에 문제가 발생한 것으로 판단할 수 있다.In addition, the vehicle identification unit, organizes the vehicles moving the unit monitoring area into at least one vehicle group, and the event confirmation unit compares the vehicle groups organized in each unit monitoring area, and then configures the vehicles in the vehicle group If at least one of the changes occurs, it may be determined that a problem has occurred in the corresponding vehicle.

또한, 상기 차량식별부는, 상기 차량그룹으로 편성된 차량들 중 어느 하나를 리더차량으로 설정하고, 나머지 차량들을 멤버차량으로 설정한 후, 상기 리더차량에 대하여 차량ID를 부여하며, 상기 이벤트확인부는, 상기 리더차량으로 설정된 차량ID에 기초하여, 각 단위감시영역별로 확인된 해당 차량그룹의 멤버차량을 확인한 후, 상기 멤버차량에 변화가 발생하면, 변화가 발생한 단위감시영역의 영상과, 이전 단위감시영역의 영상을 비교하여 문제가 발생한 차량을 확인할 수 있다.In addition, the vehicle identification unit sets one of the vehicles organized into the vehicle group as a leader vehicle, sets the remaining vehicles as member vehicles, and gives a vehicle ID to the leader vehicle, and the event confirmation unit Based on the vehicle ID set as the leader vehicle, after checking the member vehicle of the corresponding vehicle group identified for each unit monitoring area, if a change occurs in the member vehicle, an image of the unit monitoring area where the change occurred and the previous unit By comparing the video in the surveillance area, it is possible to identify the vehicle with the problem.

또한, 상기 차량식별부는, 상기 리더차량의 경우, 영상인식을 통해 차량의 외형 및 차량번호를 포함하는 차량인식정보를 확인하여 차량ID를 매칭하고, 상기 멤버차량의 경우, 영상인식을 통해 차량의 존재유무만을 확인하여 차량ID에 멤버차량의 대수를 매칭할 수 있다.In addition, in the case of the leader vehicle, the vehicle identification unit checks vehicle identification information including the vehicle shape and vehicle number through image recognition to match the vehicle ID, and in the case of the member vehicle, through the image recognition, It is possible to match the number of member vehicles to the vehicle ID by checking only the presence or absence.

상기와 같은 해결수단에 의해, 본 발명은 IoT기반으로 통신이 가능한 다수 개의 카메라를 단위감시영역으로 그룹핑하여 파노라마영상을 생성하고, 해당 파노라마영상에 기초하여 차량의 주행속도, 차선변경여부, 화재 및 연기 발생여부 등을 확인함으로써, 전단부에 설정된 단위감시영역별 영상처리를 통해 후단에서의 데이터처리에 대한 부담을 최소화할 수 있는 장점이 있다.By the above solution, the present invention generates a panoramic image by grouping a plurality of cameras capable of communication based on IoT into a unit monitoring area, and based on the panoramic image, the vehicle's driving speed, lane change, fire, and By checking whether smoke is generated, there is an advantage of minimizing the burden on data processing at the rear end through image processing for each unit surveillance area set at the front end.

이를 통해, 본 발명은 영상처리에 요구되는 자원을 효율적으로 분산하여 처리하고, 주행중인 차량에 대한 정보를 처리하는 후단에서의 데이터처리를 최소화 함으로써, 전체 대상감시지역에 대하여 유고발생여부를 신속하게 확인할 수 있는 장점이 있다.Through this, the present invention efficiently distributes and processes resources required for image processing, and minimizes data processing at the rear end of processing information about a vehicle in motion, thereby quickly determining whether or not there is an accident for the entire target surveillance area. There is an advantage that can be confirmed.

특히, 본 발명은 카메라 단에서 단위감시영역별로 생성된 파노라마영상을 분석하여 영상 내의 차량에 대하여 차량ID를 부여하며, 후단에서는 부여된 차량ID만을 이용하여 해당 차량의 주행상태 및 터널내부상황 등을 판별함으로써, 처리되는 데이터량을 최소화하는 장점이 있다.In particular, the present invention analyzes the panoramic image generated for each unit surveillance area at the camera end, and gives the vehicle ID to the vehicle in the image, and uses the assigned vehicle ID only at the rear end to determine the vehicle's driving status and tunnel internal conditions. By discriminating, there is an advantage of minimizing the amount of data processed.

이에, 본 발명은 터널 내부를 주행하는 차량들에 대한 실시간 감시가 가능하며, 이를 통해 차선을 변경한 차량을 신속하게 확인할 수 있는 장점이 있다.Accordingly, the present invention has the advantage of real-time monitoring of vehicles driving inside the tunnel, and through this, it is possible to quickly identify a vehicle that has changed lanes.

더불어, 본 발명은 터널 내부를 이동하는 차량들 또한 그룹핑하고, 차량그룹 중 어느 하나를 리더차량으로 설정한 후, 리더차량의 이동에 의해 차량그룹에 포함된 전체 차량의 이동을 확인하면서, 차량그룹 내 차량변화를 통해 유고발생 등을 확인함으로써, 표본화 기법을 통해 처리되는 데이터를 최소화하면서도 충분한 신뢰성을 확보할 수 있는 장점이 있다.In addition, the present invention also groups vehicles moving inside the tunnel, sets one of the vehicle groups as a leader vehicle, and confirms the movement of all vehicles included in the vehicle group by moving the leader vehicle, while the vehicle group By checking the occurrence of height through vehicle changes, there is an advantage of ensuring sufficient reliability while minimizing the data processed through the sampling technique.

따라서, 차량 추적 분야, 특히 터널 내에서의 차량 추적 및 감시 분야, 차선 위반 차량 감시 분야, 터널 사고 예방 분야는 물론 이와 유사 내지 연관된 분야에서 신뢰성 및 경쟁력을 향상시킬 수 있다.Accordingly, it is possible to improve reliability and competitiveness in the vehicle tracking field, in particular, the vehicle tracking and monitoring field in the tunnel, the lane violation vehicle monitoring field, the tunnel accident prevention field, and the like or related fields.

도 1은 본 발명에 의한 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템의 일 실시예를 나타내는 블록도이다.
도 2는 도 1에 나타난 단위카메라그룹의 구체적인 일 실시예를 나타내는 블록도이다.
도 3은 도 2에 나타난 메인카메라의 다른 실시예를 나타내는 블록도이다.
도 4는 도 1에 의해 위반차량을 추적하는 과정을 설명하는 도면이다.
도 5 및 도 6은 카메라를 그룹핑하는 방법에 대한 실시예들을 설명하는 도면이다.
도 7은 도 1에 의해 차량을 그룹핑한 차량그룹에서 이동차량에 대한 추적 방법을 설명하는 도면이다.
1 is a block diagram showing an embodiment of a yugo surveillance system in a tunnel using IoT-based camera grouping according to the present invention.
FIG. 2 is a block diagram showing a specific embodiment of the unit camera group shown in FIG. 1.
FIG. 3 is a block diagram showing another embodiment of the main camera shown in FIG. 2.
FIG. 4 is a diagram illustrating a process of tracking a violated vehicle by FIG. 1.
5 and 6 are diagrams illustrating embodiments of a method for grouping cameras.
FIG. 7 is a view for explaining a tracking method for a moving vehicle in a vehicle grouping grouping vehicles according to FIG. 1.

본 발명에 따른 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템에 대한 예는 다양하게 적용할 수 있으며, 이하에서는 첨부된 도면을 참조하여 가장 바람직한 실시 예에 대해 설명하기로 한다.The example of the yugo surveillance system in the tunnel using IoT-based camera grouping according to the present invention can be applied in various ways, and the most preferred embodiment will be described below with reference to the accompanying drawings.

도 1은 본 발명에 의한 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템의 일 실시예를 나타내는 블록도이다.1 is a block diagram showing an embodiment of a yugo surveillance system in a tunnel using IoT-based camera grouping according to the present invention.

도 1을 참조하면, IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템은 차량식별부(10), 이벤트확인부(20) 및 외부기기연동부(30)를 포함한다.Referring to FIG. 1, a yugo monitoring system in a tunnel using IoT-based camera grouping includes a vehicle identification unit 10, an event identification unit 20, and an external device interlocking unit 30.

차량식별부(10)는 대상감시지역(터널 내부)을 다수의 단위감시영역으로 구분하고, 각 단위감시영역별로 이동하는 차량을 감시하는 것으로, 다수의 카메라가 IoT(Internet of Things)기반으로 통신이 가능하도록 구성된다.The vehicle identification unit 10 divides the target monitoring area (inside the tunnel) into a plurality of unit monitoring areas and monitors a vehicle moving for each unit monitoring area, and multiple cameras communicate based on the Internet of Things (IoT). It is configured to be possible.

이에, 차량식별부(10)는 단위감시영역별로 배치된 카메라들을 그룹핑한 단위카메라그룹(100)으로부터 촬영된 영상을 분석하여 단위감시영역을 주행하는 차량에 대한 차량식별정보 및 해당 차량이 주행하는 차선에 대한 차선식별정보를 확인한다.Accordingly, the vehicle identification unit 10 analyzes an image captured from the unit camera group 100 grouping the cameras arranged for each unit monitoring area, and identifies vehicle information for a vehicle driving the unit monitoring area and the corresponding vehicle is driving. Check the lane identification information for the lane.

그리고, 차량식별부(10)는 확인된 차량식별정보 및 차선식별정보를 포함하는 차량ID를 차선별로 부여한다.Then, the vehicle identification unit 10 assigns vehicle IDs including the identified vehicle identification information and lane identification information to each lane.

보다 구체적으로, 차량식별부(10)는 도 1에 나타난 바와 같이 단위감시영역마다 구성되는 다수의 단위카메라그룹(100)을 포함할 수 있다.More specifically, as illustrated in FIG. 1, the vehicle identification unit 10 may include a plurality of unit camera groups 100 configured for each unit monitoring area.

그리고, 단위카메라그룹(100)은 다른 단위카메라그룹(100)과 IoT기반으로 통신을 수행하면서, 해당 단위감시영역을 촬영한 영상을 분석하여, 주행하는 차량에 대하여 각 단위감시영역별로 차량ID를 부여할 수 있다.Then, the unit camera group 100 performs IoT-based communication with the other unit camera group 100, analyzes an image photographing the unit monitoring area, and displays the vehicle ID for each unit monitoring area for a driving vehicle. Can be given.

더하여, 차량식별부(10)는 해당 차량이 촬영된 영상의 배경에서 설정된 두 지점을 지나는 시간을 확인하여, 해당 차량이 주행속도를 확인할 수 있다.In addition, the vehicle identification unit 10 may check the time when the vehicle passes the two points set in the background of the captured image, so that the vehicle can check the driving speed.

이벤트확인부(20)는 차량식별부(10)에서 각 단위감시영역별로 부여된 차량ID를 비교한 후, 주의상황 및 유고상황 중 적어도 하나의 상황을 판단한다.The event identification unit 20 compares the vehicle ID assigned to each unit monitoring area in the vehicle identification unit 10, and then determines at least one of a caution situation and a detention situation.

먼저, 주의상황에 대해 살펴보기로 한다.First, let's look at the attention situation.

예를 들어, 특정 차량이 터널 내에서 차선을 변경한 경우, 이벤트확인부(20)는 각 단위감시영역별로 부여된 차량ID를 분석하고, 차량ID에 포함된 차선식별정보를 통해 차선을 이탈한 차량을 확인할 수 있다.For example, when a specific vehicle changes lanes in a tunnel, the event confirmation unit 20 analyzes the vehicle ID assigned to each unit monitoring area and leaves the lane through the lane identification information included in the vehicle ID. You can check the vehicle.

보다 구체적으로, 이벤트확인부(20)는 확인된 차선식별정보가 변경된 경우는 동일한 차량이 변경시점의 이전 단위감시영역을 주행한 차선과 다음 단위감시영역을 주행한 차선이 다른 경우, 해당 차량이 차선을 변경한 것으로 판단할 수 있다.More specifically, if the checked lane identification information is changed, the event confirmation unit 20 may change the vehicle from the lane driving the previous unit monitoring area to the next unit monitoring area when the same vehicle is different. It can be judged that the lane has been changed.

이와 같이 위반차량이 발생하게 되면, 이벤트확인부(20)는 해당 상황을 주의상황으로 판단하고, 해당 차량식별정보의 차량이 포함된 영상을 차량식별부(10)에 요청하고 수신된 영상들을 취합한다.When a violation vehicle is generated as described above, the event confirmation unit 20 judges the corresponding situation as a caution situation, requests the image including the vehicle of the corresponding vehicle identification information to the vehicle identification unit 10, and collects the received images do.

이때, 이벤트확인부(20)가 요청하는 영상은, 해당 차량이 차선을 변경한 시점을 전후로 일정한 시간동안에 해당하는 영상을 포함할 수 있다.At this time, the video requested by the event confirmation unit 20 may include a video corresponding to a predetermined time before and after the time when the corresponding vehicle changes the lane.

결과적으로, 이벤트확인부(20)는 식별정보를 통해 위반차량을 확인한 후, 실시간으로 촬영된 영상 전체가 아니라, 사건이 발생한 시점을 기준으로 일정한 시간동안의 영상만을 수신하여, 영상저장부(21)에 저장할 수 있다.As a result, the event confirmation unit 20 confirms the violation vehicle through the identification information, and then receives only the image for a certain period of time based on the time when the event occurred, not the entire image captured in real time, and then stores the image. ).

이후, 이벤트확인부(20)는 해당 차량의 위반사실에 대한 정보를 취합하여 차선위반정보를 생성한 후, 외부망통신부(22)를 통해 해당 차선위반정보를 원격지(중앙관제서버)로 전송할 수 있다.Thereafter, the event confirmation unit 20 collects information about the violation of the vehicle and generates lane violation information, and then transmits the lane violation information to the remote location (central control server) through the external network communication unit 22. have.

따라서, 본 발명의 IoT기반의 카메라 그룹핑을 이용한 연동형 차량 감시 시스템은 영상처리에 요구되는 자원을 최소화하면서도 위반차량에 대한 실시간 감시와 더불어, 위반사실을 증명하기 위한 정확한 정보를 제공할 수 있다.Therefore, the interlocked vehicle monitoring system using the IoT-based camera grouping of the present invention can provide accurate information to prove the violation, along with real-time monitoring of the vehicle in violation while minimizing the resources required for image processing.

이러한 주의상황은 과속차량에 대해서도 동일 내지 유사한 과정을 통해, 과속에 의한 단속을 수행할 수 있다.In such a caution situation, the speeding vehicle may be subjected to the crackdown by speeding through the same or similar process.

다음으로, 유고상황에 대해 살펴보기로 한다.Next, let's look at the Yugo situation.

예를 들어, 특정 차량이 교통사고에 의해 일정 지점에 멈춘 경우, 이벤트확인부(20)는 일정 지점에서 차량의 주행속도가 저속 또는 정지 상태이고, 해당 지점의 앞을 주행하는 차량은 정상적인 속도로 주행하는 경우, 해당 지점에서 사고가 발생한 것으로 판단할 수 있다.For example, when a specific vehicle is stopped at a certain point due to a traffic accident, the event confirmation unit 20 has a vehicle traveling speed at a certain point at a low speed or a stopped state, and a vehicle driving in front of the corresponding point at a normal speed. When driving, it may be determined that an accident has occurred at the corresponding point.

이와 같이 사고차량이 발생하게 되면, 이벤트확인부(20)는 해당 상황을 유고상황으로 판단하고, 해당 차량식별정보의 차량이 포함된 영상을 차량식별부(10)에 요청하고 수신된 영상들을 취합한다.When an accident vehicle is generated as described above, the event confirmation unit 20 judges the situation as a yugo situation, requests an image including the vehicle of the vehicle identification information to the vehicle identification unit 10, and collects the received images do.

그리고, 이벤트확인부(20)는 유고상황에 대한 메시지 및 영상을 생성하여, 외부기기연동부(30)를 통해 외부기기로 전송할 수 있다.In addition, the event confirmation unit 20 may generate a message and a video about the yugo situation, and transmit it to the external device through the external device linkage unit 30.

이때, 외부기기는 터널 내부에 구성된 내부 디스플레이, 터널 입구에 구성된 외부 디스플레이, 해당 지역을 주행하는 차량의 네비게이션 시스템 등을 포함할 수 있다.At this time, the external device may include an internal display configured inside the tunnel, an external display configured at the entrance to the tunnel, a navigation system of a vehicle driving the corresponding area, and the like.

이에, 외부기기연동부(30)는 내부디스플레이 연동모듈(31)을 통해 사고발생상황을 터널 내부에 구성된 디스플레이에 출력하여, 터널 내부에서 주행하는 차량의 운전자에게 알림으로써, 2차 사고를 방지할 수 있다.Accordingly, the external device interlocking unit 30 outputs the accident occurrence status to the display configured in the tunnel through the internal display interlocking module 31, and notifies the driver of the vehicle driving inside the tunnel to prevent the secondary accident. Can be.

또한, 외부기기연동부(30)는 외부디스플레이 연동모듈(32)을 통해 사고발생상황을 터널 입구에 구성된 디스플레이에 출력하여, 터널로 진입하는 차량의 운전자에게 알려줄 수 있다.In addition, the external device interlocking unit 30 may output the accident occurrence status to the display configured at the entrance of the tunnel through the external display interlocking module 32 to inform the driver of the vehicle entering the tunnel.

또한, 외부기기연동부(30)는 차량의 네비게이션 시스템 연동모듈(33)을 통해, 일정 지역(예를 들어, 터널과 연결된 도로)을 주행하는 차량의 네비게이션을 통해 터널의 상황을 알림으로써, 운전자가 우회하거나 주의할 수 있도록 알려줄 수 있다. 여기서, 네비게이션의 경우, 통신망이 부하를 감안하여 영상을 제외하고 메시지만을 전송하여 안내할 수 있음은 물론이다.In addition, the external device interlocking unit 30, through the navigation system interlocking module 33 of the vehicle, by notifying the situation of the tunnel through the navigation of the vehicle driving a certain area (for example, a road connected to the tunnel), the driver Can help you bypass or be cautious. Here, in the case of navigation, it is needless to say that the communication network can guide only by transmitting a message excluding the image in consideration of the load.

또한, 이벤트확인부(20)는 유고상황에 대한 메시지 및 영상을 원격지(중앙관제서버)로 전송하여, 신속한 사후처리가 가능하도록 함은 물론이다.In addition, the event confirmation unit 20 transmits a message and a video about the yugo situation to a remote location (central control server), so that it can be quickly post-processed.

이하에서는, 차량식별부(10)에 의해 차량의 차선변경을 감시하는 방법에 대해 살펴보기로 하며, 이와 같은 과정과 동일 내지 유사한 방법을 통해, 차량의 주행패턴을 확인하고 차량의 과속, 사고 발생 등을 확인할 수 있으며, 파노라마영상 내의 화재 및 연기의 발생여부도 확인할 수 있음은 물론이다.Hereinafter, a method for monitoring a lane change of a vehicle by the vehicle identification unit 10 will be described, and through the same or a similar method to the above process, the vehicle's driving pattern is checked and the vehicle's speeding and accidents occur. Of course, it is possible to check the occurrence of fire and smoke in the panoramic image.

도 2는 도 1에 나타난 단위카메라그룹의 구체적인 일 실시예를 나타내는 블록도이다.FIG. 2 is a block diagram showing a specific embodiment of the unit camera group shown in FIG. 1.

도 2를 참조하면, 단위카메라그룹(100)은 하나의 메인카메라(110)와 적어도 하나의 서브카메라(120)를 포함할 수 있다.Referring to FIG. 2, the unit camera group 100 may include one main camera 110 and at least one sub-camera 120.

메인카메라(110)는 다른 단위카메라그룹 및 이벤트확인부(20) 중 적어도 하나와 통신을 수행하는 것으로, 도 2에 나타난 바와 같이 촬영모듈(111), IoT통신모듈(112) 및 영상처리모듈(113)을 포함할 수 있다.The main camera 110 communicates with at least one of the other unit camera groups and the event confirmation unit 20, as shown in FIG. 2, the shooting module 111, IoT communication module 112, and image processing module ( 113).

촬영모듈(111)은 해당 단위감시영역 중 적어도 일부를 촬영하는 것으로, 3D카메라, 어안렌즈를 이용한 전방향(360°)카메라 등을 포함할 수 있다.The photographing module 111 photographs at least a portion of the unit monitoring area, and may include a 3D camera, an omni-directional (360 °) camera using a fisheye lens, and the like.

IoT통신모듈(112)은 해당 단위감시영역 중 적어도 다른 일부를 촬영한 서브카메라(120)로부터, 해당 단위감시영역의 영상을 수신할 수 있다.The IoT communication module 112 may receive an image of the corresponding unit monitoring area from the sub-camera 120 photographing at least another part of the corresponding unit monitoring area.

영상처리모듈(113)은 촬영모듈(111)에서 촬영된 영상과, IoT통신모듈(112)로 수신된 영상을 취합하여, 해당 단위감시영역에 대한 파노라마영상을 생성할 수 있다.The image processing module 113 may combine the image captured by the imaging module 111 with the image received by the IoT communication module 112 to generate a panoramic image for the unit monitoring area.

이후, 영상처리모듈(113)은 생성된 파노라마영상을 분석하여, 해당 영상에 포함된 차량 및 차선을 추출할 수 있으며, 추출된 차량에 차선별로 차량ID를 부여할 수 있다.Subsequently, the image processing module 113 may analyze the generated panoramic image, extract vehicles and lanes included in the corresponding image, and provide vehicle IDs for each lane to the extracted vehicle.

서브카메라(120)는 메인카메라(110)와 IoT기반으로 통신을 수행하는 것으로, 해당 단위감시영역 중 적어도 다른 일부를 촬영하고, 촬영된 영상을 메인카메라(110)로 전송할 수 있다.The sub-camera 120 communicates with the main camera 110 based on IoT, and may take at least a portion of the unit monitoring area and transmit the captured image to the main camera 110.

이에, 서브카메라(120)는 도 2에 나타난 바와 같이, 해당 단위감시영역 중 적어도 다른 일부를 촬영하는 촬영모듈(121)과, 촬영된 영상을 메인카메라(110)로 전송하는 IoT통신모듈(122)을 포함할 수 있다.Thus, the sub-camera 120, as shown in Figure 2, the shooting module 121 for shooting at least another part of the unit monitoring area, and the IoT communication module 122 for transmitting the captured image to the main camera 110 ).

결과적으로, 메인카메라(110)는 차량인식 등의 영상처리를 위한 영상처리모듈(113)을 개별적으로 탑재하고, 해당 영상처리모듈(113)을 이용하여 서브카메라(120)에서 촬영된 영상과 자신이 촬영한 영상을 취합한 후, 해당 단위감시영역에 대한 파노라마영상을 생성하고, 해당 파노라마영상에 포함된 차량들을 확인하여 차선별로 차량ID를 부여하며, 이벤트확인부(20)에는 파노라마영상이 아니라 부여된 차량ID를 전송할 수 있다.As a result, the main camera 110 is individually equipped with an image processing module 113 for image processing such as vehicle recognition, and the image taken by the sub-camera 120 using the image processing module 113 and itself After collecting the captured images, a panoramic image for the unit monitoring area is generated, vehicles identified in the corresponding panoramic image are identified, and a vehicle ID is assigned to each lane, and the event confirmation unit 20 is not a panoramic image. The assigned vehicle ID can be transmitted.

이에, 이벤트확인부(20)는 수신된 차량ID만을 분석하는 것만으로도, 차량의 주행패턴을 확인하고, 차선변경 등의 위반여부와 교통사고의 발생 등을 정확하게 확인할 수 있다.Accordingly, the event confirmation unit 20 can check the driving pattern of the vehicle and accurately determine whether a lane change or the like and a traffic accident have occurred, by only analyzing the received vehicle ID.

또한, 단위카메라그룹(100)의 메인카메라(110)는 생성된 파노라마영상을 확인하여, 터널 내부의 화재 및 연기의 발생 등을 추가로 확인할 수 있으며, 이러한 경우, 이벤트확인부(20)의 요청이 없더라도 해당 파노라마영상을 이벤트확인부(20)에 바로 전송할 수 있다.In addition, the main camera 110 of the unit camera group 100 may additionally check the generated panoramic image, the occurrence of fire and smoke in the tunnel, etc. In such a case, the request of the event confirmation unit 20 Even without this, the corresponding panoramic image can be directly transmitted to the event confirmation unit 20.

도 3은 도 2에 나타난 메인카메라의 다른 실시예를 나타내는 블록도이다.FIG. 3 is a block diagram showing another embodiment of the main camera shown in FIG. 2.

도 3을 참조하면, 메인카메라(110)는 데이터통신모듈(114) 및 매칭모듈(115)을 더 포함할 수 있다.Referring to FIG. 3, the main camera 110 may further include a data communication module 114 and a matching module 115.

데이터통신모듈(114)은 다른 단위카메라그룹(100)의 메인카메라(110) 또는 이벤트확인부(20)와 통신을 수행할 수 있다.The data communication module 114 may communicate with the main camera 110 or the event confirmation unit 20 of another unit camera group 100.

이때, 다른 단위카메라그룹(100)의 메인카메라(110)와의 통신은 IoT기반으로 수행할 수 있으며, 이러한 경우 다른 단위카메라그룹(100)의 메인카메라(110)와의 통신은 IoT통신모듈(112)을 통해 수행할 수 있다.At this time, communication with the main camera 110 of the other unit camera group 100 may be performed based on the IoT, in which case communication with the main camera 110 of the other unit camera group 100 is the IoT communication module 112 Can be done through

매칭모듈(115)은 앞서 설명된 차량식별정보와 차선식별정보를 매칭하기 위한 것이다.The matching module 115 is for matching the vehicle identification information and the lane identification information described above.

예를 들어, 차량식별정보는 해당 차량이 대상감시지역에 진입한 시점에서 부여될 수 있으며, 해당 차량이 대상감시지역을 이탈하는 과정에서 동일하게 부여될 수 있다.For example, vehicle identification information may be given at the time when the vehicle enters the target monitoring area, and may be equally assigned in the process of the vehicle leaving the target monitoring area.

이에, 대상감시지역의 진입측을 담당하는 단위카메라그룹(100)에서 생성된 차량식별정보는, 이후의 단위카메라그룹(100)으로 연속하여 전송될 수 있다.Accordingly, the vehicle identification information generated by the unit camera group 100 in charge of the entry side of the target surveillance area may be continuously transmitted to the subsequent unit camera group 100.

그리고, 차선식별정보는 단위감시영역마다 별도로 부여할 수 있다.In addition, the lane identification information may be separately provided for each unit monitoring area.

이에, 각 단위카메라그룹(100)의 매칭모듈(115)은 전송되는 차량식별정보와 자체적으로 부여된 차선식별정보를 매칭하여, 해당 단위감시영역에서의 차량ID를 생성할 수 있다.Accordingly, the matching module 115 of each unit camera group 100 may match the transmitted vehicle identification information and the lane identification information provided by itself, and generate a vehicle ID in the corresponding unit monitoring area.

결과적으로, 각 단위감시영역에서의 차량ID를 비교하여 각 단위감시영역에서 해당 차량이 주행한 차선을 비교하면, 해당 차량이 차선을 변경하였는지를 확인할 수 있다. 이하에서, 이를 보다 구체적으로 살펴보기로 한다.As a result, by comparing vehicle IDs in each unit monitoring area and comparing lanes driven by the corresponding vehicle in each unit monitoring area, it can be confirmed whether the corresponding vehicle has changed lanes. Hereinafter, this will be described in more detail.

도 4는 도 1에 의해 위반차량을 추적하는 과정을 설명하는 도면이다.FIG. 4 is a diagram illustrating a process of tracking a violated vehicle by FIG. 1.

도 4를 참조하면, 대상 터널의 내부 전체를 의미하는 대상감시지역(R)은 다수 개의 단위감시영역(r1 내지 r3)으로 분할할 수 있으며, 각 단위감시영역(r1 내지 r3)에 구성된 메인카메라(110) 및 적어도 하나의 서브카메라(120)는 각각 단위카메라그룹(G1 내지 G3)을 형성할 수 있다.Referring to FIG. 4, the target monitoring area R, which means the entire interior of the target tunnel, can be divided into a plurality of unit monitoring areas r1 to r3, and a main camera configured in each unit monitoring area r1 to r3 The 110 and at least one sub-camera 120 may form unit camera groups G1 to G3, respectively.

특정 차량이 해당 터널로 진입하게 되면, 대상감시지역(R) 중 진입측의 최초 단위카메라그룹(G1)에서 차량식별정보(ID_car1)와 차선식별정보를 생성하게 된다.When a specific vehicle enters the corresponding tunnel, vehicle identification information (ID_car1) and lane identification information are generated in the first unit camera group G1 of the entry side of the target surveillance area R.

이후, 차량식별정보(ID_car1)는 해당 차량의 이동에 대응하여 릴레이방식으로 다음 단위카메라그룹(G2, G3)들에 순차적으로 전송될 수 있다.Thereafter, the vehicle identification information ID_car1 may be sequentially transmitted to the next unit camera groups G2 and G3 in a relay manner in response to the movement of the corresponding vehicle.

그리고, 차선식별정보는 각 단위카메라그룹(G2, G3)에서 개별적으로 생성할 수 있다. In addition, the lane identification information may be individually generated in each unit camera group (G2, G3).

예를 들어, 해당 차량이 처음 단위감시영역(r1)에서 1차선으로 주행하고, 다음 단위감시영역(r2)에서도 1차선으로 주행한 후, 마지막 단위감시영역(r3)에서 2차선으로 주행한 경우, 처음 두 개의 단위카메라그룹(G1, G2)은 해당 차량이 1차선에서 주행하였음을 의미하는 차선식별정보(ID_line_01)를 생성할 수 있고, 마지막 단위카메라그룹(G3)은 해당 차량이 2차선에서 주행하였음을 의미하는 차선식별정보(ID_line_02)를 생성할 수 있다.For example, when the vehicle travels in the first lane in the first unit monitoring area r1, in the next unit monitoring area r2 in the first lane, and then in the second unit monitoring area r3 in the second lane , The first two unit camera groups (G1, G2) may generate lane identification information (ID_line_01), which means that the vehicle has traveled in the first lane, and the last unit camera group (G3) is the vehicle in the second lane. Lane identification information (ID_line_02) indicating that the vehicle has been driven may be generated.

이후, 이벤트확인부(20)는 각 단위카메라그룹(G1 내지 G3)에서 매칭한 차량식별정보 및 차선식별정보를 확인하고, 차량식별정보에 매칭된 차선식별정보가 변경된 경우, 해당 차량이 차선을 변경한 것으로 확인할 수 있다.Thereafter, the event confirmation unit 20 checks the vehicle identification information and the lane identification information matched in each unit camera group G1 to G3, and when the lane identification information matching the vehicle identification information is changed, the corresponding vehicle selects the lane. You can confirm that it has changed.

이에, 이벤트확인부(20)는 차선이 변경된 것으로 확인된 단위카메라그룹(G2, G3)으로 해당 차량에 대한 영상을 요청할 수 있다.Accordingly, the event confirmation unit 20 may request an image of the corresponding vehicle to the unit camera groups G2 and G3 which are confirmed to have changed lanes.

도 5 및 도 6은 카메라를 그룹핑하는 방법에 대한 실시예들을 설명하는 도면이다.5 and 6 are diagrams illustrating embodiments of a method for grouping cameras.

도 5를 참조하면, 메인카메라(110) 및 서브카메라(120)는 모두 전방향에 대한 촬영이 가능한 360°카메라를 포함할 수 있으며, 이 경우 메인카메라(110) 및 서브카메라(120)는 중앙선에 대응하는 위치에 구성되어, 상행선 및 하행선에 대한 촬영을 수행할 수 있다.Referring to FIG. 5, both the main camera 110 and the sub-camera 120 may include a 360 ° camera capable of shooting in all directions, in which case the main camera 110 and the sub-camera 120 are center lines It is configured in a position corresponding to, it is possible to perform shooting for the ascending and descending lines.

이때, 서브카메라(120)는 메인카메라(110)를 기준으로 양측방향으로 대칭되는 위치에 구성될 수 있으나 이에 한정하는 것은 아니며, 메인카메라(11)를 기준으로 일측방향으로 배치될 수 있다.At this time, the sub-camera 120 may be configured in a position symmetrically in both directions relative to the main camera 110, but is not limited thereto, and may be arranged in one direction based on the main camera 11.

도 6을 참조하면, 메인카메라(110)는 전방향에 대한 촬영이 가능한 360°카메라로 구성될 수 있고, 서브카메라(120)는 일측방향으로만 촬영하는 카메라를 포함할 수 있다.Referring to FIG. 6, the main camera 110 may be configured as a 360 ° camera capable of shooting in all directions, and the sub-camera 120 may include a camera that shoots only in one direction.

이때, 서브카메라(120)는 메인카메라(110)를 기준으로 양측방향으로 대칭되는 위치에 구성될 수 있으며, 차선별로 각각 설치될 수 있다.At this time, the sub-camera 120 may be configured in a position symmetrically in both directions relative to the main camera 110, it may be installed for each lane.

이외에도 단위카메라그룹(100)을 구성하는 메인카메라(110) 및 서브카메라(120)는 터널의 구조, 터널 내의 주행방식(양방향 또는 단방향), 카메라의 종류 및 당업자의 요구에 따라 다양하게 배치하여 운용할 수 있다.In addition, the main camera 110 and the sub-camera 120 constituting the unit camera group 100 are variously arranged and operated according to the structure of the tunnel, the driving method in the tunnel (bidirectional or unidirectional), the type of camera, and the needs of those skilled in the art. can do.

도 7은 차량을 그룹핑한 차량그룹에서 이동차량에 대한 추적 방법을 설명하는 도면이다.7 is a view for explaining a tracking method for a moving vehicle in a vehicle grouping grouped vehicles.

도 7을 참조하면, 카메라뿐만이 아니라 해당 대상감시지역을 주행하는 차량들에 대해서도 그룹핑을 수행할 수 있으며, 이와 같은 그룹핑에 의한 표본화 방식을 통해 전송 및 처리하는 데이터의 양을 보다 더 최소화하면서도, 위반차량의 확인에 대하여 충분한 정확성을 제공할 수 있다.Referring to FIG. 7, it is possible to perform grouping not only for the camera but also for vehicles driving the target surveillance area, and while minimizing the amount of data transmitted and processed through the sampling method by grouping, the violation Sufficient accuracy can be provided for vehicle identification.

이를 보다 구체적으로 살펴보면, 차량식별부(10)는 단위감시영역을 이동하는 차량들을 적어도 하나의 차량그룹으로 편성할 수 있다. 이때, 차량들을 차량그룹으로 편성하는 방법은 일정한 거리 이내의 간격으로 이동하는 차량들을 하나의 차량그룹으로 편성할 수 있으나, 이에 한정하는 것은 아니며 당업자의 요구에 따라 다양한 방법을 설정할 수 있다.Looking at this in more detail, the vehicle identification unit 10 may organize vehicles moving in the unit monitoring area into at least one vehicle group. At this time, the method of organizing vehicles into a vehicle group may organize vehicles moving at intervals within a certain distance into one vehicle group, but is not limited thereto, and various methods may be set according to the needs of those skilled in the art.

그리고, 이벤트확인부(20)는 각 단위감시영역에서 편성된 차량그룹들을 비교한 후, 차량그룹 내에 편성된 차량 중 적어도 하나(c3)에 변화가 발생하면, 해당 차량이 차선을 이탈한 것으로 판단할 수 있다.Then, the event confirmation unit 20 compares the vehicle groups formed in each unit monitoring area, and when a change occurs in at least one (c3) of the vehicles organized in the vehicle group, it is determined that the vehicle has left the lane can do.

예를 들어, 도 7에 나타난 바와 같이 어느 하나의 단위감시영역(r1)에서, 해당 단위감시영역(r1)을 이동하는 차량(C, c1 내지 c3)이 하나의 차량그룹(g1)으로 편성된 경우, 해당 차량들 중 선두차량을 리더차량(C)으로 설정하고, 나머지 차량들을 멤버차량(c1 내지 c3)으로 설정한 후, 리더차량(C)에 대하여 차량ID를 부여할 수 있다.For example, as shown in FIG. 7, in any one unit monitoring area r1, vehicles C, c1 to c3 moving the corresponding unit monitoring area r1 are organized into one vehicle group g1. In this case, among the corresponding vehicles, the leading vehicle may be set as the leader vehicle C, the remaining vehicles may be set as the member vehicles c1 to c3, and then the vehicle ID may be assigned to the leader vehicle C.

이때, 차량식별부(10)는 멤버차량(c1 내지 c3)에 대해서는 차량ID를 부여하지 않고 차량의 대수만을 리더차량(C)에 매칭할 수 있다.At this time, the vehicle identification unit 10 may match the leader vehicle C only with the number of vehicles without assigning a vehicle ID to the member vehicles c1 to c3.

예를 들어, 차량식별부(10)는 리더차량(C)의 경우, 영상인식을 통해 차량의 외형 및 차량번호를 포함하는 차량인식정보를 확인하여 차량ID를 매칭할 수 있고, 멤버차량(c1 내지 c3)의 경우, 영상인식을 통해 차량의 존재유무만을 확인하여 차량ID에 멤버차량의 대수를 매칭할 수 있다.For example, in the case of the reader vehicle C, the vehicle identification unit 10 may identify vehicle identification information including the vehicle's appearance and vehicle number through image recognition, and match the vehicle ID, and the member vehicle c1 In the case of c3), it is possible to match the number of member vehicles to the vehicle ID by checking only the presence or absence of the vehicle through image recognition.

이후, 리더차량(C)이 해당 단위감시영역(r1)을 통과하게 되면, 다음 단위감시영역(r2)에서 해당 리더차량(C)을 확인하게 된다.Thereafter, when the leader vehicle C passes through the corresponding unit monitoring area r1, the corresponding leader vehicle C is checked in the next unit monitoring area r2.

이때, 다음 단위감시영역(r1)은 이전 단위감시영역(r1)으로부터 리더차량(C)의 외형 및 차량번호를 포함하는 차량인식정보를 전달받을 수 있으며, 이를 통해 담당하는 단위감시영역에서 촬영된 영상에서 리더차량(C)을 확인할 수 있다.At this time, the next unit monitoring area r1 may receive vehicle recognition information including the shape of the leader vehicle C and the vehicle number from the previous unit monitoring area r1, through which the unit monitoring area r1 is photographed. You can see the leader vehicle (C) in the video.

다시 말해, 이벤트확인부(20)는 리더차량(C)으로 설정된 차량ID에 기초하여, 각 단위감시영역별로 확인된 해당 차량그룹의 멤버차량을 확인한 후, 멤버차량에 변화가 발생하면, 변화가 발생한 단위감시영역의 영상과, 이전 단위감시영역의 영상을 비교하여 차선을 이탈한 차량을 확인할 수 있다.In other words, the event confirmation unit 20 checks the member vehicles of the corresponding vehicle group identified for each unit monitoring area based on the vehicle ID set as the leader vehicle C, and if a change occurs in the member vehicle, the change is made. By comparing the generated unit monitoring area image with the previous unit monitoring area image, it is possible to identify a vehicle leaving the lane.

만약, 도 7에 나타난 바와 같이 해당 리더차량(C)에 매칭된 멤버차량의 대수가 줄어들게 되면, 이벤트확인부(20)는 해당 차량그룹(g1)에 포함된 차량 중 어느 하나(c3)가 차선을 변경한 것으로 확인할 수 있다.If the number of member vehicles matched to the corresponding leader vehicle C decreases as shown in FIG. 7, the event confirmation unit 20 lanes any one of the vehicles included in the vehicle group g1 (c3) You can confirm that you have changed.

이때, 다음 단위감시영역(r2)을 담당하는 단위카메라그룹(100)은 촬영된 파노라마영상을 분석하여, 주행중인 차량을 두 개의 차량그룹(g1, g2)으로 편성할 수 있다.At this time, the unit camera group 100 in charge of the next unit monitoring area r2 may analyze the captured panoramic image and organize the driving vehicle into two vehicle groups g1 and g2.

결과적으로, 이벤트확인부(20)는 새로 추가된 차량그룹(g2)에 포함된 차량(c3)이 차선을 이탈한 차량임을 확인할 수 있다.As a result, the event confirmation unit 20 may confirm that the vehicle c3 included in the newly added vehicle group g2 is a vehicle that has left the lane.

앞서 살펴본 바와 같이, 본 발명의 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템은, 차량의 차선변경뿐만 아니라, 차량의 주행패턴에 따른 과속, 저속 및 주정차 차량 등의 확인이 가능하고, 해당 차량이 확인되면 주의 상황 및 유고상황 등과 같은 상황별로 후속처리를 진행할 수 있다.As described above, the yugo monitoring system in the tunnel using the IoT-based camera grouping of the present invention is possible to check not only the lane change of the vehicle, but also speeding, low speed, and parking vehicle according to the driving pattern of the vehicle. If this is confirmed, follow-up processing can be performed for each situation, such as the state of caution and the situation of Yugo.

특히, 이러한 상황을 해당 터널 내에서 주행하는 차량이나 해당 터널로 진입하는 차량 등에 실시간으로 통보함으로써, 2차사고를 방지할 수 있다.In particular, the secondary accident can be prevented by notifying the situation in real time to a vehicle driving in the tunnel or a vehicle entering the tunnel.

이상에서 본 발명에 의한 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템에 대하여 설명하였다. 이러한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.In the above, the yugo surveillance system in a tunnel using IoT-based camera grouping according to the present invention has been described. It will be understood that such a technical configuration of the present invention can be implemented in other specific forms by those skilled in the art to which the present invention pertains without changing the technical spirit or essential features of the present invention.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적인 것이 아닌 것으로서 이해되어야 한다.Therefore, the above-described embodiments are to be understood in all respects as illustrative and not restrictive.

10 : 차량식별부 20 : 이벤트확인부
30 : 외부기기연동부
100 : 단위카메라그룹
110 : 메인카메라 111 : 촬영모듈
112 : IoT통신모듈 113 : 영상처리모듈
114 : 데이터통신모듈 115 : 매칭모듈
120 : 서브카메라
121 : 촬영모듈 122 : IoT통신모듈
10: vehicle identification unit 20: event confirmation unit
30: external device linkage
100: unit camera group
110: main camera 111: shooting module
112: IoT communication module 113: image processing module
114: data communication module 115: matching module
120: sub camera
121: shooting module 122: IoT communication module

Claims (9)

다수의 카메라가 IoT(Internet of Things)기반으로 통신이 가능하도록 구성되며, 대상감시지역을 다수의 단위감시영역으로 구분하고, 각 단위감시영역별로 촬영된 영상을 분석하여, 단위감시영역을 주행하는 차량에 대한 차량식별정보를 포함하는 차량ID를 차선별로 부여하는 차량식별부;
상기 차량식별부에서 각 단위감시영역별로 부여된 차량ID를 비교한 후, 주의상황 및 유고상황 중 적어도 하나의 상황이 발생하면, 해당 차량ID의 차량이 포함된 영상을 상기 차량식별부에 요청 및 취합하여, 해당 차량에 대한 터널상황정보를 생성하는 이벤트확인부; 및
상기 주의상황 및 유고상황 중 적어도 하나의 상황에 대응하는 알림메시지를 생성하고, 터널의 내부디스플레이, 외부디스플레이 및 차량용 네비게이션시스템 중 적어도 하나를 포함하는 외부기기와 연동하여, 상기 터널상황정보 및 알림메시지 중 적어도 하나를 전송하는 외부기기연동부;를 포함하고,
상기 차량식별부는,
상기 단위감시영역마다 구성되는 다수의 단위카메라그룹을 포함하며,
상기 단위카메라그룹은,
다른 단위카메라그룹과 IoT기반으로 통신을 수행하면서, 해당 단위감시영역을 촬영한 영상을 분석하여, 주행하는 차량에 대하여 각 단위감시영역별로 차량ID를 부여하며,
상기 이벤트확인부는,
각 단위감시영역별로 부여된 차량ID를 분석하여 정지차량 또는 저속차량이 확인되면, 해당 정지차량 또는 저속차량의 앞에서 주행하는 차량의 주행속도를 확인하고, 앞의 차량이 정상속도로 주행하면 정지차량 또는 저속차량에 사고가 발생한 것으로 판단하여, 현재 상황을 사고상황으로 판단하는 것을 특징으로 하는 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템.
A plurality of cameras are configured to enable communication based on the Internet of Things (IoT), and the target surveillance area is divided into a plurality of unit monitoring areas, and images captured for each unit monitoring area are analyzed to drive the unit monitoring area. A vehicle identification unit for assigning vehicle IDs including vehicle identification information for vehicles to each lane;
After comparing the vehicle IDs assigned to each unit monitoring area in the vehicle identification unit, and when at least one of the caution situation and the detention situation occurs, the image including the vehicle of the corresponding vehicle ID is requested to the vehicle identification unit and An event confirmation unit that collects and generates tunnel situation information for a corresponding vehicle; And
Create an alert message corresponding to at least one of the caution situation and the yugo situation, and interwork with an external device including at least one of an internal display of a tunnel, an external display, and a vehicle navigation system, to obtain the tunnel situation information and notification message Includes; external device interlocking unit for transmitting at least one of,
The vehicle identification unit,
It includes a plurality of unit camera groups that are configured for each unit monitoring area,
The unit camera group,
While performing IoT-based communication with other unit camera groups, analyzes the image of the unit monitoring area and gives the vehicle ID for each unit monitoring area to the driving vehicle,
The event confirmation unit,
When a stationary vehicle or a low-speed vehicle is identified by analyzing the vehicle ID assigned to each unit monitoring area, check the driving speed of the vehicle driving in front of the vehicle or the low-speed vehicle, and when the vehicle in front runs at a normal speed, the vehicle stops Alternatively, it is determined that an accident has occurred in a low-speed vehicle, and the current situation is determined as an accident situation.
제 1항에 있어서,
상기 이벤트확인부는,
각 단위감시영역별로 부여된 차량ID를 분석하여 차선변경차량 또는 과속차량이 확인되면, 현재 상황을 주의상황으로 판단하는 것을 특징으로 하는 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템.
According to claim 1,
The event confirmation unit,
When the lane change vehicle or the speeding vehicle is identified by analyzing the vehicle ID assigned to each unit monitoring area, the current situation is judged as a caution situation.
다수의 카메라가 IoT(Internet of Things)기반으로 통신이 가능하도록 구성되며, 대상감시지역을 다수의 단위감시영역으로 구분하고, 각 단위감시영역별로 촬영된 영상을 분석하여, 단위감시영역을 주행하는 차량에 대한 차량식별정보를 포함하는 차량ID를 차선별로 부여하는 차량식별부;
상기 차량식별부에서 각 단위감시영역별로 부여된 차량ID를 비교한 후, 주의상황 및 유고상황 중 적어도 하나의 상황이 발생하면, 해당 차량ID의 차량이 포함된 영상을 상기 차량식별부에 요청 및 취합하여, 해당 차량에 대한 터널상황정보를 생성하는 이벤트확인부; 및
상기 주의상황 및 유고상황 중 적어도 하나의 상황에 대응하는 알림메시지를 생성하고, 터널의 내부디스플레이, 외부디스플레이 및 차량용 네비게이션시스템 중 적어도 하나를 포함하는 외부기기와 연동하여, 상기 터널상황정보 및 알림메시지 중 적어도 하나를 전송하는 외부기기연동부;를 포함하고,
상기 차량식별부는,
상기 단위감시영역을 이동하는 차량들을 적어도 하나의 차량그룹으로 편성하고,
상기 이벤트확인부는,
각 단위감시영역에서 편성된 차량그룹들을 비교한 후, 차량그룹 내에 편성된 차량 중 적어도 하나에 변화가 발생하면, 해당 차량에 문제가 발생한 것으로 판단하는 것을 특징으로 하는 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템.
A plurality of cameras are configured to enable communication based on the Internet of Things (IoT), and the target surveillance area is divided into a plurality of unit monitoring areas, and images captured for each unit monitoring area are analyzed to drive the unit monitoring area. A vehicle identification unit for assigning vehicle IDs including vehicle identification information for vehicles to each lane;
After comparing the vehicle IDs assigned to each unit monitoring area in the vehicle identification unit, and when at least one of the caution situation and the detention situation occurs, the image including the vehicle of the corresponding vehicle ID is requested to the vehicle identification unit and An event confirmation unit that collects and generates tunnel situation information for a corresponding vehicle; And
Create an alert message corresponding to at least one of the caution situation and the yugo situation, and interwork with an external device including at least one of an internal display of a tunnel, an external display, and a vehicle navigation system, to obtain the tunnel situation information and notification message Includes; external device interlocking unit for transmitting at least one of,
The vehicle identification unit,
Organize the vehicles moving the unit monitoring area into at least one vehicle group,
The event confirmation unit,
Tunnels using IoT-based camera grouping characterized by determining that a problem has occurred in a corresponding vehicle when a change occurs in at least one of the vehicles organized in the vehicle group after comparing vehicle groups organized in each unit monitoring area. My Yugo surveillance system.
제 3항에 있어서,
상기 차량식별부는,
상기 차량그룹으로 편성된 차량들 중 어느 하나를 리더차량으로 설정하고, 나머지 차량들을 멤버차량으로 설정한 후, 상기 리더차량에 대하여 차량ID를 부여하며,
상기 이벤트확인부는,
상기 리더차량으로 설정된 차량ID에 기초하여, 각 단위감시영역별로 확인된 해당 차량그룹의 멤버차량을 확인한 후, 상기 멤버차량에 변화가 발생하면, 변화가 발생한 단위감시영역의 영상과, 이전 단위감시영역의 영상을 비교하여 문제가 발생한 차량을 확인하는 것을 특징으로 하는 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템.
According to claim 3,
The vehicle identification unit,
Set one of the vehicles organized into the vehicle group as a leader vehicle, set the remaining vehicles as member vehicles, and assign a vehicle ID to the leader vehicle,
The event confirmation unit,
Based on the vehicle ID set as the leader vehicle, after checking the member vehicles of the corresponding vehicle group identified for each unit monitoring area, if a change occurs in the member vehicle, an image of the unit monitoring area where the change occurred, and the previous unit monitoring A yugo surveillance system in a tunnel using IoT-based camera grouping, characterized by comparing the images in the area to identify the vehicle with the problem.
제 4항에 있어서,
상기 차량식별부는,
상기 리더차량의 경우, 영상인식을 통해 차량의 외형 및 차량번호를 포함하는 차량인식정보를 확인하여 차량ID를 매칭하고,
상기 멤버차량의 경우, 영상인식을 통해 차량의 존재유무만을 확인하여 차량ID에 멤버차량의 대수를 매칭하는 것을 특징으로 하는 IoT기반의 카메라 그룹핑을 이용한 터널 내 유고 감시 시스템.
The method of claim 4,
The vehicle identification unit,
In the case of the leader vehicle, vehicle identification is matched by checking the vehicle identification information including the vehicle shape and the vehicle number through image recognition,
In the case of the member vehicle, the presence / absence monitoring system in the tunnel using IoT-based camera grouping is characterized in that only the presence or absence of the vehicle is identified through image recognition to match the number of member vehicles to the vehicle ID.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020180104487A 2018-09-03 2018-09-03 Accident monitoring system in tunnel using camera grouping of IoT based KR102111363B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180104487A KR102111363B1 (en) 2018-09-03 2018-09-03 Accident monitoring system in tunnel using camera grouping of IoT based

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180104487A KR102111363B1 (en) 2018-09-03 2018-09-03 Accident monitoring system in tunnel using camera grouping of IoT based

Publications (2)

Publication Number Publication Date
KR20200026492A KR20200026492A (en) 2020-03-11
KR102111363B1 true KR102111363B1 (en) 2020-05-15

Family

ID=69809688

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180104487A KR102111363B1 (en) 2018-09-03 2018-09-03 Accident monitoring system in tunnel using camera grouping of IoT based

Country Status (1)

Country Link
KR (1) KR102111363B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881321B (en) * 2020-07-27 2021-04-20 东来智慧交通科技(深圳)有限公司 Smart city safety monitoring method based on artificial intelligence
CN113291385B (en) * 2021-05-08 2022-04-01 深圳市虹鹏能源科技有限责任公司 Vehicle-mounted monitoring system and method for tunnel horizontal transport vehicle
KR102371995B1 (en) * 2021-11-02 2022-03-10 주식회사 한일에스티엠 System and method for providing traffic information for each lane using multiple rotating cameras
CN117439897A (en) * 2023-10-31 2024-01-23 广州方驰信息科技有限公司 Big data analysis system and method for digital twin scene

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012099013A (en) * 2010-11-04 2012-05-24 Saxa Inc Passing vehicle monitoring system and vehicle monitoring camera
KR101195248B1 (en) * 2012-07-18 2012-10-29 주식회사 디아이랩 Apparatus and method of regulating traffic regulations
KR101803891B1 (en) 2017-03-17 2017-12-28 주식회사 트라콤 The apparatus and method for smart reporting of traffic information with traffic factor and object tracking
KR101859402B1 (en) 2017-12-14 2018-05-18 주식회사 딥스 The object tracking and lane changing vehicles detection method between linked cameras in tunnel
KR101882888B1 (en) * 2018-05-31 2018-07-30 (주)아이트로닉스 Method for providing panorama image in multi-lane hi-Pass system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090076485A (en) 2008-01-09 2009-07-13 주식회사 토페스 System and method for monitoring accident in a tunnel

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012099013A (en) * 2010-11-04 2012-05-24 Saxa Inc Passing vehicle monitoring system and vehicle monitoring camera
KR101195248B1 (en) * 2012-07-18 2012-10-29 주식회사 디아이랩 Apparatus and method of regulating traffic regulations
KR101803891B1 (en) 2017-03-17 2017-12-28 주식회사 트라콤 The apparatus and method for smart reporting of traffic information with traffic factor and object tracking
KR101859402B1 (en) 2017-12-14 2018-05-18 주식회사 딥스 The object tracking and lane changing vehicles detection method between linked cameras in tunnel
KR101882888B1 (en) * 2018-05-31 2018-07-30 (주)아이트로닉스 Method for providing panorama image in multi-lane hi-Pass system

Also Published As

Publication number Publication date
KR20200026492A (en) 2020-03-11

Similar Documents

Publication Publication Date Title
KR102111363B1 (en) Accident monitoring system in tunnel using camera grouping of IoT based
KR101698026B1 (en) Police enfoforcement system of illegal stopping and parking vehicle by moving vehicle tracking
US6396535B1 (en) Situation awareness system
JP4752836B2 (en) Road environment information notification device and road environment information notification program
KR101745551B1 (en) Apparatus and method for monitoring overspeed-vehicle using CCTV image information
KR101626377B1 (en) A system for detecting car being violated parking and stopping of based on big date using CCTV camera and black box vehicle
KR101710646B1 (en) System for recognizing front and back face of license plate using video tracking
US20210043076A1 (en) Traffic monitoring apparatus, traffic monitoring system, traffic monitoring method, and non-transitory computer readable medium storing program
JP7063379B2 (en) Traffic monitoring equipment, traffic monitoring systems, traffic monitoring methods and programs
JPWO2019189218A1 (en) Traffic monitoring equipment, traffic monitoring systems, traffic monitoring methods and programs
JP2019159458A (en) Traffic signal control device, traffic signal control method, and traffic signal control program
WO2016052837A1 (en) Traffic monitoring system
CN106530738A (en) Real-time traffic information generation and service method in tunnel and system thereof
KR102257428B1 (en) School zone safety integrated support system and devices therefor
KR20200043252A (en) Overlooking image generation system of vehicle and method thereof
KR102418051B1 (en) Lane traffic situation judgement apparatus, system, and method thereof
KR20190097337A (en) Unexpected incident detecting system using vehicle position information based on C-ITS
KR101210615B1 (en) Regulation system of u-turn violation vehicle
EP3828862A1 (en) Apparatus and method for providing risk information by using mobile id group information
KR101394201B1 (en) Traffic violation enforcement system using cctv camera mounted on bus
CN113870551B (en) Road side monitoring system capable of identifying dangerous and non-dangerous driving behaviors
KR101882888B1 (en) Method for providing panorama image in multi-lane hi-Pass system
CN109300313B (en) Illegal behavior detection method, camera and server
JP2009059313A (en) Vehicle monitoring apparatus for toll road automatic toll gate
KR102181032B1 (en) Real time road traffic information providing server and operation method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant