KR102306854B1 - System and method for managing traffic event - Google Patents

System and method for managing traffic event Download PDF

Info

Publication number
KR102306854B1
KR102306854B1 KR1020210052799A KR20210052799A KR102306854B1 KR 102306854 B1 KR102306854 B1 KR 102306854B1 KR 1020210052799 A KR1020210052799 A KR 1020210052799A KR 20210052799 A KR20210052799 A KR 20210052799A KR 102306854 B1 KR102306854 B1 KR 102306854B1
Authority
KR
South Korea
Prior art keywords
information
event
image
movement pattern
traffic
Prior art date
Application number
KR1020210052799A
Other languages
Korean (ko)
Inventor
이재현
이가혜
Original Assignee
주식회사 비츠에스앤지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비츠에스앤지 filed Critical 주식회사 비츠에스앤지
Priority to KR1020210052799A priority Critical patent/KR102306854B1/en
Application granted granted Critical
Publication of KR102306854B1 publication Critical patent/KR102306854B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • H04N5/23296
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

The present invention provides a traffic situation management system and method. Provided is a method for learning various event situations on the road of the vehicle with artificial intelligence, monitoring the traffic situation in real time through CCTV, and providing a zoom-in image to the manager by judging the situation with artificial intelligence when a specific event occurs.

Description

교통상황 관리 시스템 및 방법{System and method for managing traffic event}Traffic situation management system and method {System and method for managing traffic event}

본 발명은 교통상황 관리 시스템 및 방법으로서, 보다 상세하게는 차량 도로 상의 다양한 이벤트 상황을 인공지능으로 학습하고 CCTV를 통해 교통상황을 실시간 모니터링하면서 특정 이벤트 발생시 인공지능으로 해당 상황을 판단하여 줌인(Zoom-In)한 영상을 관리자에게 제공하는 방안에 대한 것이다.The present invention is a traffic situation management system and method, and more specifically, it learns various event situations on the vehicle road with artificial intelligence, monitors the traffic situation in real time through CCTV, and determines the corresponding situation with artificial intelligence when a specific event occurs to zoom in. -In) It is about the method of providing one video to the manager.

최근 정보통신 기술이 발달하고 텔레매틱스 기기의 보급 및 유비쿼터스 환경이 구축됨에 따라 지능형 교통시스템(ITS, Intelligent Transport System)이 적용되고 있다.With the recent development of information and communication technology, the spread of telematics devices and the establishment of a ubiquitous environment, an Intelligent Transport System (ITS) is being applied.

특히, 고속도로나 자동차 전용 도로 등에서는 도로 구간마다 CCTV 등을 설치하고 영상 모니터링 시스템을 통해 도로에서 발생되는 다양한 상황을 감시하여 대처하고 있다.In particular, on highways and automobile-only roads, CCTVs are installed in each road section, and various situations occurring on the road are monitored and dealt with through an image monitoring system.

이러한 영상 모니터링 시스템을 통해 돌발 상황 발생시 해당 도로 구간에 대한 영상 화면을 기초로 원격지의 관리자가 이벤트 발생을 파악하고 그에 따라 후속 조치를 취하고 있으나, 차량 도로로부터 전송되는 수많은 영상 화면을 관리자가 모두 감시하기에는 한계가 있다. Through this video monitoring system, when an unexpected situation occurs, the manager at a remote location detects the occurrence of an event based on the video screen for the relevant road section and takes follow-up measures accordingly. There are limits.

나아가서 이벤트 발생 후 관리자가 영상 화면을 통해 어떤 상황이 발생되었는지를 판단하는데 시간이 걸리는 문제가 있으며, 이로 인해 상황 발생 구간으로 고속 이동 중인 차량들에게 적절한 조치가 취해지지 못하여 큰 교통사고로 이어지는 경우가 빈번하게 발생되고 있다.Furthermore, there is a problem that it takes time for the manager to determine what kind of situation has occurred through the video screen after the event occurs. is occurring frequently.

따라서 차량 도로에서 발생되는 다양한 돌발 상황을 자동적으로 인지하고 이에 대응되는 적절한 후속 조치를 실시간 능동적으로 수행할 수 있는 방안 모색이 필요한 실정이다.Therefore, it is necessary to find a way to automatically recognize various unexpected situations occurring on the vehicle road and actively perform appropriate follow-up measures in real time.

한국 특허등록공보 제10-2061264호Korean Patent Registration No. 10-2061264 한국 특허등록공보 제10-1931298호Korean Patent Registration No. 10-1931298

본 발명은 상술한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 차량 도로에서 발생되는 다양한 이벤트를 인지하여 발생 상황을 자동적으로 파악하고 이에 대한 이벤트 정보와 함께 해당 도로 구간을 정확하게 파악 가능하도록 줌인 영상을 관리자에게 제공하는 방안을 제시하고자 한다.The present invention has been devised in order to solve the problems of the prior art as described above, so that it is possible to recognize various events occurring on the vehicle road, automatically grasp the occurrence situation, and accurately grasp the corresponding road section together with the event information. We would like to suggest a way to provide zoom-in images to administrators.

차량 도로로부터 전송되는 수많은 영상 화면을 관리자가 실시간 집중하여 감시할 수 없는 문제를 해소하고자 한다.It is intended to solve the problem that the administrator cannot monitor the numerous video screens transmitted from the vehicle road in real time by focusing.

특히, 이벤트 발생 후 관리자가 영상 화면을 통해 상황 판단에 시간이 걸림에 따라 해당 상황 발생 구간으로 고속 이동 중인 차량들에게 적절한 조치가 취해지지 못하여 큰 교통사고로 이어지는 문제를 해결하고자 한다.In particular, as it takes time for the manager to determine the situation through the video screen after the event occurs, appropriate measures cannot be taken for vehicles moving at high speed in the section where the situation occurs, thereby solving the problem that leads to a major traffic accident.

본 발명의 목적은 전술한 바에 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있다. The object of the present invention is not limited to the above, and other objects and advantages of the present invention not mentioned can be understood by the following description.

본 발명에 따른 교통상황 관리 방법의 일실시예는, 차량 도로 상황을 카메라를 통해 실시간 촬영하여 모니터링하는 도로 상황 모니터링 단계; 차량 도로 상의 물체 또는 이동패턴을 확인하여 이벤트 발생을 감지하는 이벤트 감지 단계; 해당 이벤트를 분석하여 교통상황을 판단하는 교통상황 판단 단계; 및 상기 이벤트 발생 영역을 줌인(Zoom-in)한 영상을 제공하는 교통상황 정보 제공 단계를 포함할 수 있다.An embodiment of the method for managing traffic conditions according to the present invention includes: a road condition monitoring step of monitoring the vehicle road condition by photographing it in real time through a camera; an event detection step of detecting an event occurrence by checking an object or movement pattern on the vehicle road; a traffic condition determination step of analyzing the corresponding event to determine the traffic condition; and providing traffic condition information providing an image in which the event occurrence area is zoomed-in.

바람직하게는 기계학습을 통해 물체에 대한 오브젝트 정의 정보, 오브젝트 이동패턴 정보 및 상기 오브젝트 정의 정보와 상기 오브젝트 이동패턴 정보에 대응되는 이벤트 상황 정보를 보유하는 인공지능 학습 단계를 더 포함하며, 상기 이벤트 감지 단계는, 차량 도로의 실시간 영상 화면에 존재하는 물체를 감지하고, 상기 오브젝트 정의 정보를 기초로 감지된 상기 물체를 판단하는 물체 판단 단계; 상기 오브젝트 이동패턴 정보를 기초로 상기 물체의 이동패턴을 판단하는 이동패턴 판단 단계; 및 상기 물체 판단 결과와 상기 물체 이동패턴 판단 결과를 기초로 이벤트 발생을 감지하는 이벤트 발생 감지 단계를 포함하며, 상기 교통상황 판단 단계는, 상기 이벤트 상황 정보를 기초로 상기 물체의 판단 결과와 상기 물체의 이동패턴 판단 결과에 대응되는 이벤트 상황을 분석하여 교통상황을 판단하고 이에 대응되는 교통상황 정보를 생성하며, 상기 교통상황 정보 제공 단계는, 상기 영상 화면에서 이벤트 발생 영역을 설정하여 줌인으로 촬영하고, 상기 줌인 영상과 상기 교통상황 정보를 관리자 단말기 또는 운전자 단말기로 제공할 수 있다.Preferably, the method further comprises an artificial intelligence learning step of retaining object definition information about an object, object movement pattern information, and event situation information corresponding to the object definition information and the object movement pattern information through machine learning, wherein the event detection The step may include: an object determination step of detecting an object existing on a real-time image screen of a vehicle road and determining the detected object based on the object definition information; a movement pattern determination step of determining a movement pattern of the object based on the object movement pattern information; and an event generation detection step of detecting occurrence of an event based on the object determination result and the object movement pattern determination result, wherein the traffic condition determination step includes a determination result of the object and the object based on the event condition information By analyzing the event situation corresponding to the movement pattern determination result of , the zoom-in image and the traffic condition information may be provided to a manager terminal or a driver terminal.

나아가서 상기 물체 판단 단계는, 상기 영상 화면에서 특징점과 특징선을 추출하고 특징점과 특징선을 기초로 물체를 감지하고, 감지된 상기 물체의 특징점과 특징선을 상기 오브젝트 정의 정보와 대비하여 물체를 판단하며, 상기 이동패턴 판단 단계는, 상기 영상 화면에서 차선을 기초로 메쉬 포인트를 설정하고 상기 메쉬 포인트를 워핑(warping)하여 워핑 영상을 생성하며, 상기 워핑 영상에서 감지된 상기 물체의 이동패턴을 추출할 수 있다.Further, the object determination step may include extracting a feature point and a feature line from the image screen, detecting an object based on the feature point and the feature line, and comparing the detected feature point and feature line with the object definition information to determine the object and, the moving pattern determination step sets a mesh point based on a lane on the image screen, warps the mesh point to generate a warping image, and extracts the movement pattern of the object sensed from the warping image can do.

일례로서 상기 물체 판단 단계는, 상기 오브젝트 정의 정보를 기초로 감지된 상기 물체에 대한 판단 불가시 미확인 물체로 분류하고, 상기 교통상황 판단 단계는, 상기 미확인 물체와 상기 미확인 물체의 이동패턴에 대한 이벤트 발생 정보를 생성하며, 상기 교통상황 정보 제공 단계는, 상기 영상 화면에서 이벤트 발생 영역을 설정하여 줌인으로 촬영하고, 상기 줌인 영상과 상기 이벤트 발생 정보를 관리자 단말기로 제공하며, 상기 관리자 단말기를 통해 상기 이벤트 발생 정보에 대응되는 신규 이벤트 정보를 입력받아 상기 인공지능 학습 단계를 추가 수행할 수 있다.As an example, the object determination step classifies the object as an unidentified object when determination of the detected object is impossible based on the object definition information, and the traffic condition determination step includes an event for the unidentified object and the movement pattern of the unidentified object Generating the occurrence information, the step of providing the traffic situation information, setting the event occurrence area on the video screen to take a zoom-in, and provide the zoom-in image and the event occurrence information to the manager terminal, through the manager terminal The artificial intelligence learning step may be additionally performed by receiving new event information corresponding to the event occurrence information.

또한 본 발명에 따른 교통상황 관리 시스템의 일실시예는, 차량 도로를 실시간 촬영하여 줌아웃(Zoom-out) 또는 줌인(Zoom-in) 영상을 제공하는 복수의 촬영 장치; 상기 복수의 촬영 장치로부터 차량 도로의 실시간 영상 화면을 제공받아 상기 영상 화면에 존재하는 물체를 감지하고, 기계 학습 정보를 기초로 상기 물체와 이동패턴을 분석하여 이벤트를 판단하고, 이벤트 발생에 따른 이벤트 교통상황 정보와 해당 이벤트 발생 영역의 줌인 영상을 제공하는 교통상황 관리장치; 상기 교통상황 관리장치로부터 교통상황 정보와 줌인 영상을 제공받으며, 미확인 물체와 이의 이동패턴에 대한 신규 이벤트 정보를 관리자로부터 입력받아 상기 교통상황 관리장치로 제공하는 관리자 단말기; 및 차량 도로의 운행 차량에 탑재되거나 운전자가 보유하며, 상기 교통상황 관리장치로부터 교통상황 정보와 해당 이벤트 발생 영역의 줌인 영상을 제공받아 시현하는 운전자 단말기를 포함할 수 있다.In addition, an embodiment of the traffic situation management system according to the present invention, a plurality of photographing devices for providing a zoom-out or zoom-in image by photographing a vehicle road in real time; A real-time video screen of the vehicle road is provided from the plurality of photographing devices to detect an object existing on the video screen, and an event is determined by analyzing the object and movement pattern based on machine learning information, and an event according to the occurrence of an event a traffic condition management device that provides traffic condition information and a zoom-in image of a corresponding event occurrence area; a manager terminal that receives traffic condition information and a zoom-in image from the traffic condition management device, and receives new event information about an unidentified object and its movement pattern from a manager and provides it to the traffic condition management device; and a driver's terminal mounted on a driving vehicle on a vehicle road or possessed by a driver, and receiving and displaying traffic situation information and a zoom-in image of a corresponding event occurrence area from the traffic situation management device.

이와 같은 본 발명에 의하면, 교통상황 관리 장치가 차량 도로에서 발생되는 이벤트 상황을 실시간 감지하고 분석하여 이에 대한 교통상황 정보와 줌인 영상을 관리자에게 제공함으로써, 관리자는 보다 빠르고 정확하게 해당 차량 도로의 상황을 인식할 수 있다.According to the present invention as described above, the traffic situation management device detects and analyzes the event situation occurring on the vehicle road in real time and provides the traffic situation information and zoom-in image thereto to the manager, so that the manager can more quickly and accurately control the situation of the vehicle road can recognize

특히 교통상황 관리 장치를 통해 차량 도로 상에서 이벤트 발생에 따른 교통상황 정보와 이에 대한 줌인 영상을 관리자가 실시간 제공받을 수 있으므로, 관리자는 별도의 판단이나 분석 과정을 거치지 않고 즉각적으로 줌인 영상의 교통상황을 인식하여 후속 조치를 취할 수 있게 된다.In particular, through the traffic condition management device, the manager can receive real-time traffic condition information and zoom-in images according to the occurrence of events on the vehicle road. Recognize it so you can take follow-up action.

또한 해당 이벤트가 발생된 차량 도로를 주행 중인 차량의 운전자 단말기로 이벤트 발생에 따른 교통상황 정보와 이에 대한 줌인 영상을 제공함으로써 차량 운전자는 해당 교통상황을 인지하여 사고 발생을 미연에 방지할 수 있으며, 필요에 따라서는 다른 도로로 우회함으로써 교통체증을 피할 수 있게 된다.In addition, by providing traffic situation information and a zoom-in image of the event to the driver's terminal of the vehicle driving on the vehicle road in which the event occurred, the vehicle driver can recognize the traffic situation and prevent accidents in advance. If necessary, it is possible to avoid traffic jams by diverting to another road.

본 발명의 효과는 위에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the description below.

도 1은 본 발명에 따른 교통상황 관리 시스템의 일실시예를 도시한다.
도 2는 본 발명에 따른 교통상황 관리 장치의 일실시예에 대한 구성도를 도시한다.
도 3은 본 발명에 따른 교통상황 관리 방법의 일실시예에 대한 흐름도를 도시한다.
도 4는 본 발명에 따른 교통상황 관리 방법에서 이벤트 발생을 감지하고 이에 대한 교통상황 정보를 제공하는 일실시예에 대한 흐름도를 도시한다.
도 5는 본 발명에서 차량 도로 상의 물체를 감지하여 이벤트를 판단하는 일실시예를 도시한다.
도 6은 본 발명에서 워핑 영상을 생성하여 물체의 이동패턴을 판단하는 일실시예를 도시한다.
도 7은 본 발명에서 물체의 이동패턴을 추적하여 이벤트가 발생된 영역을 감지하는 일실시예를 도시한다.
도 8은 본 발명에서 이벤트 발생 영역에 대한 줌인 영상에 대한 일실시예를 도시한다.
1 shows an embodiment of a traffic situation management system according to the present invention.
2 is a block diagram of an embodiment of a traffic condition management apparatus according to the present invention.
3 is a flowchart illustrating an embodiment of a method for managing traffic conditions according to the present invention.
4 is a flowchart illustrating an embodiment of detecting the occurrence of an event and providing traffic situation information thereto in the traffic situation management method according to the present invention.
5 shows an embodiment of determining an event by detecting an object on a vehicle road in the present invention.
6 shows an embodiment of determining the movement pattern of an object by generating a warping image in the present invention.
FIG. 7 shows an embodiment of detecting a region in which an event occurs by tracking a movement pattern of an object in the present invention.
8 shows an embodiment of a zoom-in image for an event occurrence area in the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세하게 설명하지만, 본 발명이 실시예들에 의해 한정되거나 제한되는 것은 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the present invention is not limited or limited by the embodiments.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 설명하기 위하여 이하에서는 본 발명의 바람직한 실시예를 예시하고 이를 참조하여 살펴본다.In order to explain the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, preferred embodiments of the present invention are exemplified below and will be described with reference to them.

먼저, 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 또한 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.First, the terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention, and the singular expression may include a plural expression unless the context clearly indicates otherwise. Also in the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other It is to be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

본 발명을 설명함에 있어서, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

본 발명은 차량 도로를 모니터링하여 교통상황을 자동 분석하고 분석 결과에 따른 교통상황 정보를 관리자나 운전자에게 제공한다. 여기서 차량 도로는 고속도로나 자동차 전용도로를 포함하여 이외에도 국도나 도심지 도로 등 필요에 따라 본 발명이 적용될 수 있는 다양한 차량 도로가 포함될 수 있다. The present invention automatically analyzes the traffic situation by monitoring the vehicle road, and provides traffic situation information according to the analysis result to a manager or a driver. Here, the vehicle road may include various vehicle roads to which the present invention can be applied according to necessity, such as a national road or an urban road, in addition to including a highway or an exclusive road for automobiles.

특히 본 발명은 차량 도로 상의 다양한 이벤트 상황을 인공지능으로 학습하고 CCTV를 통해 차량 도로의 교통상황을 실시간 모니터링하면서 특정 이벤트 발생시 인공지능으로 해당 상황을 판단하여 교통상황 정보와 함께 줌인(Zoom-In)한 영상을 관리자에게 제공하는 교통상황 관리 시스템과 이를 이용한 교통상황 관리 방법을 제시한다.In particular, the present invention learns various event conditions on the vehicle road with artificial intelligence, monitors the traffic condition of the vehicle road through CCTV in real time, and determines the situation with artificial intelligence when a specific event occurs to zoom-in with traffic situation information. A traffic situation management system that provides an image to a manager and a traffic situation management method using it are presented.

도 1은 본 발명에 따른 교통상황 관리 시스템의 일실시예를 도시한다.1 shows an embodiment of a traffic situation management system according to the present invention.

본 발명에 따른 교통상황 관리 시스템은, 촬영 장치(100), 교통상황 관리 장치(200), 관리자 단말기(300)를 포함할 수 있으며, 통신 네트워크 구축 상황에 따라 운전자 단말기(340)를 더 포함할 있다.The traffic situation management system according to the present invention may include a photographing device 100 , a traffic situation management device 200 , and a manager terminal 300 , and may further include a driver terminal 340 according to a communication network construction situation. have.

촬영 장치(100)는 차량 도로를 따라 설치되는 복수개의 카메라(110a, 110b, 110c)를 포함하며 차량 도로를 촬영하고 실시간 촬영 영상을 교통상황 관리 장치(200)로 제공한다. The photographing apparatus 100 includes a plurality of cameras 110a, 110b, and 110c installed along the vehicle road, photographing the vehicle road, and providing a real-time photographed image to the traffic condition management apparatus 200 .

차량 도로에 설치되는 카메라(110a, 110b, 110c)는 필요에 따라 설치되는 간격과 개수가 다양하게 변경될 수 있다. 가령 교통체증이 심각하게 발생되는 구간이나 교통사고가 빈번하게 발생되는 구간에는 다수의 카메라가 상대적으로 근접된 거리마다 설치될 수 있고 또는 도로가 합쳐지는 병목 구간이나 교차로 등에는 여러 방향의 차량 도로를 촬영할 수 있도록 다수의 카메라가 설치될 수도 있다.The number and spacing of the cameras 110a, 110b, and 110c installed on the vehicle road may be variously changed as needed. For example, multiple cameras can be installed at relatively close distances in sections where traffic jams are severe or where traffic accidents occur frequently. A plurality of cameras may be installed to take pictures.

나아가서 촬영 장치(100)의 카메라는 야간 시간대에도 차량 도로에 대한 촬영이 가능하도록 적외선 카메라를 포함할 수도 있다.Furthermore, the camera of the photographing apparatus 100 may include an infrared camera to enable photographing of the vehicle road even at night time.

다수의 차량 도로마다 설치된 카메라(110a, 110b, 110c)의 실시간 촬영 영상은 원격지에 위치한 교통상황 관리 장치(200)로 전송되는데, 이를 위해 촬영 장치(100)는 촬영 영상의 전송을 위해 유선 또는 무선의 통신 수단이 구비될 수 있다.The real-time captured images of the cameras 110a, 110b, and 110c installed for a plurality of vehicle roads are transmitted to the traffic condition management device 200 located at a remote location. of communication means may be provided.

교통상황 관리 장치(200)는 다수의 차량 도로에 설치된 촬영 장치(100)로부터 실시간 차량 도로를 촬영한 영상을 제공받는다.The traffic condition management apparatus 200 receives images of real-time vehicle roads from the photographing apparatus 100 installed on a plurality of vehicle roads.

교통상황 관리 장치(200)는 복수의 촬영 장치(100)로부터 차량 도로의 실시간 영상 화면을 제공받아 영상 화면에 존재하는 물체를 감지하고, 인공지능의 기계 학습 정보를 기초로 감지된 물체와 물체의 이동패턴을 분석하여 이벤트를 판단한다. 그리고 교통상황 관리 장치(200)는 이벤트 발생시 이에 따른 이벤트 교통상황 정보와 해당 이벤트 발생 영역의 줌인 영상을 관리자 단말기(300)로 제공한다. The traffic situation management device 200 receives a real-time image screen of the vehicle road from a plurality of photographing devices 100 and detects an object existing in the image screen, and the detected object and the object based on machine learning information of artificial intelligence The event is determined by analyzing the movement pattern. In addition, when an event occurs, the traffic condition management apparatus 200 provides event traffic condition information and a zoom-in image of the corresponding event occurrence area to the manager terminal 300 .

특히 교통상황 관리 장치(200)는 차량 도로 상에서 이벤트 발생시 이에 대응되는 촬영 장치(100)를 제어하여 이벤트 발생 영역을 줌인(Zoom-In)으로 촬영한 영상을 획득하고 줌인 영상을 관리자 단말기(300)로 제공함으로써 관리자가 보다 정확한 차량 도로 상황을 판단할 수 있도록 지원한다.In particular, the traffic condition management device 200 controls the photographing device 100 corresponding to the occurrence of an event on the vehicle road to obtain an image captured by zoom-in in the event occurrence area, and displays the zoomed-in image to the manager terminal 300 . By providing this, it supports the manager to judge the vehicle road condition more accurately.

아울러 교통상황 관리 장치(200)는 인공지능으로 판단이 불가한 이벤트 상황에 대해서 해당 이벤트 발생 정보를 관리자 단말기(300)로 제공하고 관리자가 분석한 신규 이벤트 정보를 관리자 단말기(300)로부터 제공받아 신규 이벤트 정보에 대한 인공지능의 기계학습이 추가적으로 이루어질 수 있도록 구성될 수도 있다.In addition, the traffic condition management device 200 provides the corresponding event occurrence information to the manager terminal 300 for an event situation that cannot be determined by artificial intelligence, and receives new event information analyzed by the manager from the manager terminal 300 to receive new It may be configured so that machine learning of artificial intelligence for event information can be additionally performed.

관리자 단말기(300)는 교통상황 관리 장치(200)로부터 특정 차량 도로 상에서 발생된 이벤트에 대한 교통상황 정보와 이에 대응되는 줌인 영상을 제공받는다. 교통상황 관리 장치(200)로부터 제공된 교통상황 정보와 줌인 영상을 기초로 관리자는 보다 빠르고 정확하게 해당 차량 도로의 상황을 인식할 수 있으며, 이에 따라 신속한 후속 조치가 가능하게 된다.The manager terminal 300 receives traffic condition information for an event occurring on a specific vehicle road and a zoom-in image corresponding thereto from the traffic condition management device 200 . Based on the traffic situation information and the zoom-in image provided from the traffic situation management device 200, the manager can more quickly and accurately recognize the situation of the corresponding vehicle road, thereby enabling quick follow-up actions.

나아가서 차량 도로를 주행 중인 차량(400)의 운전자 단말기(450)는 교통상황 관리 장치(200)로부터 주행 중인 차량 도로에서 발생된 다양한 교통상황 정보를 제공받을 수 있다. 여기서 운전자 단말기(450)는 차량(400)에 고정 배치된 네비게이션 등의 차량 단말기이거나 운전자가 보유한 스마트폰 등의 휴대 단말기일 수 있으며, 교통상황 관리 장치(200)는 다양한 무선 통신 방식을 통해 운전자 단말기(450)로 데이터를 전송할 수 있다.Furthermore, the driver terminal 450 of the vehicle 400 traveling on the vehicle road may receive various traffic condition information generated on the vehicle road being driven from the traffic condition management device 200 . Here, the driver terminal 450 may be a vehicle terminal such as a navigation device fixedly disposed on the vehicle 400 or a mobile terminal such as a smartphone owned by the driver, and the traffic condition management device 200 may be configured to operate a driver terminal through various wireless communication methods. Data may be sent to 450 .

운전자는 차량(400)의 운행 중 전방 도로 상황에 대한 교통상황 정보와 줌인 영상을 제공받음으로써 전방 차량 도로 또는 인근 차량 도로의 상황을 인지할 수 있으므로 사고 발생이나 교통 체증에 따른 운행 지체를 사전에 방지할 수 있게 된다.The driver can recognize the situation of the road ahead or the road of a nearby vehicle by receiving the traffic situation information and zoom-in image on the road condition ahead while the vehicle 400 is running, so that the driver can prevent accidents or delays due to traffic jams in advance. can be prevented.

도 2는 본 발명에 따른 교통상황 관리 장치의 일실시예에 대한 구성도를 도시한다.2 is a block diagram of an embodiment of a traffic condition management apparatus according to the present invention.

교통상황 관리 장치(200)는, 촬영 장치 제어부(210), 영상 분석부(220), 이벤트 판단부(230), 인공지능 학습부(240), 교통정보 제공부(250) 등을 포함할 수 있다.The traffic condition management device 200 may include a photographing device control unit 210 , an image analysis unit 220 , an event determination unit 230 , an artificial intelligence learning unit 240 , a traffic information providing unit 250 , and the like. have.

촬영 장치 제어부(210)는 다수의 차량 도로에 분산 배치된 촬영 장치(100)의 동작을 제어하면서 촬영 장치(100)로부터 차량 도로에 대한 실시간 촬영 영상을 제공받는다.The photographing device control unit 210 receives a real-time photographed image of the vehicle road from the photographing device 100 while controlling the operation of the photographing apparatuses 100 distributed on a plurality of vehicle roads.

특히 촬영 장치 제어부(210)는 다수의 촬영 장치(100)에 대하여 촬영 방향, 촬영 각도 등을 제어하면서 상황에 따라 줌아웃(Zoom-out) 영상 또는 줌인(Zoom-in) 영상을 선택적으로 제공받을 수 있도록 제어할 수 있다.In particular, the photographing device control unit 210 may selectively receive a zoom-out image or a zoom-in image depending on the situation while controlling the photographing direction, the photographing angle, etc. with respect to the plurality of photographing apparatuses 100 . can be controlled so that

영상 분석부(220)는 촬영 장치 제어부(210)에서 획득하는 실시간 촬영 영상을 가공하고 분석하여 차량 도로 상에 존재하는 물체를 파악하고 해당 물체의 이동패턴을 파악한다.The image analysis unit 220 processes and analyzes the real-time captured image obtained from the photographing device control unit 210 to identify an object existing on a vehicle road and determine a movement pattern of the object.

일례로서, 영상 분석부(220)는 영상 화면에서 특징점과 특징선을 추출하여 특징점과 특징선을 기초로 차량 도로 상에 존재하는 물체를 감지할 수 있다. 또한 영상 분석부(220)는 실시간 연속적인 영상을 기초로 감지된 물체의 이동패턴을 파악할 수 있다.As an example, the image analyzer 220 may extract a feature point and a feature line from the image screen and detect an object existing on the vehicle road based on the feature point and the feature line. In addition, the image analysis unit 220 may determine the movement pattern of the detected object based on the real-time continuous image.

일례로서, 영상 분석부(220)는 영상 화면에서 차선을 기초로 메쉬 포인트를 설정하고 메쉬 포인트를 워핑(warping)하여 워핑 영상을 생성한다. 그리고 생성된 워핑 영상에서 감지된 물체의 이동패턴을 추출할 수 있다.As an example, the image analyzer 220 generates a warping image by setting a mesh point based on a lane on the image screen and warping the mesh point. And it is possible to extract the movement pattern of the detected object from the generated warping image.

이벤트 판단부(230)는 영상 분석부(220)에서 파악한 물체에 대하여 차량 도로 상에 존재하는 것이 적합한 물체인지 또는 영상 분석부(220)에서 파악한 물체의 이동패턴에 대하여 차량 도로의 주행 방향에 적합한 이동패턴인지를 판단한다.The event determination unit 230 determines whether the object detected by the image analysis unit 220 is suitable to exist on the vehicle road or is suitable for the moving direction of the vehicle road with respect to the movement pattern of the object identified by the image analysis unit 220 . Determine whether it is a movement pattern.

이벤트 판단부(230)는 인공지능을 통해 물체 판단과 이동패턴 판단이 이루어질 수 있는데, 이를 위해 이벤트 판단부(230)는 인공지능의 구성을 보유할 수 있다. 필요에 따라서는 이벤트 판단부(230)는 외부의 인공지능 시스템을 이용할 수도 있다.The event determination unit 230 may determine an object and a movement pattern through artificial intelligence. To this end, the event determination unit 230 may have an artificial intelligence configuration. If necessary, the event determination unit 230 may use an external artificial intelligence system.

이벤트 판단부(230)는 인공지능의 기계학습을 통한 오브젝트 정의 정보와 감지된 물체를 대비하여 해당 물체가 어떤 물체인지 판단할 수 있으며, 아울러 인공지능의 기계학습을 통한 오브젝트 이동패턴 정보와 해당 물체의 이동패턴을 대비하여 해당 물체가 차량 도로 상에서 적절하게 이동 중인지를 판단할 수도 있다. 또한 이벤트 판단부(230)는 인공지능을 통해 오브젝트 정의 정보와 오브젝트 이동패턴 정보에 대응되는 이벤트 상황 정보를 기초로 해당 이벤트가 어떤 상황인지를 판단할 수 있다. The event determination unit 230 may determine what kind of object the corresponding object is by comparing the object definition information and the detected object through machine learning of artificial intelligence, and also object movement pattern information and the corresponding object through machine learning of artificial intelligence. It can also be determined whether the object is properly moving on the vehicle road in preparation for the movement pattern of In addition, the event determination unit 230 may determine what kind of situation the corresponding event is based on the object definition information and the event situation information corresponding to the object movement pattern information through artificial intelligence.

이벤트 판단부(230)는 인공지능의 판단 결과에 따른 교통상황 정보를 생성하며, 아울러 촬영 장치 제어부(210)와 연동하여 해당 교통상황 정보에 대응되는 차량 도로 영역의 줌인 영상을 획득할 수 있다.The event determination unit 230 may generate traffic condition information according to the determination result of the artificial intelligence, and may also obtain a zoom-in image of a vehicle road area corresponding to the corresponding traffic condition information by interworking with the photographing device control unit 210 .

인공지능 학습부(240)는 기계학습을 통해 차량 도로 상의 물체에 대한 오브젝트 정의 정보, 해당 물체의 이동패턴에 대한 오브젝트 이동패턴 정보 및 상기 오브젝트 정의 정보와 상기 오브젝트 이동패턴 정보에 대응되는 이벤트 상황 정보를 보유한다.The artificial intelligence learning unit 240 provides object definition information for an object on a vehicle road through machine learning, object movement pattern information for a movement pattern of the object, and event situation information corresponding to the object definition information and the object movement pattern information. hold the

이를 위해 인공지능 학습부(240)에는 전제 학습을 위한 학습 데이터가 제공되며, 학습 데이터를 기초로 지도 학습(Supervised learning)을 통해 영상 화면에서 물체에 대한 오브젝트 정의를 학습하거나 물체의 이동패턴에 대한 오브젝트 이동패턴을 학습할 수 있고, 나아가서 비지도 학습(Unsupervised learning)를 통한 군집화를 통해 오브젝트 정의를 수립하거나 오브젝트 이동패턴을 수립할 수 있다. 나아가서 인공지능 학습부(240)는 오브젝트 정의 정보와 오브젝트 이동패턴 정보에 대응되는 해당 교통상황에 대한 이벤트 상황 정보를 학습할 수 있다.To this end, the artificial intelligence learning unit 240 is provided with learning data for premise learning, and based on the learning data, it learns the object definition for the object on the video screen through supervised learning or the movement pattern of the object. An object movement pattern may be learned, and further, an object definition may be established or an object movement pattern may be established through clustering through unsupervised learning. Furthermore, the artificial intelligence learning unit 240 may learn event situation information for a corresponding traffic situation corresponding to the object definition information and the object movement pattern information.

또한 이벤트 판단부(230)를 통한 물체 판단이 불가한 미확인 물체가 존재하는 경우, 이에 대한 이벤트 발생 정보를 관리자 단말기(300)에 제공하고, 이에 대응되는 신규 이벤트 정보를 관리자 단말기(300)로부터 제공받아 신규 이벤트 정보를 기초로 지속적인 기계학습이 이루어질 수 있다. In addition, when there is an unidentified object that cannot be determined through the event determination unit 230 , event occurrence information is provided to the manager terminal 300 , and new event information corresponding thereto is provided from the manager terminal 300 . Continuous machine learning can be made based on new event information.

교통정보 제공부(250)는 교통상황 정보와 이에 대응되는 줌인 영상을 관리자 단말기(300)로 제공한다. 이를 위해 교통 정보 제공부(250)는 관리자 단말기(300)와 다양한 유선 또는 무선 통신 방식으로 데이터 통신을 지원한다.The traffic information providing unit 250 provides traffic situation information and a zoom-in image corresponding thereto to the manager terminal 300 . To this end, the traffic information providing unit 250 supports data communication with the manager terminal 300 in various wired or wireless communication methods.

또한 교통정보 제공부(250)는 해당 교통상황 정보가 발생된 차량 도로를 주행 중인 차량의 운전자 단말기(450)로 교통상황 정보와 이에 대응되는 줌인 영상을 제공할 수도 있다. 이를 위해 교통정보 제공부(250)는 운전자 단말기(450)와 다양한 무선 통신 방식으로 데이터 통신을 지원한다.In addition, the traffic information providing unit 250 may provide the traffic situation information and a zoom-in image corresponding thereto to the driver terminal 450 of the vehicle driving on the vehicle road on which the corresponding traffic situation information is generated. To this end, the traffic information providing unit 250 supports data communication with the driver terminal 450 through various wireless communication methods.

본 발명에서는 상기에서 살펴본 교통상황 관리 시스템을 이용한 교통상황 관리 방법을 제시하는데, 본 발명에 따른 교통상황 관리 방법은 앞서 살펴본 본 발명에 따른 교통상황 관리 시스템을 이용하므로 이하에서는 본 발명에 따른 교통상황 관리 시스템을 함께 참조하여 교통상황 관리 방법에 대하여 살펴보기로 한다.The present invention proposes a traffic situation management method using the traffic situation management system as described above. Since the traffic situation management method according to the present invention uses the traffic situation management system according to the present invention as described above, hereinafter, a traffic situation according to the present invention is provided. Let's take a look at the traffic situation management method by referring to the management system together.

도 3은 본 발명에 따른 교통상황 관리 방법의 일실시예에 대한 흐름도를 도시한다.3 is a flowchart illustrating an embodiment of a method for managing traffic conditions according to the present invention.

본 발명은 교통상황 관리 장치(200)가 차량 도로 상에 설치된 촬영 장치(100)를 통해 실시간 차량 도로의 영상을 획득하고 이를 기초로 차량 도로 상에서 발생하는 다양한 이벤트 상황을 인공지능을 통해 판단하여 교통상황 정보와 영상을 제공하는 것으로서, 이를 위해 인공지능의 기계학습(S100)이 선행된다.According to the present invention, the traffic situation management device 200 acquires an image of the vehicle road in real time through the photographing device 100 installed on the vehicle road, and based on this, determines various event situations occurring on the vehicle road through artificial intelligence, As to provide situational information and images, for this purpose, machine learning of artificial intelligence (S100) is preceded.

인공지능의 기계학습은, 사전에 준비된 학습 데이터를 기초로 지도 학습(Supervised learning)을 통해 영상 화면에서 물체에 대한 오브젝트 정의를 학습하거나 물체의 이동패턴에 대한 오브젝트 이동패턴을 학습할 수 있고, 나아가서 비지도 학습(Unsupervised learning)를 통한 군집화를 통해 오브젝트 정의를 수립하거나 오브젝트 이동패턴을 수립할 수도 있다. 또한 오브젝트 정의 정보와 오브젝트 이동패턴 정보에 대응되는 해당 교통상황에 대한 이벤트 상황 정보를 학습할 수 있다.Machine learning of artificial intelligence can learn object definition for an object on a video screen or learn an object movement pattern for an object movement pattern through supervised learning based on pre-prepared learning data, and furthermore Object definitions or object movement patterns may be established through clustering through unsupervised learning. In addition, it is possible to learn event situation information about the corresponding traffic situation corresponding to the object definition information and the object movement pattern information.

이러한 인공지능의 기계학습을 통해 차량 도로 상의 물체에 대한 오브젝트 정의 정보, 오브젝트 이동패턴 정보 및 상기 오브젝트 정의 정보와 상기 오브젝트 이동패턴 정보에 대응되는 이벤트 상황 정보를 보유하게 된다.Through this machine learning of artificial intelligence, object definition information about an object on a vehicle road, object movement pattern information, and event situation information corresponding to the object definition information and the object movement pattern information are retained.

인공지능의 학습이 이루어진 상태에서, 교통상황 관리 장치(200)는 촬영 장치(100)로부터 차량 도로에 대한 실시간 촬영 영상을 제공받아 차량 도로를 실시간 모니터링(S200)한다.In a state in which artificial intelligence is learned, the traffic condition management apparatus 200 receives a real-time photographed image of the vehicle road from the photographing device 100 and monitors the vehicle road in real time (S200).

교통상황 관리 장치(200)는 실시간 모니터링 중 차량 도로 상의 물체를 감지하고 감지된 물체의 이동 패턴을 파악하며 인공지능을 통해 이벤트가 발생되는지를 감지(S300)한다.The traffic condition management device 200 detects an object on the vehicle road during real-time monitoring, recognizes a movement pattern of the detected object, and detects whether an event occurs through artificial intelligence (S300).

만약 특정 이벤트가 발생된 것으로 감지되는 경우, 교통상황 관리 장치(200)는 촬영 영상을 기초로 해당 이벤트를 분석하고 그에 따른 교통상황을 판단(S400)한다.If it is sensed that a specific event has occurred, the traffic condition management apparatus 200 analyzes the event based on the captured image and determines the traffic condition accordingly ( S400 ).

아울러 교통상황 관리 장치(200)는 판단된 교통상황에 대응되는 이벤트 발생 영역에 대하여 촬영 장치(100)가 줌인 촬영(S500)하도록 제어하여 줌인 영상을 획득한다.In addition, the traffic condition management apparatus 200 acquires a zoomed-in image by controlling the photographing apparatus 100 to zoom-in photographing (S500) with respect to an event occurrence area corresponding to the determined traffic condition.

그리고 교통상황 관리 장치(200)는 이벤트 발생에 따른 교통상황 정보와 이에 대응되는 줌인 영상을 제공(S600)한다. 이때 교통상황 관리 장치(200)는 설정된 관리자 단말기(300)로 교통상황 정보와 줌인 영상을 제공할 수 있으며, 상황에 따라서는 해당 차량 도로를 주행 중인 차량의 운전자 단말기(450)로 교통상황 정보와 줌인 영상을 제공할 수도 있다.In addition, the traffic condition management apparatus 200 provides traffic condition information according to the occurrence of an event and a zoom-in image corresponding thereto (S600). At this time, the traffic condition management device 200 may provide traffic condition information and a zoom-in image to the set manager terminal 300 , and depending on the situation, the traffic condition information and A zoomed-in image may also be provided.

이와 같은 본 발명에 따른 교통상황 관리 방법의 구체적 과정을 도 4 내지 도 8의 실시예를 통해 좀더 자세히 설명하도록 한다.A detailed process of the traffic condition management method according to the present invention will be described in more detail through the embodiments of FIGS. 4 to 8 .

도 4는 본 발명에 따른 교통상황 관리 방법에서 이벤트 발생을 감지하고 이에 대한 교통상황 정보를 제공하는 일실시예에 대한 흐름도를 도시하며, 도 5는 본 발명에서 차량 도로 상의 물체를 감지하여 이벤트를 판단하는 일실시예를 도시하며, 도 6은 본 발명에서 워핑 영상을 생성하여 물체의 이동패턴을 판단하는 일실시예를 도시하며, 도 7은 본 발명에서 물체의 이동패턴을 추적하여 이벤트가 발생된 영역을 감지하는 일실시예를 도시하며, 도 8은 본 발명에서 이벤트 발생 영역에 대한 줌인 영상에 대한 일실시예를 도시한다.4 is a flowchart for an embodiment of detecting the occurrence of an event and providing traffic situation information thereto in the traffic situation management method according to the present invention, and FIG. 5 is an event by detecting an object on the vehicle road in the present invention. Fig. 6 shows an embodiment of determining the movement pattern of an object by generating a warping image in the present invention, and Fig. 7 shows an event occurring by tracking the movement pattern of the object in the present invention It shows an embodiment of detecting a region that has been changed, and FIG. 8 shows an embodiment of a zoomed-in image for an event occurrence region in the present invention.

교통상황 관리 장치(200)는 촬영 장치(100)로부터 차량 도로에 대한 실시간 촬영 영상을 제공받으며, 해당 영상 화면 상에 물체가 존재하는지를 판단하여 물체를 감지(S310)한다.The traffic condition management apparatus 200 receives a real-time photographed image of the vehicle road from the photographing apparatus 100, determines whether an object exists on the image screen, and detects the object (S310).

가령, 상기 도 5와 같은 영상 화면(510, 520)에서 특징점과 특징선을 추출하여 특징선을 기초로 차량 도로(10)의 차선을 구별하고 특징점을 기초로 물체(410a, 410b, 410c, 410d, 420a, 420b, 420c, 430)를 구별할 수 있다.For example, by extracting feature points and feature lines from the image screens 510 and 520 as shown in FIG. 5 , lanes of the vehicle road 10 are distinguished based on the feature lines, and objects 410a, 410b, 410c, and 410d based on the feature points. , 420a, 420b, 420c, 430) can be distinguished.

또한 일례로서, 상기 도 6의 (a)에 도시된 영상 화면(530a)과 같이 회전 구간을 갖는 차량 도로(20)의 경우, 영상 화면(530a)에서 차선(20)을 기초로 메쉬 포인트(531a)를 설정하고, 메쉬 포인트(531a)를 워핑(warping)하여, 상기 도 6의 (b)에 도시된 영상 화면(530b)과 같이 메쉬 포인트(531b)에 기초한 차량 도로(20)에 대한 워핑 영상을 생성한 후 특징점과 특징선에 기초하여 물체(440a, 440b, 440c)를 구별할 수도 있다. 워핑 영상을 적용하는 경우에 메쉬 포인트(531a)의 이동 정도에 따라 해당 물체들(440a, 440b, 440c)은 찌그러진 상태가 되는데, 설명의 편의와 이해를 돕기 위해 상기 도 6의 (b)에서는 물체 모습을 정상적인 모습으로 도시한다.Also, as an example, in the case of the vehicle road 20 having a turning section as in the video screen 530a shown in FIG. 6A , the mesh point 531a based on the lane 20 in the video screen 530a ) and warping the mesh point 531a, as in the image screen 530b shown in FIG. 6(b), a warping image for the vehicle road 20 based on the mesh point 531b. After generating , the objects 440a, 440b, and 440c may be distinguished based on the feature point and the feature line. When a warping image is applied, the corresponding objects 440a, 440b, and 440c are in a distorted state depending on the degree of movement of the mesh point 531a. show the normal appearance.

영상 화면에서 물체가 감지되면, 교통상황 관리 장치(200)는 인공지능 학습을 통해 보유된 오브젝트 정의 정보를 기초로 영상 화면 상에서 감지된 물체가 어떤 물체인지를 판단(S321)한다.When an object is detected on the video screen, the traffic condition management apparatus 200 determines what kind of object the object detected on the video screen is based on the object definition information held through artificial intelligence learning (S321).

만약 판단된 물체가 차량 도로 상에 존재하면 안될 비정상 물체인 경우(S323), 교통상황 관리 장치(200)는 이벤트 발생으로 판단한다. 이때 물체 판단은 해당 차량 도로의 성격에 따라 인공지능이 상이하게 판단할 수 있다. 일례로서, 고속도로나 자동차 전용 도로에 대한 영상 화면 상에 사람으로 판단되는 물체가 존재하는 경우에 이는 비정상 물체로 판단될 수 있으나 도심 차량 도로에 대한 영상 화면 상에 사람으로 판단되는 물체가 존재하는 경우 이는 정상 물체로 판단될 수 있다.If the determined object is an abnormal object that should not exist on the vehicle road ( S323 ), the traffic condition management apparatus 200 determines that an event has occurred. In this case, the object determination may be determined differently by the artificial intelligence according to the characteristics of the vehicle road. As an example, if an object determined to be a person is present on the image screen for a highway or automobile-only road, it may be determined as an abnormal object, but if an object determined to be a person exists on the image screen for an urban vehicle road This may be determined as a normal object.

물체에 대한 판단과 관련된 구체적인 실시예로서, 고속도로를 대상으로 상기 도 5의 (a)와 같이 영상 화면(510)의 차량 도로(10) 상에서 감지된 물체들(410a, 410b, 410c, 410d)이 모두 차량으로 확인되는 경우에는 정상적인 물체들로 판단하지만, 상기 도 5의 (b)와 같이 영상 화면(520)의 차량 도로(10) 상에서 감지된 물체들(420a, 420b, 420c, 430) 중에 차량(420a, 420b, 420c, 430) 이외의 물체(430)가 확인되는 경우에는 비정상 물체가 존재하는 것으로 판단하고 이를 이벤트 발생으로 감지한다.As a specific embodiment related to object determination, the objects 410a, 410b, 410c, and 410d detected on the vehicle road 10 of the image screen 510 as shown in FIG. When all are identified as vehicles, they are determined as normal objects, but among the objects 420a, 420b, 420c, and 430 detected on the vehicle road 10 of the video screen 520 as shown in FIG. When an object 430 other than (420a, 420b, 420c, 430) is identified, it is determined that an abnormal object exists and this is detected as an event occurrence.

또한 교통상황 관리 장치(200)는 인공지능 학습을 통해 보유된 오브젝트 이동패턴 정보를 기초로 영상 화면 상에서 감지된 물체의 이동 패턴을 판단하여 감지된 물체가 비정상적인 이동패턴으로 움직이는지를 판단(S325)한다. In addition, the traffic condition management device 200 determines whether the detected object moves in an abnormal movement pattern by determining the movement pattern of the object detected on the video screen based on the object movement pattern information retained through artificial intelligence learning (S325). .

가령, 상기 도 5의 (a)와 같이 영상 화면(510)의 차량 도로(10) 상에서 판단된 물체들(410a, 410b, 410c, 410d)의 이동 패턴을 인공지능 학습을 통한 오브젝트 이동패턴 정보를 기초로 판단하여 비정상적 이동패턴이 존재하는지 판단하는데, 차량 도로(10) 상에서 접촉 사고로 인한 차량(410c, 410d)은 주변 차량의 정상적인 속도 및 방향과 상이한 이동패턴을 가지므로 이를 비정상적인 이동패턴으로 판단하여 이에 따른 이벤트 발생을 감지할 수 있다.For example, the movement pattern of the objects 410a, 410b, 410c, and 410d determined on the vehicle road 10 of the video screen 510 as shown in FIG. It is judged on the basis of whether an abnormal movement pattern exists, and since the vehicles 410c and 410d due to a contact accident on the vehicle road 10 have a movement pattern different from the normal speed and direction of the surrounding vehicles, it is determined as an abnormal movement pattern. Accordingly, the occurrence of an event can be detected.

그리고 상기 도 5의 (b)와 같이 영상 화면(520)의 차량 도로(10) 상에서 판단된 물체들(420a, 420b, 420c, 430) 중 오브젝트 이동패턴 정보를 기초하여 차량 도로(10) 상의 차량 진행 방향과는 상이한 이동패턴을 지속적으로 갖는 물체(430)는 비정상적인 이동패턴으로 나타나므로 이를 이벤트 발생으로 감지할 수 있다.And, based on the object movement pattern information among the objects 420a, 420b, 420c, 430 determined on the vehicle road 10 of the image screen 520 as shown in FIG. 5(b), the vehicle on the vehicle road 10 Since the object 430 continuously having a movement pattern different from the moving direction appears as an abnormal movement pattern, it can be detected as an event occurrence.

나아가서 상기 도 6의 (a)와 같이 영상 화면(530a)의 차량 도로(20)가 회전 구간을 갖는 경우, 차선을 따라 회전 주행하는 차량들의 이동패턴 파악이 쉽지 않을 수 있으므로, 상기 도 6의 (b)와 같이 워핑(warping)된 영상 화면(530b)을 생성하고 물체들의 이동패턴을 파악함으로써 보다 쉽고 명확하게 정상적인 이동패턴과 비정상적인 이동패턴을 구별할 수 있다.Furthermore, when the vehicle road 20 of the image screen 530a has a rotation section as shown in FIG. By generating the warped image screen 530b as shown in b) and identifying the movement patterns of objects, it is possible to more easily and clearly distinguish a normal movement pattern from an abnormal movement pattern.

이와 같은 과정을 통해 영상 화면 상에 감지된 물체가 정상적인 물체로서 정상적인 이동패턴을 갖는 경우에는 이벤트가 발생되지 않은 상황으로서 교통상황 관리 장치(200)는 계속하여 차량 도로에 대한 실시간 모니터링(S200)을 수행하게 된다.If the object detected on the image screen through this process has a normal movement pattern as a normal object, the traffic situation management device 200 continues real-time monitoring (S200) of the vehicle road as a situation in which an event does not occur. will perform

허나 차량 도로 상에 존재하면 안될 비정상적인 물체가 감지되거나 감지된 물체의 이동패턴이 비정상적인 경우, 교통상황 관리 장치(200)는 이벤트 발생으로 판단하여 해당 물체와 이동패턴을 기초로 이벤트를 분석하고 이에 따른 교통상황을 판단(S411)하여 이에 대한 교통상황 정보를 생성(S413)한다.However, when an abnormal object that should not exist on the vehicle road is detected or the movement pattern of the detected object is abnormal, the traffic situation management device 200 determines that an event occurs and analyzes the event based on the object and the movement pattern and accordingly The traffic condition is determined (S411) and traffic condition information is generated (S413).

일례로서, 인공지능을 통해 오브젝트 정의 정보 및 오브젝트 이동패턴 정보에 대응되는 이벤트 상황 정보를 기초로 해당 물체와 해당 이동패턴에 대한 이벤트 상황을 분석하여 교통상황을 판단하고 이에 대응되는 교통상황 정보를 생성한다.As an example, based on the object definition information and the event situation information corresponding to the object movement pattern information through artificial intelligence, the event situation for the corresponding object and the corresponding movement pattern is analyzed to determine the traffic situation, and the corresponding traffic situation information is generated. do.

가령, 상기 도 5의 (a)와 같은 영상 화면(510)에서 오브젝트 정의 정보에 기초하여 차량으로 판단된 물체(410c, 410d)가 오브젝트 이동패턴 정보에 기초하여 주변 차량들(410a, 410b)의 주행 방향 및 주행 속도와는 상이한 움직임으로 나타나거나 비이상적인 접촉 상태로 존재하는 경우에 이에 따른 이벤트 상황 정보를 기초로 해당 차량(410c, 410d)에 대한 접속 사고를 판단할 수 있다.For example, in the image screen 510 as shown in FIG. 5A , the objects 410c and 410d determined to be vehicles based on the object definition information are selected from the surrounding vehicles 410a and 410b based on the object movement pattern information. When a movement different from the driving direction and driving speed appears or exists in a non-ideal contact state, an access accident with respect to the corresponding vehicles 410c and 410d may be determined based on the corresponding event situation information.

또한 상기 도 5의 (b)와 같은 영상 화면(520)에서 오브젝트 정의 정보에 기초하여 감지된 물체(430)가 해당 차량 도로(10) 상에 존재하면 안될 장애물로서 주변 차량들(410a, 410b)의 주행 방향 및 주행 속도와는 상이한 움직임을 지속적으로 나타내는 경우에 이에 따른 이벤트 상황 정보를 기초로 해당 장애물(430)에 대한 위험성을 판단할 수 있다.In addition, the object 430 detected on the basis of the object definition information on the image screen 520 as shown in FIG. In the case of continuously representing a movement different from the driving direction and driving speed of , the risk of the obstacle 430 may be determined based on the corresponding event situation information.

교통상황 관리 장치(200)는 상기에서 살펴본 실시예에 따른 이벤트 상황 이외에도 다양한 이벤트 상황을 분석하고 이에 따른 교통상황을 판단하여 해당 차량 도로 상의 교통상황 정보를 생성할 수 있다.In addition to the event situation according to the above-described embodiment, the traffic condition management apparatus 200 may analyze various event conditions and determine the traffic conditions accordingly to generate traffic condition information on the corresponding vehicle road.

또한 교통상황 관리 장치(200)는 차량 도로의 영상 화면에서 물체의 이동패턴을 기초로 이벤트 발생 영역을 설정(S511)하는데, 영상 화면 상의 차량 주행 방향을 따라 차량 도로 상의 물체를 스캔하여 이벤트 발생 영역을 찾을 수 있으며 이를 기초로 이벤트 발생 영역을 설정한다. In addition, the traffic condition management apparatus 200 sets an event generation area based on the movement pattern of the object on the image screen of the vehicle road (S511), and scans the object on the vehicle road along the vehicle driving direction on the image screen to generate the event area can be found, and the event occurrence area is set based on this.

가령, 상기 도 7과 같은 영상 화면(540) 상에서 하부로부터 상부를 향하는 차량 이동 방향을 따라서 차량들(450a, 450b, 450c)의 이동패턴을 판단하면서 점차적으로 차량 속도 증가율이 역전되어 변화되는 지점까지 스캔하면 차량(460a, 460b)의 접속 사고 지점을 찾을 수 있다.For example, while determining the movement patterns of the vehicles 450a, 450b, and 450c along the vehicle movement direction from the bottom to the top on the image screen 540 as shown in FIG. By scanning, a connection accident point of the vehicles 460a and 460b may be found.

이와 같이 영상 화면 상의 물체 이동 패턴을 기초로 영상 화면을 스캔하여 이벤트가 발생된 영역을 찾아 이벤트 발생 영역을 설정할 수 있다.As described above, by scanning the image screen based on the movement pattern of the object on the image screen, an event occurrence region may be found and an event occurrence region may be set.

그리고 교통상황 관리 장치(200)는 이벤트 상황이 발생된 영상 화면에서 이벤트 발생 영역을 설정(S511)한 후, 해당 이벤트 상황이 발생된 차량 도로를 촬영 중인 촬영 장치(100)가 설정된 이벤트 발생 영역을 줌인하여 촬영(S515)하도록 제어하여 줌인 영상을 획득할 수 있다.Then, the traffic condition management device 200 sets the event occurrence area on the video screen in which the event situation occurs (S511), and then sets the event occurrence area in which the photographing device 100 is shooting the vehicle road in which the event situation occurs. A zoom-in image may be acquired by controlling the zoom-in to take a picture ( S515 ).

나아가서 교통상황 관리 장치(200)는 해당 이벤트를 분석 및 판단한 교통상황 정보와 이에 대한 줌인 영상을 관리자 단말기(300)로 제공(S610)한다.Furthermore, the traffic condition management apparatus 200 provides the traffic condition information analyzed and determined for the event and a zoomed-in image thereto to the manager terminal 300 ( S610 ).

교통상황 관리 장치(200)로부터 이벤트 발생에 따른 교통상황 정보와 이에 대한 줌인 영상을 관리자 단말기(300)를 통해 관리자가 제공받을 수 있으므로, 관리자는 별도의 판단이나 분석 과정을 거치지 않고 즉각적으로 줌인 영상의 교통상황을 인식할 수 있게 된다.Since the manager can receive traffic condition information according to the occurrence of an event from the traffic condition management device 200 and a zoomed-in image thereof through the manager terminal 300, the manager can immediately zoom-in image without going through a separate judgment or analysis process. of traffic conditions can be recognized.

한걸음 더 나아가서 교통상황 관리 장치(200)는 해당 이벤트가 발생된 차량 도로를 주행 중인 차량의 운전자 단말기(450)로 이벤트 발생에 따른 교통상황 정보와 이에 대한 줌인 영상을 제공할 수도 있다. 이러한 교통상황 정보와 줌인 영상을 제공받음으로써 차량 운전자는 해당 교통상황을 인지하여 사고 발생을 미연에 방지할 수 있으며, 필요에 따라서는 다른 도로로 우회함으로써 교통체증을 피할 수 있게 된다.Going one step further, the traffic condition management apparatus 200 may provide traffic condition information according to the occurrence of the event and a zoom-in image thereof to the driver terminal 450 of the vehicle driving on the vehicle road in which the corresponding event has occurred. By receiving such traffic situation information and zoom-in image, the vehicle driver can recognize the traffic situation and prevent an accident in advance, and, if necessary, can avoid traffic jam by detouring to another road.

또한 본 발명에서 교통상황 관리 장치(200)는 신규 이벤트 정보를 기초로 인공지능의 기계학습을 지속적으로 수행할 수 있는데, 영상 화면 상의 물체가 감지(S310)된 상태에서 인공지능을 통해 해당 물체를 판단(S321)함에 있어서 오브젝트 정의 정보를 기초로 해당 물체에 대한 판단이 불가능한 경우 이를 미확인 물체로 분류(S451)하고 이에 대한 이벤트 발생 정보를 생성(S455)한다.In addition, in the present invention, the traffic condition management device 200 can continuously perform machine learning of artificial intelligence based on new event information. In the determination (S321), if it is impossible to determine the object based on the object definition information, it is classified as an unidentified object (S451) and event occurrence information is generated (S455).

아울러 교통상황 관리 장치(200)는 영상 화면 상에서 미확인 물체에 대응되는 이벤트 발생 영역을 설정(S551)하여 해당 촬영 장치(100)를 제어하여 줌인 촬영(S555)한 줌인 영상을 제공받는다.In addition, the traffic condition management apparatus 200 sets an event occurrence area corresponding to an unidentified object on the image screen (S551), controls the corresponding photographing apparatus 100, and receives a zoomed-in image (S555).

그리고 교통상황 관리 장치(200)는 미확인 물체에 대한 이벤트 발생 정보와 이에 대응되는 줌인 영상을 관리자 단말기(300)로 제공(S650)하며, 관리자는 이벤트 발생 정보와 줌인 영상을 기초로 해당 미확인 물체를 판단하여 이에 대한 신규 이벤트 정보를 관리자 단말기(300)로 입력(S700)한다. 이때 신규 이벤트 정보는 오브젝트 정의 정보와 오브젝트 이동패턴 정보를 포함할 수 있으며, 선택적으로 해당 오브젝트 정의 정보와 오브젝트 이동패턴 정보에 대응되는 이벤트 상황 정보를 더 포함할 수도 있다.And the traffic condition management device 200 provides event occurrence information on the unidentified object and a zoom-in image corresponding thereto to the manager terminal 300 (S650), and the manager selects the unidentified object based on the event occurrence information and the zoom-in image. It is determined and input new event information to the manager terminal 300 (S700). In this case, the new event information may include object definition information and object movement pattern information, and may optionally further include event context information corresponding to the corresponding object definition information and object movement pattern information.

관리자 단말기(300)로 입력된 신규 이벤트 정보는 교통상황 관리 장치(200)로 전달되며, 교통상황 관리 장치(200)는 전달받은 신규 이벤트 정보를 학습 데이터로 활용하여 인공지능의 기계학습을 추가적으로 수행한다.The new event information input to the manager terminal 300 is transmitted to the traffic condition management device 200, and the traffic condition management device 200 additionally performs artificial intelligence machine learning by using the received new event information as learning data. do.

이와 같은 과정을 통해 인공지능의 오브젝트 정의 정보와 오브젝트 이동패턴 정보 및 이벤트 상황 정보는 지속적으로 확장될 수 있다.Through this process, the object definition information, object movement pattern information, and event situation information of artificial intelligence can be continuously expanded.

이상에서 살펴본 본 발명에 의하면 교통상황 관리 장치가 차량 도로에서 발생되는 이벤트 상황을 실시간 감지하고 분석하여 이에 대한 교통상황 정보와 줌인 영상을 관리자에게 제공함으로써, 관리자는 보다 빠르고 정확하게 해당 차량 도로의 상황을 인식할 수 있다.According to the present invention as described above, the traffic situation management device detects and analyzes the event situation occurring on the vehicle road in real time and provides the traffic situation information and zoom-in image for this to the manager, so that the manager can more quickly and accurately control the situation of the vehicle road can recognize

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 기재된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상이 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의해서 해석되어야하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments described in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100, 110a, 110b, 110c : 촬영 장치,
200 : 교통상황 관리 장치,
210 : 촬영 장치 제어부,
220 : 영상 분석부,
230 : 이벤트 판단부,
240 : 인공지능 학습부,
250 : 교통정보 제공부,
300 : 관리자 단말기,
400 : 차량,
450 : 운전자 단말기.
100, 110a, 110b, 110c: photographing device;
200: traffic condition management device,
210: photographing device control unit;
220: image analysis unit,
230: event judgment unit,
240: artificial intelligence learning department,
250: traffic information provider,
300: administrator terminal;
400: vehicle,
450: driver terminal.

Claims (5)

차량 도로 상황을 카메라를 통해 실시간 촬영하여 모니터링하는 도로 상황 모니터링 단계;
차량 도로 상의 물체 또는 이동패턴을 확인하여 이벤트 발생을 감지하는 이벤트 감지 단계;
해당 이벤트를 분석하여 교통상황을 판단하는 교통상황 판단 단계; 및
상기 이벤트 발생 영역을 줌인(Zoom-in)한 영상을 제공하는 교통상황 정보 제공 단계를 포함하고,
기계학습을 통해 물체에 대한 오브젝트 정의 정보, 오브젝트 이동패턴 정보 및 상기 오브젝트 정의 정보와 상기 오브젝트 이동패턴 정보에 대응되는 이벤트 상황 정보를 보유하는 인공지능 학습 단계를 더 포함하며,
상기 이벤트 감지 단계는,
차량 도로의 실시간 영상 화면에 존재하는 물체를 감지하고, 상기 오브젝트 정의 정보를 기초로 감지된 상기 물체를 판단하는 물체 판단 단계;
상기 오브젝트 이동패턴 정보를 기초로 상기 물체의 이동패턴을 판단하는 이동패턴 판단 단계; 및
상기 물체 판단 결과와 상기 물체 이동패턴 판단 결과를 기초로 이벤트 발생을 감지하는 이벤트 발생 감지 단계를 포함하며,
상기 교통상황 판단 단계는,
상기 이벤트 상황 정보를 기초로 상기 물체의 판단 결과와 상기 물체의 이동패턴 판단 결과에 대응되는 이벤트 상황을 분석하여 교통상황을 판단하고 이에 대응되는 교통상황 정보를 생성하며,
상기 교통상황 정보 제공 단계는,
상기 영상 화면에서 이벤트 발생 영역을 설정하여 줌인으로 촬영하고, 상기 줌인 영상과 상기 교통상황 정보를 관리자 단말기 또는 운전자 단말기로 제공하며,
상기 물체 판단 단계는,
상기 영상 화면에서 특징점과 특징선을 추출하고 특징점과 특징선을 기초로 물체를 감지하고, 감지된 상기 물체의 특징점과 특징선을 상기 오브젝트 정의 정보와 대비하여 물체를 판단하며,
상기 이동패턴 판단 단계는,
상기 영상 화면에서 차선을 기초로 메쉬 포인트를 설정하고 상기 메쉬 포인트를 워핑(warping)하여 워핑 영상을 생성하며, 상기 워핑 영상에서 감지된 상기 물체의 이동패턴을 추출하는 것을 특징으로 하는 교통상황 관리 방법.
a road condition monitoring step of monitoring the vehicle road condition by photographing it in real time through a camera;
an event detection step of detecting an event occurrence by checking an object or movement pattern on the vehicle road;
a traffic situation determination step of analyzing the corresponding event to determine the traffic condition; and
A traffic condition information providing step of providing a zoom-in image of the event occurrence area,
The method further comprises an artificial intelligence learning step of retaining object definition information, object movement pattern information, and event situation information corresponding to the object definition information and the object movement pattern information through machine learning,
The event detection step is
an object determination step of detecting an object existing on a real-time image screen of a vehicle road and determining the detected object based on the object definition information;
a movement pattern determination step of determining a movement pattern of the object based on the object movement pattern information; and
An event occurrence detection step of detecting the occurrence of an event based on the object determination result and the object movement pattern determination result,
The traffic condition determination step is,
Determine the traffic situation by analyzing the event situation corresponding to the determination result of the object and the movement pattern determination result of the object based on the event condition information, and generate traffic condition information corresponding thereto,
The step of providing the traffic condition information,
Setting an event occurrence area on the video screen to zoom in, and providing the zoomed-in image and the traffic situation information to a manager terminal or a driver terminal,
The object determination step is
extracting feature points and feature lines from the image screen, detecting an object based on the feature points and feature lines, and comparing the detected feature points and feature lines with the object definition information to determine an object,
The movement pattern determination step is,
A method for managing a traffic situation, characterized in that a mesh point is set based on a lane on the image screen, a warping image is generated by warping the mesh point, and a movement pattern of the object detected from the warping image is extracted. .
삭제delete 삭제delete 제 1 항에 있어서,
상기 물체 판단 단계는,
상기 오브젝트 정의 정보를 기초로 감지된 상기 물체에 대한 판단 불가시 미확인 물체로 분류하고,
상기 교통상황 판단 단계는,
상기 미확인 물체와 상기 미확인 물체의 이동패턴에 대한 이벤트 발생 정보를 생성하며,
상기 교통상황 정보 제공 단계는,
상기 영상 화면에서 이벤트 발생 영역을 설정하여 줌인으로 촬영하고, 상기 줌인 영상과 상기 이벤트 발생 정보를 관리자 단말기로 제공하며,
상기 관리자 단말기를 통해 상기 이벤트 발생 정보에 대응되는 신규 이벤트 정보를 입력받아 상기 인공지능 학습 단계를 추가 수행하는 것을 특징으로 하는 교통상황 관리 방법.
The method of claim 1,
The object determination step is
Classifying the object as an unidentified object when it is impossible to determine the detected object based on the object definition information,
The traffic condition determination step is,
generating event occurrence information for the unidentified object and the movement pattern of the unidentified object,
The step of providing the traffic condition information,
Set an event occurrence area on the video screen to zoom in, and provide the zoom-in image and the event occurrence information to an administrator terminal,
Traffic situation management method, characterized in that the artificial intelligence learning step is additionally performed by receiving new event information corresponding to the event occurrence information through the manager terminal.
차량 도로를 실시간 촬영하여 줌아웃(Zoom-out) 또는 줌인(Zoom-in) 영상을 제공하는 복수의 촬영 장치;
상기 복수의 촬영 장치로부터 차량 도로의 실시간 영상 화면을 제공받아 상기 영상 화면에 존재하는 물체를 감지하고, 기계 학습 정보를 기초로 상기 물체와 이동패턴을 분석하여 이벤트를 판단하고, 이벤트 발생에 따른 이벤트 교통상황 정보와 해당 이벤트 발생 영역의 줌인 영상을 제공하는 교통상황 관리장치;
상기 교통상황 관리장치로부터 교통상황 정보와 줌인 영상을 제공받으며, 미확인 물체와 이의 이동패턴에 대한 신규 이벤트 정보를 관리자로부터 입력받아 상기 교통상황 관리장치로 제공하는 관리자 단말기; 및
차량 도로의 운행 차량에 탑재되거나 운전자가 보유하며, 상기 교통상황 관리장치로부터 교통상황 정보와 해당 이벤트 발생 영역의 줌인 영상을 제공받아 시현하는 운전자 단말기를 포함하는 것을 특징으로 하는 교통상황 관리 시스템.
A plurality of photographing devices for providing a zoom-out or zoom-in image by photographing a vehicle road in real time;
A real-time video screen of the vehicle road is provided from the plurality of photographing devices to detect an object existing on the video screen, and an event is determined by analyzing the object and movement pattern based on machine learning information, and an event according to the occurrence of an event a traffic condition management device that provides traffic condition information and a zoom-in image of a corresponding event occurrence area;
a manager terminal that receives traffic condition information and a zoom-in image from the traffic condition management device, and receives new event information about an unidentified object and its movement pattern from a manager and provides it to the traffic condition management device; and
A traffic situation management system, comprising a driver terminal mounted on a driving vehicle on a vehicle road or held by a driver, and receiving and displaying traffic situation information and a zoom-in image of a corresponding event occurrence area from the traffic situation management device.
KR1020210052799A 2021-04-23 2021-04-23 System and method for managing traffic event KR102306854B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210052799A KR102306854B1 (en) 2021-04-23 2021-04-23 System and method for managing traffic event

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210052799A KR102306854B1 (en) 2021-04-23 2021-04-23 System and method for managing traffic event

Publications (1)

Publication Number Publication Date
KR102306854B1 true KR102306854B1 (en) 2021-09-30

Family

ID=77920452

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210052799A KR102306854B1 (en) 2021-04-23 2021-04-23 System and method for managing traffic event

Country Status (1)

Country Link
KR (1) KR102306854B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115472014A (en) * 2022-09-16 2022-12-13 苏州映赛智能科技有限公司 Traffic tracing method, system, server and computer storage medium
KR102660024B1 (en) 2023-08-09 2024-04-23 뱀부스 주식회사 Method for detection road event and apparatus for the same

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101101860B1 (en) * 2010-03-03 2012-01-05 주식회사 토페스 Monitoring system for traffic condition
KR101612867B1 (en) * 2014-04-30 2016-04-26 한국건설기술연구원 Incident monitoring system and method based on incident vehicle information
KR101931298B1 (en) 2017-09-29 2018-12-20 주식회사 썬플라워즈 Method for preventing secondary accident on highway and server performing the same
KR101956008B1 (en) * 2018-06-07 2019-03-08 쿠도커뮤니케이션 주식회사 Apparatus for Providing Trajectory and Data Building Method Thereof
KR101982751B1 (en) * 2018-12-27 2019-05-27 주식회사 월드씨엔에스 Video surveillance device with motion path tracking technology using multi camera
KR102061264B1 (en) 2018-02-09 2020-01-02 (주)하나텍시스템 Unexpected incident detecting system using vehicle position information based on C-ITS
KR20200098788A (en) * 2019-02-12 2020-08-21 한국도로공사 Expressway traffic monitoring system of transport information center CCTV using artificial intelligence

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101101860B1 (en) * 2010-03-03 2012-01-05 주식회사 토페스 Monitoring system for traffic condition
KR101612867B1 (en) * 2014-04-30 2016-04-26 한국건설기술연구원 Incident monitoring system and method based on incident vehicle information
KR101931298B1 (en) 2017-09-29 2018-12-20 주식회사 썬플라워즈 Method for preventing secondary accident on highway and server performing the same
KR102061264B1 (en) 2018-02-09 2020-01-02 (주)하나텍시스템 Unexpected incident detecting system using vehicle position information based on C-ITS
KR101956008B1 (en) * 2018-06-07 2019-03-08 쿠도커뮤니케이션 주식회사 Apparatus for Providing Trajectory and Data Building Method Thereof
KR101982751B1 (en) * 2018-12-27 2019-05-27 주식회사 월드씨엔에스 Video surveillance device with motion path tracking technology using multi camera
KR20200098788A (en) * 2019-02-12 2020-08-21 한국도로공사 Expressway traffic monitoring system of transport information center CCTV using artificial intelligence

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115472014A (en) * 2022-09-16 2022-12-13 苏州映赛智能科技有限公司 Traffic tracing method, system, server and computer storage medium
CN115472014B (en) * 2022-09-16 2023-10-10 苏州映赛智能科技有限公司 Traffic tracing method, system, server and computer storage medium
KR102660024B1 (en) 2023-08-09 2024-04-23 뱀부스 주식회사 Method for detection road event and apparatus for the same

Similar Documents

Publication Publication Date Title
US10467897B2 (en) Investigation assist system and investigation assist method
KR102189569B1 (en) Multifunctional smart object recognition accident prevention sign guide plate and accident prevention method using the same
US8301577B2 (en) Intelligent monitoring system for establishing reliable background information in a complex image environment
KR101397453B1 (en) System for monitoring an image and method thereof
KR101462855B1 (en) Automatic regulation system for detecting of irregular stopping and parking vehicle, and method for processing of the same
KR101964683B1 (en) Apparatus for Processing Image Smartly and Driving Method Thereof
KR102282800B1 (en) Method for trackig multi target employing ridar and camera
KR101888381B1 (en) Vehicle enforcement system based on operating detecting area deep learning
KR102174556B1 (en) Apparatus for monitoring image to control traffic information employing Artificial Intelligence and vehicle number
CN104981818A (en) Systems and methods to classify moving airplanes in airports
CN110580808B (en) Information processing method and device, electronic equipment and intelligent traffic system
KR101492473B1 (en) Context-aware cctv intergrated managment system with user-based
KR102306854B1 (en) System and method for managing traffic event
CN112351190A (en) Digital twin monitoring system and method
KR101672780B1 (en) Intelligent video surveillance system for school zone
KR101911239B1 (en) The channel extension operation system for detecting illegally parked vehicles
KR102196356B1 (en) Image surveillance system for tunnel and method thereof
KR102162130B1 (en) Enforcement system of illegal parking using single camera
KR101263894B1 (en) Apparatus and method for tracking wanted vehicle
KR20200026015A (en) System for enforcing vehicle and method thereof
KR102484789B1 (en) Intelligent crossroad integration management system with unmanned control and traffic information collection function
KR100817753B1 (en) Security system and method for interlocking criminal and vehicle surveillance and monitoring illegally waste-casting
KR20210067634A (en) Unauthorized alerting system and method using object recognition
KR102039404B1 (en) Image surveillance system and method thereof
KR101859329B1 (en) System of crackdown on illegal parking

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant