KR20230173814A - 3D bound boxing method using vanishing point & Traffic flow controlling method for controlling traffic signal with sensing object - Google Patents

3D bound boxing method using vanishing point & Traffic flow controlling method for controlling traffic signal with sensing object Download PDF

Info

Publication number
KR20230173814A
KR20230173814A KR1020220074549A KR20220074549A KR20230173814A KR 20230173814 A KR20230173814 A KR 20230173814A KR 1020220074549 A KR1020220074549 A KR 1020220074549A KR 20220074549 A KR20220074549 A KR 20220074549A KR 20230173814 A KR20230173814 A KR 20230173814A
Authority
KR
South Korea
Prior art keywords
van
ver
vanishing
controller
intersection
Prior art date
Application number
KR1020220074549A
Other languages
Korean (ko)
Inventor
박정인
김유신
김경중
임양인
Original Assignee
유에프엠시스템즈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유에프엠시스템즈 주식회사 filed Critical 유에프엠시스템즈 주식회사
Priority to KR1020220074549A priority Critical patent/KR20230173814A/en
Publication of KR20230173814A publication Critical patent/KR20230173814A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/07Controlling traffic signals
    • G08G1/075Ramp control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 영상 내 객체 인식 정확도를 높이기 위해 소실점을 이용하여 객체에 대한 3D 바운딩 박스를 생성하는 방법과, 이러한 3D 바운딩 박스 생성 방법을 인공지능의 객체 검출 수단으로 적용하여 검출된 객체정보를 기반으로 신호체계를 제어하는 객체 감응형 차량 흐름 제어 방법에 관한 것이다.
본 발명은, 「컴퓨터 장치의 인공지능 기반 영상분석부에 의해 구현되며, (a) 카메라 설치각도와 상기 카메라가 촬영한 영상의 방향성을 분석하여 종방향 소실점 VP1과 횡방향 소실점 VP2를 도출하는 단계; (b) 분석 대상 영상에서 이동하는 객체를 특정하는 단계; (c) 상기 VP1에서 상기 객체의 외연에 접하도록 이어진 좌단 하부 소실선 Van-L1과 우단 상부 소실선 Van-L2를 생성하는 단계; (d) 상기 VP2에서 상기 객체의 외연에 접하도록 이어진 전단 하부 소실선 Van-L3와 후단 상부 소실선 Van-L4를 생성하여, 상기 Van-L1과 Van-L3의 교차점 P1과, 상기 Van-L2와 Van-L4의 교차점 P2가 생성되는 단계; (e) 상기 객체 최좌단이 접하는 좌측 후방 수직선 Ver-L1과, 상기 객체 최우단이 접하는 우측 전방 수직선 Ver-L2를 생성하여, 상기 Ver-L1과 Van-L1의 교차점 P3와, 상기 Ver-L2와 Van-L3의 교차점 P4와, 상기 Ver-L1과 Van-N4의 교차점 P5와, 상기 Ver-L2와 Van-L2의 교차점 P6가 생성되는 단계; (f) 상기 VP2에서 P3를 지나는 소실선 Van-L5와, 상기 VP2에서 P6를 지나는 소실선 Van-L6를 생성하는 단계; (g) 상기 P1을 지나는 좌측 전방 수직선 Ver-L3와, 상기 P2를 지나는 우측 후방 수직선 Ver-L4를 생성하여, 상기 Ver-L3와 Van-L6의 교차점 P7과, 상기 Ver-L4와 Van-L5의 교차점 P8이 생성되는 단계; 및 (h) 상기 P2, P5, P7, P6가 상단 꼭지점을 이루고, 상기 P1, P4, P8, P3가 하단 꼭지점을 이루는 6면체 바운딩 박스를 생성하는 단계; 를 포함하는, 소실점을 이용한 3D 바운딩 박스 생성 방법」을 제공한다.
The present invention includes a method for generating a 3D bounding box for an object using a vanishing point to increase the accuracy of object recognition in an image, and applying this 3D bounding box generation method as an object detection method of artificial intelligence to detect objects based on object information. This relates to an object-sensitive vehicle flow control method that controls a signaling system.
The present invention is implemented by an artificial intelligence-based image analysis unit of a computer device, and includes the steps of: (a) analyzing the camera installation angle and the directionality of the image captured by the camera to derive the longitudinal vanishing point VP1 and the transverse vanishing point VP2; ; (b) specifying a moving object in the image to be analyzed; (c) generating a left lower vanishing line Van-L1 and a right upper vanishing line Van-L2 connected from the VP1 to contact the outer edge of the object; (d) In the VP2, a front lower vanishing line Van-L3 and a rear upper vanishing line Van-L4 connected to contact the outer edge of the object are created, and the intersection point P1 of the Van-L1 and Van-L3, and the Van-L2 A step in which the intersection P2 of Van-L4 is created; (e) Create a left rear vertical line Ver-L1 in contact with the leftmost end of the object and a right front vertical line Ver-L2 in contact with the rightmost end of the object, thereby creating an intersection P3 of the Ver-L1 and Van-L1, and the Ver-L2 generating an intersection point P4 of Van-L3, an intersection P5 of Ver-L1 and Van-N4, and an intersection P6 of Ver-L2 and Van-L2; (f) generating a vanishing line Van-L5 passing from the VP2 to P3 and a vanishing line Van-L6 passing from the VP2 to P6; (g) Creating a left front vertical line Ver-L3 passing through P1 and a right rear vertical line Ver-L4 passing through P2, creating an intersection point P7 of Ver-L3 and Van-L6, and Ver-L4 and Van-L5. A step in which the intersection point P8 is created; and (h) generating a hexahedral bounding box in which the P2, P5, P7, and P6 form the upper vertices, and the P1, P4, P8, and P3 form the lower vertices; Provides a “3D bounding box generation method using vanishing points, including.”

Description

소실점을 이용한 3D 바운딩 박스 생성 방법 및 교통신호 제어를 위한 객체 감응형 차량 흐름 제어 방법{3D bound boxing method using vanishing point & Traffic flow controlling method for controlling traffic signal with sensing object}3D bounding box creation method using vanishing point and object sensitive vehicle flow control method for controlling traffic signal {3D bound boxing method using vanishing point & Traffic flow controlling method for controlling traffic signal with sensing object}

본 발명은 영상 내 객체 인식 정확도를 높이기 위해 소실점을 이용하여 객체에 대한 3D 바운딩 박스를 생성하는 방법과, 이러한 3D 바운딩 박스 생성 방법을 인공지능의 객체 검출 수단으로 적용하여 검출된 객체정보를 기반으로 신호체계를 제어하는 객체 감응형 차량 흐름 제어 방법에 관한 것이다.The present invention includes a method for generating a 3D bounding box for an object using a vanishing point to increase the accuracy of object recognition in an image, and applying this 3D bounding box generation method as an object detection method of artificial intelligence to detect objects based on object information. This relates to an object-sensitive vehicle flow control method that controls a signaling system.

차량 보급률이 증가하고 도심이 확장됨에 따라 교통 혼잡이 일상화되어 경제적 손실을 발생시키고 있다. 또한, 응급 환자, 화재 발생 등의 응급상황에서 도심지의 차량 정체 상황은 돌이킬 수 없는 손실을 야기할 수 있다.As vehicle penetration increases and urban centers expand, traffic congestion has become routine, causing economic losses. Additionally, in emergency situations such as emergency patients or fire outbreaks, vehicle congestion in urban areas can cause irreversible losses.

따라서 교차로들의 신호체계를 최적화하여 차량 대기시간을 절감시키기 위한 다양한 연구가 진행되고 있다. 종래의 대표적인 교차로 신호체계로는 차량검지수단에 의해 검출된 누적데이터들을 활용하여 TOD(Time Of Day)에 따라 고정된 신호주기 및 현시시간을 출력하는 정주기식 신호 운영방식과, 수집된 교통정보를 이용하여 교통상황에 따라 신호를 제어하는 능동형 신호 운영방식으로 분류된다.Therefore, various studies are being conducted to reduce vehicle waiting times by optimizing the signal system at intersections. Representative conventional intersection signal systems include a periodic signal operation method that outputs a fixed signal period and presentation time according to TOD (Time Of Day) by utilizing accumulated data detected by vehicle detection means, and collected traffic information It is classified as an active signal operation method that controls signals according to traffic conditions.

특히 능동형 신호 운영방식은 현재 교통상황에 따라 유동적으로 대응하여 차량 정체현상을 효과적으로 절감시킬 수 있는 장점으로 인해 이에 대한 다양한 연구가 이루어지고 있다. In particular, various studies are being conducted on the active signal operation method due to its advantage in effectively reducing vehicle congestion by responding flexibly to current traffic conditions.

한편, 최근 들어 딥-러닝(Deep learning) 기법을 이용하여 객체 감지, 종류, 트래킹 등을 수행하기 위한 영상 분석 기술에 대한 연구가 활발하게 이루어지고 있고, 이러한 딥-러닝을 활용한 영상 분석 기술은 학습을 통해 자체적으로 오차율을 줄이기 때문에 감지의 정확성 및 정밀도를 현저히 높일 수 있는 장점으로 인해 그 적용 분야가 기하급수적으로 증가하고 있다. Meanwhile, recently, research has been actively conducted on video analysis technology to perform object detection, type, and tracking using deep learning techniques, and video analysis technology using deep learning is Its application fields are increasing exponentially due to the advantage of significantly increasing the accuracy and precision of detection by reducing the error rate through learning.

1. 공개특허 10-2021-0103865 "소실점 추출 장치 및 소실점 추출 방법"1. Publication Patent No. 10-2021-0103865 “Vanishing point extraction device and vanishing point extraction method” 2. 등록특허 10-2311236 "딥러닝 사물 인지 및 추적을 통한 속도 측정 방법 및 그 시스템"2. Registered Patent 10-2311236 “Speed measurement method and system through deep learning object recognition and tracking” 3. 등록특허 10-2391853 "영상 정보 처리 시스템 및 방법"3. Registered Patent 10-2391853 “Image information processing system and method” 4. 공개특허 10-202000141834 "영상기반 교통신호 제어 장치 및 방법"4. Publication Patent 10-202000141834 “Video-based traffic signal control device and method”

본 발명은 영상 내 객체에 대한 인식 정확도를 높이기 위한 3D 객체 탐지 방법을 제공함에 그 목적이 있다.The purpose of the present invention is to provide a 3D object detection method to increase recognition accuracy for objects in images.

또한 본 발명은, 카메라들에 의해 촬영된 영상을 분석하여 객체정보 및 교통정보를 생성한 후, 생성된 교통정보에 따라 최적 현시체계를 생성한 후, 생성된 최적 현시체계에 따라 교통신호가 제어되도록 구성됨으로써 차량 정체율 및 대기시간을 현저히 절감시킬 수 있을 뿐만 아니라 이에 따른 연비소모 및 오염가스 배출량을 효과적으로 줄여 사회적 비용 소모를 절감시킬 수 있는 객체 감응형 차량 흐름 제어 방법을 제공함에 또 다른 목적이 있다.In addition, the present invention analyzes images captured by cameras to generate object information and traffic information, creates an optimal presentation system according to the generated traffic information, and then controls traffic signals according to the generated optimal presentation system. Another purpose is to provide an object-sensitive vehicle flow control method that can significantly reduce vehicle congestion rate and waiting time, as well as reduce social costs by effectively reducing fuel consumption and pollutant gas emissions. there is.

전술한 과제 해결을 위해 본 발명은, 「컴퓨터 장치의 인공지능 기반 영상분석부에 의해 구현되며, (a) 카메라 설치각도와 상기 카메라가 촬영한 영상의 방향성을 분석하여 종방향 소실점 VP1과 횡방향 소실점 VP2를 도출하는 단계; (b) 분석 대상 영상에서 이동하는 객체를 특정하는 단계; (c) 상기 VP1에서 상기 객체의 외연에 접하도록 이어진 좌단 하부 소실선 Van-L1과 우단 상부 소실선 Van-L2를 생성하는 단계; (d) 상기 VP2에서 상기 객체의 외연에 접하도록 이어진 전단 하부 소실선 Van-L3와 후단 상부 소실선 Van-L4를 생성하여, 상기 Van-L1과 Van-L3의 교차점 P1과, 상기 Van-L2와 Van-L4의 교차점 P2가 생성되는 단계; (e) 상기 객체 최좌단이 접하는 좌측 후방 수직선 Ver-L1과, 상기 객체 최우단이 접하는 우측 전방 수직선 Ver-L2를 생성하여, 상기 Ver-L1과 Van-L1의 교차점 P3와, 상기 Ver-L2와 Van-L3의 교차점 P4와, 상기 Ver-L1과 Van-N4의 교차점 P5와, 상기 Ver-L2와 Van-L2의 교차점 P6가 생성되는 단계; (f) 상기 VP2에서 P3를 지나는 소실선 Van-L5와, 상기 VP2에서 P6를 지나는 소실선 Van-L6를 생성하는 단계; (g) 상기 P1을 지나는 좌측 전방 수직선 Ver-L3와, 상기 P2를 지나는 우측 후방 수직선 Ver-L4를 생성하여, 상기 Ver-L3와 Van-L6의 교차점 P7과, 상기 Ver-L4와 Van-L5의 교차점 P8이 생성되는 단계; 및 (h) 상기 P2, P5, P7, P6가 상단 꼭지점을 이루고, 상기 P1, P4, P8, P3가 하단 꼭지점을 이루는 6면체 바운딩 박스를 생성하는 단계; 를 포함하는, 소실점을 이용한 3D 바운딩 박스 생성 방법」을 제공한다.In order to solve the above-mentioned problem, the present invention is implemented by an artificial intelligence-based image analysis unit of a computer device, and (a) analyzes the camera installation angle and the directionality of the image captured by the camera to determine the longitudinal vanishing point VP1 and the transverse direction. Deriving the vanishing point VP2; (b) specifying a moving object in the image to be analyzed; (c) generating a left lower vanishing line Van-L1 and a right upper vanishing line Van-L2 connected from the VP1 to contact the outer edge of the object; (d) In the VP2, a front lower vanishing line Van-L3 and a rear upper vanishing line Van-L4 connected to contact the outer edge of the object are created, and the intersection point P1 of the Van-L1 and Van-L3, and the Van-L2 A step in which the intersection P2 of Van-L4 is created; (e) Create a left rear vertical line Ver-L1 in contact with the leftmost end of the object and a right front vertical line Ver-L2 in contact with the rightmost end of the object, thereby creating an intersection P3 of the Ver-L1 and Van-L1, and the Ver-L2 generating an intersection point P4 of Van-L3, an intersection P5 of Ver-L1 and Van-N4, and an intersection P6 of Ver-L2 and Van-L2; (f) generating a vanishing line Van-L5 passing from the VP2 to P3 and a vanishing line Van-L6 passing from the VP2 to P6; (g) Creating a left front vertical line Ver-L3 passing through P1 and a right rear vertical line Ver-L4 passing through P2, creating an intersection point P7 of Ver-L3 and Van-L6, and Ver-L4 and Van-L5. A step in which the intersection point P8 is created; and (h) generating a hexahedral bounding box in which the P2, P5, P7, and P6 form the upper vertices, and the P1, P4, P8, and P3 form the lower vertices; Provides a “3D bounding box generation method using vanishing points, including.”

또한 본 발명은, 「감지영역인 적어도 하나 이상의 도로를 촬영하여 영상을 획득하는 카메라들과, 상기 감지영역에 설치되는 신호등들의 동작을 제어하는 교통신호 제어기와, 컨트롤러를 포함하는 차량 흐름 제어 시스템의 동작 과정인 객체 감응형 차량 흐름 제어 방법으로서, (A) 상기 카메라들이 자신에게 할당된 도로를 촬영하여 영상을 획득한 후, 상기 컨트롤러로 획득된 영상들을 전송하는 단계; (B) 상기 컨트롤러가 딥-러닝(Deep learning) 기반의 객체분석 알고리즘을 이용하여, 상기 (A)단계를 통해 전송받은 영상들을 분석하여 상기 소실점을 이용한 3D 바운딩 박스 생성 방법에 따라 객체를 감지함과 동시에 감지된 객체의 위치, 종류 및 크기 중 적어도 하나 이상을 포함하는 객체정보를 검출하는 단계; (C) 상기 컨트롤러가 상기 (B)단계에 의해 검출된 객체정보들과, 기 설정된 각 카메라의 촬영영역의 위치정보, 기 도로의 위치정보를 참조하여, 감지된 객체를 트래킹하여 각 객체가 위치한 차로종류, 차선위치, 이동속도 및 방향 중 적어도 하나 이상을 포함하는 객체분석정보를 생성하는 단계; (D) 상기 컨트롤러가 상기 (C)단계에 의해 생성된 객체분석정보를 활용 및 가공하여, 각 연결차로의 대기열, 대기시간 및 교통량 중 적어도 하나 이상을 포함하는 교통정보를 생성하는 단계; (E) 상기 컨트롤러가 상기 (D)단계에 의해 생성된 교통정보를 기반으로 최적 신호체계를 수립하는 단계; 및 (F) 상기 컨트롤러가 상기 (E)단계에 의해 수립된 최적 신호체계 정보를 교통신호 제어기로 전송하고, 상기 교통신호 제어기가 상기 컨트롤러로부터 전송받은 최적 신호체계 정보에 따라 상기 신호등들이 운영되도록 상기 신호등들을 제어하는 단계; 를 포함하는 것을 특징으로 하는 객체 감응형 차량 흐름 제어 방법」을 함께 제공한다.In addition, the present invention is a vehicle flow control system including cameras that acquire images by photographing at least one road that is a detection area, a traffic signal controller that controls the operation of traffic lights installed in the detection area, and a controller. An object-sensitive vehicle flow control method, which is an operation process, comprising: (A) acquiring images by having the cameras photograph a road assigned to them, and then transmitting the obtained images to the controller; (B) The controller analyzes the images received through step (A) using a deep learning-based object analysis algorithm and detects objects according to the 3D bounding box creation method using the vanishing point. simultaneously detecting object information including at least one of the location, type, and size of the detected object; (C) The controller tracks the detected object by referring to the object information detected in step (B), the location information of the preset shooting area of each camera, and the location information of the road, and determines the location of each object. Generating object analysis information including at least one of lane type, lane location, moving speed, and direction; (D) the controller utilizing and processing the object analysis information generated in step (C) to generate traffic information including at least one of queue, waiting time, and traffic volume for each connecting lane; (E) the controller establishing an optimal signal system based on the traffic information generated in step (D); and (F) the controller transmits the optimal signal system information established in step (E) to the traffic signal controller, and the traffic signal controller operates the traffic lights according to the optimal signal system information received from the controller. controlling traffic lights; An object-sensitive vehicle flow control method comprising an object-sensitive vehicle flow control method is also provided.

상기 (B)단계에서는 상기 컨트롤러가 카메라 설치각도 및 거리 정보를 반영한 바운딩 박스 분석에 따라 감지된 객체의 종류와 크기를 추정함으로써 객체정보를 검출하도록 구성할 수 있다.In step (B), the controller can be configured to detect object information by estimating the type and size of the detected object according to bounding box analysis reflecting the camera installation angle and distance information.

본 발명이 제공하는 소실점을 이용한 3D 바운딩 박스 생성 방법에 따르면 객체 인식률을 개선시켜 분석의 분석의 정확성 및 신뢰도를 획기적으로 높일 수 있다.According to the method of generating a 3D bounding box using a vanishing point provided by the present invention, the accuracy and reliability of analysis can be dramatically increased by improving the object recognition rate.

또한, 본 발명이 제공하는 교통신호 제어를 위한 객체 감응형 차량 흐름 제어 방법에 따르면 카메라들에 의해 촬영된 영상을 분석하여 객체정보 및 교통정보를 생성한 후, 생성된 교통정보에 따라 최적 현시체계를 생성한 후, 생성된 최적 현시체계에 따라 교통신호가 제어되도록 구성됨으로써 차량 정체율 및 대기시간을 현저히 절감시킬 수 있을 뿐만 아니라 이에 따른 연비소모 및 오염가스 배출량을 효과적으로 줄여 사회적 비용 소모를 절감시킬 수 있게 된다.In addition, according to the object-sensitive vehicle flow control method for traffic signal control provided by the present invention, images captured by cameras are analyzed to generate object information and traffic information, and then an optimal display system is created according to the generated traffic information. After generating, traffic signals are configured to be controlled according to the created optimal display system, which not only significantly reduces vehicle congestion rate and waiting time, but also effectively reduces fuel consumption and pollutant gas emissions, thereby reducing social costs. It becomes possible.

[도 1a] 내지 [도 1h]는 본 발명이 제공하는 소실점을 이용한 3D 바운딩 박스 생성 방법의 단계별 예시도이다.
[도 2]는 본 발명의 일실시예인 객체 감응형 차량 흐름 제어 방법이 적용되는 차량 흐름 제어 시스템을 나타내는 구성도이다.
[도 3]은 [도 2]를 나타내는 예시도이다.
[도 4]는 본 발명의 일실시예인 객체 감응형 차량 흐름 제어 방법(S1)을 나타내는 플로차트이다.
[도 5]는 [도 4]의 영상분류단계를 나타내는 플로차트이다.
[도 6]은 [도 4]의 인공지능 기반 영상 분석단계를 나타내는 플로차트이다.
[도 7]은 [도 4]의 번호인식단계를 설명하기 위한 예시도이다.
[도 8]은 [도 4]의 위반차량 판별단계에 의해 판별되는 꼬리 물기 위반차량을 나타내는 예시도이다.
[도 11]은 [도 4]의 분류테이블 최적화단계를 나타내는 플로차트이다.
[FIG. 1A] to [FIG. 1H] are step-by-step illustrations of a method for generating a 3D bounding box using a vanishing point provided by the present invention.
[Figure 2] is a configuration diagram showing a vehicle flow control system to which the object-sensitive vehicle flow control method, which is an embodiment of the present invention, is applied.
[Figure 3] is an example diagram showing [Figure 2].
[Figure 4] is a flowchart showing the object-sensitive vehicle flow control method (S1), which is an embodiment of the present invention.
[Figure 5] is a flow chart showing the image classification steps in [Figure 4].
[Figure 6] is a flow chart showing the artificial intelligence-based image analysis steps in [Figure 4].
[Figure 7] is an example diagram to explain the number recognition step in [Figure 4].
[FIG. 8] is an example diagram showing a tail-biting violation vehicle determined by the violation vehicle determination step in [FIG. 4].
[Figure 11] is a flow chart showing the classification table optimization step in [Figure 4].

1. 소실점을 이용한 3D 바운딩 박스 생성 방법1. How to create a 3D bounding box using vanishing points

본 발명은 아래의 (a)단계 내지 (h)단계에 따라 구현되는 "소실점을 이용한 3D 바운딩 박스 생성 방법"을 제공한다. 상기 (a)단계 내지 (h)단계는 모두 컴퓨터 장치의 인공지능 기반 영상분석부에 의해 구현되는 것이며, 후술할 "객체 감응형 차량 흐름 제어 방법"에서는 "컨트롤러"가 상기 "컴퓨터 장치의 인공지능 기반 영상분석부" 역할을 수행한다. The present invention provides a “3D bounding box generation method using vanishing points” implemented according to steps (a) to (h) below. Steps (a) to (h) are all implemented by the artificial intelligence-based image analysis unit of the computer device, and in the “object-sensitive vehicle flow control method” described later, the “controller” is the “artificial intelligence of the computer device.” It performs the role of “based video analysis department.”

이하에서는 첨부된 도면과 함께 "소실점을 이용한 3D 바운딩 박스 생성 방법"의 각 단계를 설명한다. 따라서 이하의 전·후, 상·하, 좌·우 등의 위치 개념은 도면을 기준으로 설정된 것이다.Below, each step of the “3D bounding box creation method using vanishing points” is explained along with the attached drawings. Therefore, the following positional concepts such as front/back, top/bottom, left/right, etc. are established based on the drawing.

(a)단계에서는 [도 1a]에 도시된 바와 같이 카메라 설치각도와 상기 카메라가 촬영한 영상의 방향성을 분석하여 종방향 소실점 VP1과 횡방향 소실점 VP2를 도출한다.In step (a), as shown in [Figure 1a], the camera installation angle and the directionality of the image captured by the camera are analyzed to derive the vertical vanishing point VP1 and the horizontal vanishing point VP2.

(b)단계에서는 [도 1b]에 도시된 바와 같이 분석 대상 영상에서 이동하는 객체를 특정한다. [도 1b]에서는 Object 1, Object 2가 이동하는 객체이며, 이들 각각에 3D 바운딩 박스를 생성할 것이나, 설명의 편의를 위해 이하에서는 Object 1을 대상으로 설명을 이어간다. 이하에서 "객체"는 "Obcect 1"에 해당한다.In step (b), the moving object in the image to be analyzed is specified as shown in [Figure 1b]. In [FIG. 1B], Object 1 and Object 2 are moving objects, and a 3D bounding box will be created for each of them. However, for convenience of explanation, the explanation will focus on Object 1 below. Hereinafter, “object” corresponds to “Obcect 1”.

(c)단계에서는 [도 1c]에 도시된 바와 같이 상기 VP1에서 상기 객체의 외연에 접하도록 이어진 좌단 하부 소실선 Van-L1과 우단 상부 소실선 Van-L2를 생성한다. Van-L1은 VP1에서 객체의 좌단 하부에 접하는 소실선이고, Van-L2는 객체의 우단 상부에 접하는 소실선이다. In step (c), as shown in [FIG. 1C], a left lower vanishing line Van-L1 and a right upper vanishing line Van-L2 connected from the VP1 to contact the outer edge of the object are created. Van-L1 is a vanishing line that touches the lower left end of the object in VP1, and Van-L2 is a vanishing line that touches the upper right end of the object.

(d)단계에서는 [도 1d]에 도시된 바와 같이 상기 VP2에서 상기 객체의 외연에 접하도록 이어진 전단 하부 소실선 Van-L3와 후단 상부 소실선 Van-L4를 생성한다. Van-L3은 VP2에서 객체의 전단 하부에 접하는 소실선이고, Van-L4는 VP2에서 객체의 후단 상부에 접하는 소실선이다. 이에 따라 (d)단계에서는 상기 Van-L1과 Van-L3의 교차점 P1과, 상기 Van-L2와 Van-L4의 교차점 P2가 생성된다. P1은 객체에 대한 3D 바운딩 박스(이하, '바운딩 박스'로 약칭)의 전방 좌측 하단 꼭지점이고, P2는 바운딩 박스의 후방 우측 상단 꼭지점이다.In step (d), as shown in [FIG. 1d], a front lower vanishing line Van-L3 and a rear upper vanishing line Van-L4 connected from the VP2 to contact the outer edge of the object are created. Van-L3 is a vanishing line that touches the lower front end of the object in VP2, and Van-L4 is a vanishing line that touches the upper rear end of the object in VP2. Accordingly, in step (d), an intersection point P1 between Van-L1 and Van-L3 and an intersection point P2 between Van-L2 and Van-L4 are created. P1 is the front lower left vertex of the 3D bounding box (hereinafter abbreviated as 'bounding box') for the object, and P2 is the rear upper right vertex of the bounding box.

(e)단계에서는 [도 1e]에 도시된 바와 같이 상기 객체 최좌단이 접하는 좌측 후방 수직선 Ver-L1과, 상기 객체 최우단이 접하는 우측 전방 수직선 Ver-L2를 생성한다. Ver-L1은 객체의 가장 왼쪽 단부 지점에서 생성된 수직선이고, 상기 Ver-L2는 상기 객체의 가장 오른쪽 단부 지점에서 생성된 수직선이다. 이에 따라 (e)단계에서는 상기 Ver-L1과 Van-L1의 교차점 P3와, 상기 Ver-L2와 Van-L3의 교차점 P4와, 상기 Ver-L1과 Van-N4의 교차점 P5와, 상기 Ver-L2와 Van-L2의 교차점 P6가 생성된다. P3는 바운딩 박스의 후방 좌측 하단 꼭지점이고, P4는 바운딩 박스의 전방 우측 하단 꼭지점이고, P5는 바운딩 박스의 후방 좌측 상단 꼭지점이고, P6는 바운딩 박스의 전방 우측 상단 꼭지점이다.In step (e), as shown in [FIG. 1e], a left rear vertical line Ver-L1 in contact with the leftmost end of the object and a right front vertical line Ver-L2 in contact with the rightmost end of the object are created. Ver-L1 is a vertical line created from the leftmost end point of the object, and Ver-L2 is a vertical line created from the rightmost end point of the object. Accordingly, in step (e), the intersection point P3 of Ver-L1 and Van-L1, the intersection point P4 of Ver-L2 and Van-L3, the intersection point P5 of Ver-L1 and Van-N4, and the intersection point P5 of Ver-L1 and Van-N4, and Ver-L2 The intersection point P6 of Van-L2 is created. P3 is the rear lower left vertex of the bounding box, P4 is the front lower right vertex of the bounding box, P5 is the rear upper left vertex of the bounding box, and P6 is the front upper right vertex of the bounding box.

(f)단계에서는 [도 1f]에 도시된 바와 같이 상기 VP2에서 P3를 지나는 소실선 Van-L5와, 상기 VP2에서 P6를 지나는 소실선 Van-L6를 생성한다. Van-L5에 의해 바운딩 박스의 후방 하단 수평 라인이 형성되고, Van-L6에 의해서는 바운딩 박스의 전방 상단 수평 라인이 형성된다.In step (f), as shown in [FIG. 1f], a vanishing line Van-L5 passing from VP2 to P3 and a vanishing line Van-L6 passing from VP2 to P6 are generated. The rear bottom horizontal line of the bounding box is formed by Van-L5, and the front top horizontal line of the bounding box is formed by Van-L6.

(g)단계에서는 상기 P1을 지나는 좌측 전방 수직선 Ver-L3와, 상기 P2를 지나는 우측 후방 수직선 Ver-L4를 생성한다. Ver-L3은 바운딩 박스의 전방 좌측 수직 라인을 형성하고, Ver-L4는 바운딩 박스의 후방 우측 수직 라인을 형성한다. 이에 따라 (g)단계에서는 상기 Ver-L3와 Van-L6의 교차점 P7과, 상기 Ver-L4와 Van-L5의 교차점 P8이 생성된다. P7은 바운딩 박스의 전방 좌측 상단 꼭지점이고, P8은 바운딩 박스의 후방 우측 하단 꼭지점이다.In step (g), a left front vertical line Ver-L3 passing through P1 and a right rear vertical line Ver-L4 passing through P2 are created. Ver-L3 forms the front left vertical line of the bounding box, and Ver-L4 forms the rear right vertical line of the bounding box. Accordingly, in step (g), the intersection point P7 of Ver-L3 and Van-L6 and the intersection point P8 of Ver-L4 and Van-L5 are created. P7 is the front upper left vertex of the bounding box, and P8 is the rear lower right vertex of the bounding box.

(h)단계에서는 상기 P2, P5, P7, P6가 상단 꼭지점을 이루고, 상기 P1, P4, P8, P3가 하단 꼭지점을 이루는 6면체 바운딩 박스를 생성한다. In step (h), a six-sided bounding box is created in which P2, P5, P7, and P6 form the top vertices, and P1, P4, P8, and P3 form the bottom vertices.

카메라 설치 위치와 객체와의 거리 정보를 반영하여 생성된 바운딩 박스의 실 사이즈와 종횡비 등을 분석할 수 있으며, 이에 따라 감지된 객체의 종류와 크기를 추정할 수 있다. The actual size and aspect ratio of the bounding box created by reflecting the camera installation location and distance information from the object can be analyzed, and the type and size of the detected object can be estimated accordingly.

2. 객체 감응형 차량 흐름 제어 방법2. Object-sensitive vehicle flow control method

[도 2]는 본 발명의 일실시예인 객체 감응형 차량 흐름 제어 방법이 적용되는 차량 흐름 제어 시스템을 나타내는 구성도이고, [도 3]은 [도 2]를 나타내는 예시도이다.[FIG. 2] is a configuration diagram showing a vehicle flow control system to which the object-sensitive vehicle flow control method, which is an embodiment of the present invention, is applied, and [FIG. 3] is an exemplary diagram showing [FIG. 2].

본 발명의 객체 감응형 차량 흐름 제어 방법(S1)이 적용되는 차량 흐름 제어 시스템(1)은 [도 2]와 [도 3]에 도시된 바와 같이, 교차로의 각 차로군을 촬영하는 카메라(5-1), , (5-N)들과, 딥-러닝(Deep learning) 기반의 객체분석 알고리즘을 이용하여 각 카메라(5)의 촬영에 의해 획득된 영상들을 분석하여 객체분석정보를 검출한 후, 검출된 객체분석정보에 대응하는 최적 신호체계를 생성하여 생성된 최적 신호체계에 따른 감응신호를 후술되는 교통신호 제어기(7)로 전송하는 컨트롤러(3)와, 컨트롤러(3)로부터 전송받은 최적 신호체계에 따른 감응신호에 따라 신호등(8)들의 동작을 제어하는 교통신호 제어기(7)와, 도로 갓길 또는 신호등 지주에 설치되어 컨트롤러(3)의 제어에 따라 기 설정된 경고문구를 디스플레이 하는 전시수단(11)들과, 컨트롤러(3)로부터 전송받은 객체분석정보, 교통정보, 위반정보, 위반 영상을 저장 및 모니터링 하는 관제센터서버(9)와, 컨트롤러(3) 및 관제센터서버(9) 사이의 데이터 이동경로를 제공하는 통신망(10)으로 이루어진다.As shown in [FIG. 2] and [FIG. 3], the vehicle flow control system (1) to which the object-sensitive vehicle flow control method (S1) of the present invention is applied includes a camera (5) that photographs each lane group at an intersection. -1), , (5-N), and object analysis information is detected by analyzing the images obtained by shooting each camera 5 using a deep learning-based object analysis algorithm. , a controller 3 that generates an optimal signal system corresponding to the detected object analysis information and transmits a response signal according to the generated optimal signal system to the traffic signal controller 7, which will be described later, and an optimal signal system received from the controller 3. A traffic signal controller (7) that controls the operation of the traffic lights (8) according to the response signal according to the signal system, and an exhibition means installed on the shoulder of the road or a traffic light pole to display a preset warning message under the control of the controller (3) (11) and the control center server (9) that stores and monitors object analysis information, traffic information, violation information, and violation images transmitted from the controller (3), and between the controller (3) and the control center server (9) It consists of a communication network (10) that provides a data movement path.

카메라(5-1), , (5-N)들은 교차로(S)에 연결되는 각 연결차로들을 촬영하도록 설치되며, 해당 연결차로를 촬영하여 획득된 영상을 컨트롤러(3)로 전송한다.Cameras 5-1, , (5-N) are installed to photograph each connecting lane connected to the intersection S, and transmit the image acquired by photographing the corresponding connecting lane to the controller 3.

[도 4]는 본 발명의 일실시예인 객체 감응형 차량 흐름 제어 방법(S1)을 나타내는 플로차트이다.[Figure 4] is a flowchart showing the object-sensitive vehicle flow control method (S1), which is an embodiment of the present invention.

본 발명의 일실시예인 객체 감응형 차량 흐름 제어 방법(S1)은 입력영상으로부터 객체를 감지하기 위한 딥-러닝(Deep learning) 알고리즘의 모델을 도로 환경에 적합하도록 최적화시킴과 동시에 카메라의 촬영에 의해 영상 획득 시, 딥-러닝을 이용하여 영상을 분석하여 객체(차량 및 보행자)를 검출한 후, 검출된 객체정보를 기반으로 신호체계를 수립함으로써 영상분석을 통한 객체 감지 및 트래킹의 정확성을 현저히 높임에 따라 신호 제어의 신뢰도를 높일 수 있을 뿐만 아니라 교차로의 차량 대기시간이 현저히 절감되며, 현장에서 실시간 영상처리가 가능하게 된다.The object-sensitive vehicle flow control method (S1), which is an embodiment of the present invention, optimizes the model of the deep learning algorithm for detecting objects from the input image to suit the road environment and at the same time captures the object using a camera. When acquiring images, the images are analyzed using deep learning to detect objects (vehicles and pedestrians), and then a signal system is established based on the detected object information, significantly increasing the accuracy of object detection and tracking through image analysis. As a result, not only can the reliability of signal control be increased, but vehicle waiting time at intersections is significantly reduced, and real-time image processing is possible in the field.

본 발명의 객체 감응형 차량 흐름 제어 방법(S1)은 [도 4]에 도시된 바와 같이, 학습단계(S10)와, 카메라 촬영단계(S20), 영상전송단계(S30), 영상분류단계(S40), 인공지능 기반 영상 분석단계(S50), 사용량 모니터링 단계(S60), 객체상세정보 생성단계(S70), 교통정보 생성단계(S80), 번호인식단계(S90), 위반차량 판별단계(S100), 신호체계 수립단계(S110), 신호제어단계(S120), 분류테이블 최적화단계(S130)로 구분할 수 있다.As shown in [Figure 4], the object-sensitive vehicle flow control method (S1) of the present invention includes a learning step (S10), a camera shooting step (S20), an image transmission step (S30), and an image classification step (S40). ), artificial intelligence-based image analysis step (S50), usage monitoring step (S60), object detailed information generation step (S70), traffic information generation step (S80), number recognition step (S90), violation vehicle determination step (S100) , It can be divided into a signal system establishment stage (S110), a signal control stage (S120), and a classification table optimization stage (S130).

이하에서는 첨부된 도면과 함께 "객체 감응형 차량 흐름 제어 방법"을 (A)단계 내지 (E)단계로 구분하여 설명한다.Hereinafter, the “object-sensitive vehicle flow control method” will be divided into steps (A) to (E) and explained together with the attached drawings.

(A)단계는 상기 카메라들이 자신에게 할당된 도로를 촬영하여 영상을 획득한 후, 상기 컨트롤러로 획득된 영상들을 전송하는 단계로, 본 (A)단계에는 상기 학습단계(S10), 카메라 촬영단계(S20) 및 영상전송단계(S30)가 포함된다. Step (A) is a step where the cameras acquire images by filming the road assigned to them and then transmit the acquired images to the controller. This step (A) includes the learning step (S10) and the camera shooting step. (S20) and video transmission step (S30) are included.

상기 학습단계(S10)는 기 설정된 주기1(T1) 마다 진행되며, 컨트롤러(3)가 딥-러닝(Deep learning) 기반의 객체분석 알고리즘을 학습화하는 단계이다. 또한 학습단계(S10)는 주기1(T1) 동안 수집된 영상과 기 설정된 객체종류를 활용하여, 영상 및 객체종류 간의 상관관계를 학습할 수 있는 학습데이터를 생성하고 생성된 학습데이터를 활용하여 객체영상 및 객체종류 간의 상관관계에 대한 파라미터 값들의 집합인 추출모델을 도출한다.The learning step (S10) is performed every preset period 1 (T1), and is a step in which the controller 3 learns an object analysis algorithm based on deep learning. In addition, the learning step (S10) uses the images collected during cycle 1 (T1) and preset object types to generate learning data that can learn the correlation between images and object types, and uses the generated learning data to create objects. An extraction model, which is a set of parameter values for the correlation between images and object types, is derived.

상기 카메라 촬영단계(S20)는 카메라(5)들이 자신에게 할당된 연결차로를 촬영하여 영상을 획득하는 단계이다.The camera shooting step (S20) is a step in which the cameras 5 acquire images by photographing the connecting lane assigned to them.

이때 카메라(5)들은 기 설정된 촬영영역인 연결차로를 촬영 가능하도록 교차로(S)에 다양한 방식으로 설치될 수 있으며, 상세하게로는 기존에 설치되어 있던 신호등 지주의 상단부에 별도의 보조-암을 통해 결합됨에 따라 촬영 각도가 상부에서 하부를 향하는 방향으로 설치되며 PTZ(Pan-Tilt-Zoom) 제어가 가능한 통상의 PTZ 카메라로 구현되는 것이 바람직하다.At this time, the cameras 5 can be installed in various ways at the intersection (S) to be able to photograph the connecting lane, which is a preset shooting area. In detail, a separate auxiliary arm is installed at the upper end of the traffic light support that was previously installed. As it is combined through the camera, it is preferable to install it with a shooting angle from the top to the bottom and implement it as a regular PTZ camera capable of PTZ (Pan-Tilt-Zoom) control.

상기 영상전송단계(S30)는 카메라(5)들이 촬영된 영상을 컨트롤러(3)로 전송하는 단계이다.The image transmission step (S30) is a step in which images captured by the cameras 5 are transmitted to the controller 3.

(B)단계는 상기 컨트롤러가 딥-러닝(Deep learning) 기반의 객체분석 알고리즘을 이용하여, 상기 (A)단계를 통해 전송받은 영상들을 분석하여 전술한 "소실점을 이용한 3D 바운딩 박스 생성 방법"에 따라 객체를 감지함과 동시에 감지된 객체의 위치, 종류 및 크기 중 적어도 하나 이상을 포함하는 객체정보를 검출하는 단계이다. 본 (B)단계에는 영상분류단계(S40) 및 인공지능 기반 영상 분석단계(S50)가 포함될 수 있다. In step (B), the controller uses a deep learning-based object analysis algorithm to analyze the images transmitted through step (A) and performs the above-mentioned "3D bounding box generation method using vanishing points." This is a step of detecting an object and simultaneously detecting object information including at least one of the location, type, and size of the detected object. This step (B) may include an image classification step (S40) and an artificial intelligence-based image analysis step (S50).

[도 5]는 [도 4]의 영상분류단계(S40)를 나타내는 플로차트이다.[Figure 5] is a flow chart showing the image classification step (S40) in [Figure 4].

상기 영상분류단계(S40)는 도 7에 도시된 바와 같이, 영상입력단계(S41)와, 비교단계(S42), 분류모드 판별단계(S43), 일대일기반 분류단계(S44), 분류테이블기반 분류단계(S45)로 이루어진다.As shown in FIG. 7, the image classification step (S40) includes an image input step (S41), a comparison step (S42), a classification mode determination step (S43), a one-to-one based classification step (S44), and a classification table-based classification. It consists of step S45.

상기 영상입력단계(S41)는 컨트롤러(3)가 영상전송단계(S30)를 통해 카메라(5)들로부터 전송받은 영상을 입력받는 단계이다.The image input step (S41) is a step in which the controller 3 receives images transmitted from the cameras 5 through the video transmission step (S30).

상기 비교단계(S42)는 컨트롤러(3)가 영상입력단계(S41)를 통해 입력받은 영상들의 수량(N)과, 컨트롤러(3)에 구비된 GPU(Graphic Processing Unit)의 전체 수량(M)을 비교하는 단계이다.In the comparison step (S42), the controller 3 determines the quantity (N) of images input through the image input step (S41) and the total number (M) of GPUs (Graphic Processing Units) provided in the controller 3. This is the comparison stage.

상기 분류모드 판별단계(S43)는 비교단계(S42)에서, 1) 입력된 영상 수량(N)이 GPU 수량(M) 이하(N ≤ M)이면, 각 영상이 단일 GPU에서 처리(일대일기반 영상분류)되어야 한다고 판단하며, 2) 입력된 영상 수량(N)이 GPU 수량(M)을 초과(N > M)하면, 적어도 하나 이상의 GPU에서 2개 이상의 영상을 처리(분류테이블기반 영상분류)되어야 한다고 판단한다.The classification mode determination step (S43) is performed in the comparison step (S42): 1) If the input image quantity (N) is less than or equal to the GPU quantity (M) (N ≤ M), each image is processed on a single GPU (one-to-one based image 2) If the input image quantity (N) exceeds the GPU quantity (M) (N > M), two or more images must be processed (classification table-based image classification) on at least one GPU. I judge that it does.

상기 일대일기반 분류단계(S44)는 분류모드 판별단계(S43)에서, 입력된 영상 수량(N)이 GPU 수량(N) 이하(N ≤ M)일 때 진행되며, 각 카메라(5)의 영상이 단일 GPU에서 처리되도록 영상들을 각 GPU로 분류하여 입력한다. 이때 컨트롤러(3)는 일대일기반일 때, 각 카메라의 영상이 분류되는 GPU 정보가 기 설정되어 저장된다.The one-to-one based classification step (S44) is performed when the input image quantity (N) is less than the GPU quantity (N) (N ≤ M) in the classification mode determination step (S43), and the images from each camera 5 are Images are classified and input into each GPU to be processed on a single GPU. At this time, when the controller 3 is on a one-to-one basis, GPU information by which images from each camera are classified is preset and stored.

즉 일대일기반 분류단계(S44)는 카메라(5)의 촬영에 의해 획득된 영상들을 일대일로 각 GPU에 입력한다.That is, the one-to-one based classification step (S44) inputs the images obtained by shooting with the camera 5 to each GPU on a one-to-one basis.

분류테이블기반 분류단계(S45)는 분류모드 판별단계(S33)에서, 입력된 영상 수량(N)이 GPU 수량(N)을 초과(N > M)할 때 진행되며, 후술되는 분류테이블 최적화단계(S120)에 의해 최적화된 분류테이블을 메모리(M)로부터 추출한 후, 추출된 분류테이블에 따라, 카메라(5)로부터 전송받은 영상들을 GPU들로 분류하며, 각 영상을 분류된 GPU로 입력하는 단계이다.The classification table-based classification step (S45) is performed when the input image quantity (N) exceeds the GPU quantity (N) (N > M) in the classification mode determination step (S33), and the classification table optimization step (described later) After extracting the classification table optimized by S120) from the memory (M), the images received from the camera 5 are classified into GPUs according to the extracted classification table, and each image is input to the classified GPU. .

이때 분류테이블은 각 카메라로부터 입력된 영상을 처리할 대상인 GPU가 매칭되는 데이터를 의미하고, 후술되는 분류테이블 최적화단계(S130)에 의해 기 설정된 주기2(T2) 마다 최적화되어 메모리(M)에 저장된다.At this time, the classification table refers to data matched by the GPU, which is the object of processing the images input from each camera, and is optimized and stored in the memory (M) every preset period 2 (T2) by the classification table optimization step (S130), which will be described later. do.

[도 6]은 [도 4]의 인공지능 기반 영상 분석단계(S50)를 나타내는 플로차트이다.[Figure 6] is a flow chart showing the artificial intelligence-based image analysis step (S50) of [Figure 4].

상기 인공지능 기반 영상 분석단계(S50)는 [도 6]에 도시된 바와 같이, 영상입력단계(S51-1, …, 51-N)들과, 알고리즘 추출단계(S52), 영상분석단계(S53-1, …, S53-N)들로 이루어진다. As shown in [FIG. 6], the artificial intelligence-based image analysis step (S50) includes image input steps (S51-1, ..., 51-N), algorithm extraction step (S52), and image analysis step (S53). -1, …, S53-N).

상기 영상입력단계(S51-1, …, S51-N)들은 컨트롤러(3)가 전술하였던 영상분류단계(S40)에 의해 분류된 바에 따라, 카메라(5)로부터 전송받은 영상을 각 GPU로 입력하는 단계이다. 즉 각 GPU에는 영상분류단계(S40)에 의해 분류된 바에 따라, 영상을 입력받는다.The image input steps (S51-1, ..., S51-N) input the video received from the camera 5 to each GPU according to the controller 3's classification by the video classification step (S40) described above. It's a step. That is, each GPU receives an image according to the classification in the image classification step (S40).

상기 알고리즘 추출단계(S52)는 컨트롤러(3)가 학습단계(S10)에 의해 학습되어 메모리(M)에 저장된 객체분석 알고리즘을 추출하는 단계이다. The algorithm extraction step (S52) is a step in which the controller 3 extracts the object analysis algorithm learned in the learning step (S10) and stored in the memory (M).

상기 영상분석단계(S53-1, …, S53-N)들은 각 GPU가 알고리즘 추출단계(S52)에 의해 추출된 객체분석 알고리즘을 이용하여, 영상입력단계(S51)를 통해 자신에게 입력된 영상을 분석하여 객체정보(인식, 위치, 종류, 크기 등)를 출력하는 단계이다. 이 때 객체 분석은 전술한 "소실점을 이용한 3D 바운딩 박스 생성 방법"에 따라 생성된 3D 바운딩 박스를 매개로 실시한다. 상기 컨트롤러(3)는 카메라 설치각도 및 거리 정보를 반영한 바운딩 박스 분석에 따라 감지된 객체의 종류와 크기를 추정함으로써 객체정보를 검출할 수 있다.In the image analysis steps (S53-1, ..., S53-N), each GPU uses the object analysis algorithm extracted by the algorithm extraction step (S52) to analyze the image input to itself through the image input step (S51). This is the step of analyzing and outputting object information (recognition, location, type, size, etc.). At this time, object analysis is performed using a 3D bounding box created according to the above-described “3D bounding box generation method using vanishing points.” The controller 3 can detect object information by estimating the type and size of the detected object according to bounding box analysis reflecting the camera installation angle and distance information.

(C)단계는 상기 컨트롤러가 상기 (B)단계에 의해 검출된 객체정보들과, 기 설정된 각 카메라의 촬영영역의 위치정보, 기 도로의 위치정보를 참조하여, 감지된 객체를 트래킹하여 각 객체가 위치한 차로종류, 차선위치, 이동속도 및 방향 중 적어도 하나 이상을 포함하는 객체분석정보를 생성하는 단계이다. 본 (C)단계에는 사용량 모니터링 단계(S60) 및 객체상세정보 생성단계(S70)가 포함될 수 있다.In step (C), the controller tracks the detected objects by referring to the object information detected in step (B), the location information of the preset shooting area of each camera, and the location information of the road, and tracks each object. This is the step of generating object analysis information including at least one of the lane type, lane location, moving speed, and direction in which the is located. This step (C) may include a usage monitoring step (S60) and an object detailed information creation step (S70).

상기 사용량 모니터링 단계(S60)는 전술하였던 영상분석단계(S53-1, …, S53-N)들을 통해 GPU들 중 적어도 하나 이상에서 영상처리가 이루어질 때 진행되며, 영상처리가 수행된 GPU에서 영상분석을 위한 사용량(부하량)을 검출하며, 검출된 사용량 정보를 메모리(M)에 저장하는 단계이다.The usage monitoring step (S60) is performed when image processing is performed on at least one of the GPUs through the above-described image analysis steps (S53-1, ..., S53-N), and image analysis is performed on the GPU on which image processing was performed. This is the step of detecting the usage (load) for and storing the detected usage information in memory (M).

이때 사용량 모니터링 단계(S60)는 각 GPU의 영상분석단계(S53-1, …, S53-N)들이 모두 진행되지 않는 경우에는 별도로 진행되지 않는다. 즉 사용량 모니터링 단계(S60)는 영상 분석을 위한 연산처리로 인한 각 GPU의 사용량을 실시간 검출한 후, 이를 메모리(M)에 저장한다.At this time, the usage monitoring step (S60) is not performed separately if all of the image analysis steps (S53-1, ..., S53-N) of each GPU are not performed. That is, the usage monitoring step (S60) detects in real time the usage of each GPU due to computational processing for image analysis and then stores it in the memory (M).

상기 객체상세정보 생성단계(S70)는 컨트롤러(3)가 영상분석단계(35-1, …, 35-M)들에 의해 검출된 객체정보들과, 기 설정된 각 카메라(5)의 감지영역의 위치정보와, 교차로(S) 및 각 연결차로(S1, S2, S3, S4)의 위치정보를 참조하며, 감지된 객체를 트래킹하여, 각 객체가 위치한 차로종류, 차선위치, 이동속도 및 방향 등을 포함하는 객체분석정보를 생성하는 단계이다.In the object detailed information generation step (S70), the controller 3 generates object information detected by the image analysis steps 35-1, ..., 35-M and the preset detection area of each camera 5. By referring to the location information, the location information of the intersection (S) and each connecting lane (S1, S2, S3, S4), and tracking the detected objects, the type of lane in which each object is located, lane location, moving speed and direction, etc. This is the step of generating object analysis information including.

(D)단계는 상기 컨트롤러가 상기 (C)단계에 의해 생성된 객체분석정보를 활용 및 가공하여, 각 연결차로의 대기열, 대기시간 및 교통량 중 적어도 하나 이상을 포함하는 교통정보를 생성하는 단계이다. 본 (D)단계에는 교통정보 생성단계(S80), 번호인식단계(S90) 및 위반차량 판별단계(S100)가 포함될 수 있다.Step (D) is a step in which the controller utilizes and processes the object analysis information generated in step (C) to generate traffic information including at least one of the queue, waiting time, and traffic volume of each connecting lane. . This step (D) may include a traffic information generation step (S80), a number recognition step (S90), and a violation vehicle determination step (S100).

상기 교통정보 생성단계(S80)는 객체분석정보 생성단계(S70)에 의해 생성된 객체분석정보를 활용 및 가공하여, 각 연결차로의 대기열, 대기시간 및 교통량 등을 포함하는 교통정보를 생성하는 단계이다.The traffic information generation step (S80) utilizes and processes the object analysis information generated in the object analysis information generation step (S70) to generate traffic information including the queue, waiting time, and traffic volume of each connecting lane. am.

[도 7]은 [도 4]의 번호인식단계(S90)를 설명하기 위한 예시도이다.[Figure 7] is an example diagram for explaining the number recognition step (S90) of [Figure 4].

상기 번호인식단계(S90)는 객체상세정보 생성단계(S70) 이후에, 교통정보 생성단계(S80)와 병렬로 진행되며, 컨트롤러(3)가 객체상세정보 생성단계(S70)에 의해 생성된 객체분석정보와, 교통신호 제어기(7)의 현재 현시정보, 교차로(S) 및 각 연결차로(S1, S2, S3, S4)의 위치정보를 활용하여, 차량이 각 연결차로가 교차로(S)와 연결되는 구간을 통과하는 차량의 영상을 분석하여 차량번호를 인식하는 단계이다.The number recognition step (S90) is performed in parallel with the traffic information generation step (S80) after the object detailed information generation step (S70), and the controller 3 controls the object generated by the object detailed information generation step (S70). By utilizing the analysis information, the current display information of the traffic signal controller 7, and the location information of the intersection (S) and each connecting lane (S1, S2, S3, and S4), the vehicle is connected to the intersection (S) and each connecting lane. This is the step to recognize the license plate number by analyzing the video of the vehicle passing through the connected section.

[도 8]은 도 4의 위반차량 판별단계(100)에 의해 판별되는 꼬리 물기 위반 차량을 나타내는 예시도이다.[FIG. 8] is an example diagram showing a tail biting violation vehicle determined by the violation vehicle determination step 100 of FIG. 4.

상기 위반차량 판별단계(S100)는 컨트롤러(3)가 객체상세정보 생성단계(S70)에 의해 생성된 객체분석정보와, 교통신호 제어기(7)의 현재 현시정보, 교차로(S) 및 각 연결차로(S1, S2, S3, S4)의 위치정보를 활용하여, [도 8]에 도시된 바와 같이, 꼬리물기 등의 위반차량을 검출하는 단계이다.The violation vehicle determination step (S100) is performed by the controller (3) using the object analysis information generated by the object detailed information generation step (S70), the current display information of the traffic signal controller (7), the intersection (S), and each connecting lane. This is the step of detecting violation vehicles such as tailgating, as shown in [Figure 8], by utilizing the location information of (S1, S2, S3, S4).

(E)단계는 상기 컨트롤러가 상기 (D)단계에 의해 생성된 교통정보를 기반으로 최적 신호체계를 수립하는 단계이다. Step (E) is a step in which the controller establishes an optimal signal system based on the traffic information generated in step (D).

본 (E)단계는 신호체계 수립단계(S110)라 칭할 수 있으며, 상기 신호체계 수립단계(S110)는 컨트롤러(3)가 기 설정된 최적 신호 검출 알고리즘을 이용하여, 교통정보 생성단계(S80)에 의해 생성된 교통정보를 분석하여, 현재 교통정보에 따른 최적 신호체계를 수립하는 단계이다.This step (E) can be referred to as the signal system establishment step (S110), in which the controller 3 uses a preset optimal signal detection algorithm to generate traffic information (S80). This is the step of analyzing the traffic information generated and establishing an optimal signal system according to the current traffic information.

(F)단계는 상기 컨트롤러가 상기 (E)단계에 의해 수립된 최적 신호체계 정보를 교통신호 제어기로 전송하고, 상기 교통신호 제어기가 상기 컨트롤러로부터 전송받은 최적 신호체계 정보에 따라 상기 신호등들이 운영되도록 상기 신호등들을 제어하는 단계이다. 본 (F)단계에는 신호제어단계(S120) 및 분류테이블 최적화단계(S130)가 포함될 수 있다.In step (F), the controller transmits the optimal signal system information established in step (E) to the traffic signal controller, and the traffic signal controller operates the traffic lights according to the optimal signal system information received from the controller. This is the step of controlling the traffic lights. This step (F) may include a signal control step (S120) and a classification table optimization step (S130).

상기 신호제어단계(S120)는 컨트롤러(3)가 신호체계 수립단계(S110)에 의해 수립된 최적 신호체계 정보를 교통신호 제어기(7)로 전송하고, 교통신호 제어기(7)가 컨트롤러(3)로부터 전송받은 최적 신호체계 정보에 따라 신호등(8)들의 동작을 관리 및 제어하는 단계이다.In the signal control step (S120), the controller (3) transmits the optimal signal system information established by the signal system establishment step (S110) to the traffic signal controller (7), and the traffic signal controller (7) transmits the optimal signal system information established by the signal system establishment step (S110) to the traffic signal controller (7). This is the step of managing and controlling the operation of the traffic lights 8 according to the optimal signaling system information received from.

이때 교통정보를 기반으로 최적 신호체계를 수립하는 최적 신호 검출 알고리즘에 대한 기술 및 방법은 신호 제어시스템에 있어서 통상적으로 사용되는 기술 및 방법이기 때문에 상세한 설명은 생략하기로 하고, 공지된 알고리즘이나 향후 개발될 알고리즘이 적용될 수 있다.At this time, since the technology and method for the optimal signal detection algorithm that establishes the optimal signal system based on traffic information is a technology and method commonly used in signal control systems, a detailed description will be omitted, and the known algorithm or future development will be omitted. Algorithms can be applied.

[도 9]는 [도 4]의 분류테이블 최적화단계(S130)를 나타내는 플로차트이다.[FIG. 9] is a flow chart showing the classification table optimization step (S130) in [FIG. 4].

[도 9]의 분류테이블 최적화단계(S130)는 기 설정된 주기2(T2) 마다 실행된다.The classification table optimization step (S130) in [FIG. 9] is executed every preset period 2 (T2).

또한 분류테이블 최적화단계(S130)는 데이터 수집단계(S131)와, 각 GPU별 총사용량 산출단계(S132), 각 GPU별 평균사용량 산출단계(S133), GPU 식별번호 초기화단계(S134), GPU 선택단계(S135), 비교 및 판별단계(S136), 점검후보 결정단계(S137), 제1 잔여 GPU 존재여부 판별단계(S138), GPU 식별번호 추가단계(S139), 제2 잔여 GPU 존재여부 판별단계(S140), 점검후보 존재여부 판별단계(S141), GPU 정렬단계(S142), 변경대상 결정단계(S143), 분류테이블 최적화단계(S144)로 이루어진다.In addition, the classification table optimization step (S130) includes a data collection step (S131), a total usage calculation step for each GPU (S132), an average usage calculation step for each GPU (S133), a GPU identification number initialization step (S134), and GPU selection. Step (S135), comparison and determination step (S136), inspection candidate determination step (S137), first remaining GPU presence determination step (S138), GPU identification number addition step (S139), second remaining GPU presence determination step It consists of (S140), a step to determine whether an inspection candidate exists (S141), a GPU sorting step (S142), a change target decision step (S143), and a classification table optimization step (S144).

상기 데이터 수집단계(S131)는 컨트롤러(3)가 기 설정된 주기2(T2) 동안 메모리(M)에 저장된 각 GPU별 사용량 데이터들을 수집하는 단계이다. The data collection step (S131) is a step in which the controller 3 collects usage data for each GPU stored in the memory (M) during a preset period 2 (T2).

상기 각 GPU 총사용량 산출단계(S132)는 데이터 수집단계(S131)에 의해 수집된 각 GPU별 사용량 데이터들을 활용하여, 각 GPU별 총사용량을 산출하는 단계이다.The step of calculating the total usage of each GPU (S132) is a step of calculating the total usage of each GPU by utilizing the usage data of each GPU collected in the data collection step (S131).

상기 각 GPU 평균사용량 산출단계(S133)는 컨트롤러(3)에 구비된 GPU의 수량을 ‘m’이고, 각 GPU에 1부터 m까지의 식별번호(i)가 부여되었다고 가정할 때, 각 GPU 총사용량 산출단계(S132)에 의해 산출된 각 별 총사용량과 주기(T2)를 활용하여, 각 별로 시간당 평균사용량( )을 산출한다.In the step of calculating the average usage of each GPU (S133), assuming that the quantity of GPUs provided in the controller 3 is 'm' and that each GPU is assigned an identification number (i) from 1 to m, the total amount of each GPU is Each calculated by the usage calculation step (S132) Using the total usage and cycle (T2) for each, the average usage per hour for each ( ) is calculated.

상기 GPU 식별번호 초기화단계(S134)는 점검대상인 GPU의 식별번호(i)를‘1’로 초기화하는 단계이다. The GPU identification number initialization step (S134) is a step of initializing the identification number (i) of the GPU to be inspected to ‘1’.

상기 GPU 선택단계(S135)는 GPU 식별번호 초기화단계(S134) 또는 GPU 식별번호 추가단계(S138)에 의해 산출된 식별번호(i)를 갖는 GPU를 선택하는 단계이다.The GPU selection step (S135) is a step of selecting a GPU with the identification number (i) calculated by the GPU identification number initialization step (S134) or the GPU identification number addition step (S138).

상기 비교 및 판별단계(S136)는 GPU 선택단계(S135)에 의해 선택된 GPUi의 평균사용량()을 기 설정된 상한설정값(TH)과 비교하며, 상세하게로는 해당 GPUi의 평균사용량()이 상한설정값(TH) 이상( ≥ TH)인지를 비교하는 단계이다.The comparison and determination step (S136) is the average usage of GPUi selected by the GPU selection step (S135) ( ) is compared with the preset upper limit value (TH), and in detail, the average usage of the corresponding GPUi ( ) is more than the upper limit setting value (TH) ( ≥ TH) is the step to compare.

이때 상한설정값(TH)은 해당 GPU에서 과부하가 발생하였다고 판단할 수 있는 사용량 최소값으로 정의된다.At this time, the upper limit value (TH) is defined as the minimum usage value at which it can be determined that an overload has occurred in the relevant GPU.

또한 비교 및 판별단계(S136)는 1) GPUi의 평균사용량( )이 상한설정값(TH) 이상( ≥ TH)이면, 해당 GPUi에 과부하가 발생하였다고 판단하여 다음 단계로 점검후보 결정단계(S137)를 진행하되, 2) GPUi의 평균사용량()이 상한설정값(TH) 미만( < TH)이면, 해당 GPUi에 과부하가 발생하지 않았다고 판단하여 다음 단계로 제1 잔여 GPU 존재여부 판별단계(S138)를 진행한다.In addition, the comparison and determination step (S136) is 1) the average usage of GPUi ( ) is more than the upper limit setting value (TH) ( ≥ TH), it is determined that the GPUi is overloaded and the next step is the inspection candidate decision step (S137), but 2) the average usage of GPUi ( ) is less than the upper limit setting value (TH) ( < TH), it is determined that the GPUi is not overloaded, and the next step is to determine whether the first remaining GPU exists (S138).

상기 점검후보 결정단계(S137)는 비교 및 판별단계(S136)에서, GPUi의 평균사용량()이 상한설정값(TH) 이상( ≥ TH)임에 따라 해당 GPUi에 과부하가 발생하였다고 판단될 때 진행되며, 해당 GPUi를 점검대상으로 결정하는 단계이다.In the inspection candidate decision step (S137), the average usage of GPUi ( ) is more than the upper limit setting value (TH) ( ≥ TH), it proceeds when it is determined that the GPUi is overloaded, and this is the step to determine the GPUi as the inspection target.

상기 제1 잔여GPU 존재여부 판별단계(S138)는 비교 및 판별단계(S136)에서, GPUi의 평균사용량()이 상한설정값(TH) 미만( < TH)임에 따라 해당 GPUi에 과부하가 발생하지 않았다고 판단될 때 진행되며, 현재 식별번호(i)가 최종 식별번호 ‘m’ 이상인지를 비교하는 단계이다. 이때 잔여GPU는 상기 단계136(S136)에서, 아직 평균사용량 및 상한설정값(TH)의 비교가 이루어지지 않은 GPU를 의미한다.In the first remaining GPU presence determination step (S138), in the comparison and determination step (S136), the average usage of GPUi ( ) is less than the upper limit setting value (TH) ( < TH), it proceeds when it is determined that the GPUi is not overloaded, and is a step to compare whether the current identification number (i) is greater than or equal to the final identification number 'm'. At this time, the remaining GPU refers to a GPU for which the average usage and upper limit value (TH) have not yet been compared in step 136 (S136).

또한 제1 잔여GPU 존재여부 판별단계(S138)는 1) 만약 현재 식별번호(i)가 최종 식별번호 ‘m’ 이상이면, 잔여GPU가 존재하지 않는다고 판단하여 다음 단계로 점검후보 존재여부 판별단계(S141)를 진행하고, 2)만약 현재 식별번호(i)가 최종 식별번호 ‘m’ 미만이면, 잔여GPU가 존재한다고 판단하여 다음 단계로 GPU 식별번호 추가단계(S139)를 진행한다.In addition, the first remaining GPU presence determination step (S138) is 1) if the current identification number (i) is greater than or equal to the final identification number 'm', it is determined that no remaining GPU exists and the next step is the inspection candidate presence determination step ( Proceed with S141), and 2) if the current identification number (i) is less than the final identification number 'm', it is determined that there is a remaining GPU and the next step is to add the GPU identification number (S139).

상기 GPU 식별번호 추가단계(S139)는 제1 잔여GPU 존재여부 판별단계(S138)에서, 현재 식별번호(i)가 최종 식별번호 ‘m’ 미만임에 따라 잔여GPU가 존재한다고 판단될 때 진행되며, 현재 GPU 식별번호(i)에 ‘1’을 추가하는 단계이다.The GPU identification number adding step (S139) is performed when it is determined that a remaining GPU exists because the current identification number (i) is less than the final identification number 'm' in the first remaining GPU presence determination step (S138). , This is the step of adding '1' to the current GPU identification number (i).

또한 상기 GPU 식별번호 추가단계(S139)는 다음 단계로 GPU 선택단계(S135)를 진행하여 GPU 선택단계(S135)의 과정을 반복한다.In addition, the GPU identification number addition step (S139) proceeds to the GPU selection step (S135) as the next step and repeats the process of the GPU selection step (S135).

또한 상기 제2 잔여GPU 존재여부 판별단계(S140)는 점검후보 결정단계(S137) 이후에 진행되며, 현재 식별번호(i)가 최종 식별번호 ‘m’ 이상인지를 비교하는 단계이다.In addition, the second remaining GPU presence determination step (S140) is performed after the inspection candidate determination step (S137) and is a step of comparing whether the current identification number (i) is greater than or equal to the final identification number ‘m’.

또한 제2 잔여GPU 존재여부 판별단계(S140)는 1)만약 현재 식별번호(i)가 최종 식별번호 ‘m’ 이상이면, 잔여GPU가 존재하지 않는다고 판단하여 다음 단계로 점검후보 존재여부 판별단계(S141)를 진행하고, 2)만약 현재 식별번호(i)가 최종 식별번호 ‘m’ 미만이면, 잔여GPU가 존재한다고 판단하여 다음 단계로 GPU 식별번호 추가단계(S139)를 진행한다.In addition, the second remaining GPU presence determination step (S140) is 1) If the current identification number (i) is greater than or equal to the final identification number 'm', it is determined that no remaining GPU exists and the next step is the inspection candidate presence determination step ( Proceed with S141), and 2) if the current identification number (i) is less than the final identification number 'm', it is determined that there is a remaining GPU and the next step is to add the GPU identification number (S139).

상기 점검후보 존재여부 판별단계(S141)는 점검후보 결정단계(S137)에 의해 적어도 하나 이상의 GPU가 점검후보로 결정되었는지 여부를 판단하는 단계이다.The inspection candidate presence determination step (S141) is a step of determining whether at least one GPU has been determined as an inspection candidate by the inspection candidate determination step (S137).

또한 상기 점검후보 존재여부 판별단계(S141)는 1)만약 점검후보로 결정된 GPU가 존재하면, 다음 단계로 GPU 정렬단계(S142)를 진행하고, 2)만약 점검후보로 결정된 GPU가 존재하지 않으면, 다음 단계를 진행하지 않고 종료한다.In addition, in the above inspection candidate presence determination step (S141), 1) if the GPU determined as the inspection candidate exists, the GPU sorting step (S142) proceeds to the next step, and 2) if the GPU determined as the inspection candidate does not exist, Quit without proceeding to the next step.

상기 GPU 정렬단계(S142)는 점검후보 존재여부 판별단계(S141)에서, 점검후보로 결정된 GPU가 존재할 때 진행되며, 각 GPU 평균사용량 산출단계(S133)에서 산출된 평균사용량()들을 활용하여, 평균사용량()이 낮은 순서부터 높은 순서까지 GPU들을 차례대로 정렬시킨다.The GPU sorting step (S142) is performed when the GPU determined as an inspection candidate exists in the inspection candidate presence determination step (S141), and the average usage calculated in the average usage calculation step (S133) of each GPU ( ), using the average usage ( ) Sorts the GPUs in order from lowest to highest order.

상기 변경대상 결정단계(S143)는 점검후보로 결정된 GPU가 L개일 때, 평균사용량()이 낮은 순서부터 L개의 GPU를 변경대상으로 결정한다.In the change target determination step (S143), when there are L GPUs determined as inspection candidates, the average usage ( ) L GPUs are determined to be changed, starting from the lowest order.

상기 분류테이블 최적화단계(S144)는 변경대상 결정단계(S143)에서 점검 후보로 결정된 각 GPU에 대하여, 해당 점검후보의 GPU로 입력되는 영상들 중 어느 하나가 해당 점검후보의 변경대상으로 결정된 GPU로 입력되도록 결정한 후, 결정된 정보가 반영되도록 분류테이블을 최적화한 후, 메모리(M)에 저장한다.In the classification table optimization step (S144), for each GPU determined as an inspection candidate in the change target determination step (S143), one of the images input to the GPU of the inspection candidate is selected as the GPU determined to be a change target of the inspection candidate. After deciding to input, the classification table is optimized to reflect the determined information and then stored in memory (M).

이와 같이 본 발명의 일실시예인 객체 감응형 차량 흐름 제어 방법(S1)은 카메라들에 의해 촬영된 영상을 분석하여 객체정보 및 교통정보를 생성한 후, 생성된 교통정보에 따라 최적 현시체계를 생성한 후, 생성된 최적 현시체계에 따라 교통신호가 제어되도록 구성됨으로써 차량 정체율 및 대기시간을 현저히 절감시킬 수 있을 뿐만 아니라 이에 따른 연비소모 및 오염가스 배출량을 효과적으로 줄여 사회적 비용 소모를 절감시킬 수 있게 된다.In this way, the object-sensitive vehicle flow control method (S1), which is an embodiment of the present invention, analyzes images captured by cameras to generate object information and traffic information, and then generates an optimal display system according to the generated traffic information. Afterwards, traffic signals are configured to be controlled according to the created optimal display system, which not only significantly reduces vehicle congestion rate and waiting time, but also effectively reduces fuel consumption and pollutant gas emissions, thereby reducing social costs. do.

또한 본 발명의 객체 감응형 차량 흐름 제어 방법(S1)은 딥-러닝 알고리즘을 이용하여 입력된 영상들을 분석함에 따라 객체 인식률을 개선시켜 분석의 정확성 및 신뢰도를 획기적으로 높일 수 있다.In addition, the object-sensitive vehicle flow control method (S1) of the present invention can dramatically increase the accuracy and reliability of analysis by improving the object recognition rate by analyzing input images using a deep-learning algorithm.

또한 본 발명의 객체 감응형 차량 흐름 제어 방법(S1)은 딥-러닝 알고리즘으로 합성곱 신경망(CNN, Convolution Neural Network) 기반의 YOLO 모델을 적용시킴으로써 객체 인식률을 더욱 높일 수 있게 된다.In addition, the object-sensitive vehicle flow control method (S1) of the present invention can further increase the object recognition rate by applying the YOLO model based on a convolution neural network (CNN) as a deep-learning algorithm.

또한 본 발명의 객체 감응형 차량 흐름 제어 방법(S1)은 딥-러닝 알고리즘의 학습 시, 인식대상을 종래에 80종류에서, 도로에서 자주 볼 수 있는 5종류로 제한하여 학습이 이루어지도록 구성됨으로써 객체 인식률을 더욱 개선시킬 수 있다.In addition, the object-sensitive vehicle flow control method (S1) of the present invention is configured to limit the recognition target to 5 types frequently seen on the road from the conventional 80 types when learning the deep-learning algorithm, so that the object The recognition rate can be further improved.

또한 본 발명의 객체 감응형 차량 흐름 제어 방법(S1)은 복수개의GPU(Graphic Processing Unit)들을 이용하여 영상을 분석함으로써 카메라들의 촬영에 의해 획득된 고용량의 영상들의 실시간 처리 및 분석이 가능하다.In addition, the object-sensitive vehicle flow control method (S1) of the present invention analyzes images using a plurality of GPUs (Graphic Processing Units), enabling real-time processing and analysis of high-capacity images obtained by shooting with cameras.

S1:객체 감응형 차량 흐름 제어 방법
S10:학습단계 S20:카메라 촬영단계
S30:영상전송단계 S40:영상분류단계
S41:영상입력단계 S42:비교단계
S43:분류모드 판별단계 S44:일대일기반 분류단계
S45:분류테이블기반 분류단계 S50:인공지능 기반 영상 분석단계
S51-1, , 51-N:영상입력단계 S52:알고리즘 추출단계
S53-1, , S53-N:영상분석단계들 S60:사용량 모니터링 단계
S70:객체상세정보 생성단계 S80:교통정보 생성단계
S90:번호인식단계 S100:위반차량 판별단계
S110:신호체계 수립단계 S120:신호제어단계
S130:분류테이블 최적화단계 S131:데이터 수집단계
S132:각 GPU별 총사용량 산출단계 S133:각 GPU별 평균사용량 산출단계
S134:GPU 식별번호 초기화단계 S135:GPU 선택단계
S136:비교 및 판별단계 S137:점검후보 결정단계
S138:제1 잔여 GPU 존재여부 판별단계
S139:GPU 식별번호 추가단계 S140:제2 잔여 GPU 존재여부 판별단계
S141:점검후보 존재여부 판별단계 S142:GPU 정렬단계
S143:변경대상 결정단계 S144:분류테이블 최적화단계
S1: Object-sensitive vehicle flow control method
S10: Learning stage S20: Camera shooting stage
S30: Video transmission step S40: Video classification step
S41: Video input step S42: Comparison step
S43: Classification mode determination step S44: One-to-one based classification step
S45: Classification table-based classification step S50: Artificial intelligence-based image analysis step
S51-1, , 51-N: Video input step S52: Algorithm extraction step
S53-1, , S53-N: Video analysis steps S60: Usage monitoring steps
S70: Object detailed information creation step S80: Traffic information creation step
S90: Number recognition step S100: Violating vehicle determination step
S110: Signal system establishment step S120: Signal control step
S130: Classification table optimization step S131: Data collection step
S132: Total usage calculation step for each GPU S133: Average usage calculation step for each GPU
S134: GPU identification number initialization step S135: GPU selection step
S136: Comparison and determination step S137: Inspection candidate decision step
S138: First remaining GPU presence determination step
S139: Step of adding GPU identification number S140: Step of determining whether a second remaining GPU exists
S141: Determination step for existence of inspection candidate S142: GPU sorting step
S143: Change target decision step S144: Classification table optimization step

Claims (3)

컴퓨터 장치의 인공지능 기반 영상분석부에 의해 구현되며,
(a) 카메라 설치각도와 상기 카메라가 촬영한 영상의 방향성을 분석하여 종방향 소실점 VP1과 횡방향 소실점 VP2를 도출하는 단계;
(b) 분석 대상 영상에서 이동하는 객체를 특정하는 단계;
(c) 상기 VP1에서 상기 객체의 외연에 접하도록 이어진 좌단 하부 소실선 Van-L1과 우단 상부 소실선 Van-L2를 생성하는 단계;
(d) 상기 VP2에서 상기 객체의 외연에 접하도록 이어진 전단 하부 소실선 Van-L3와 후단 상부 소실선 Van-L4를 생성하여, 상기 Van-L1과 Van-L3의 교차점 P1과, 상기 Van-L2와 Van-L4의 교차점 P2가 생성되는 단계;
(e) 상기 객체 최좌단이 접하는 좌측 후방 수직선 Ver-L1과, 상기 객체 최우단이 접하는 우측 전방 수직선 Ver-L2를 생성하여, 상기 Ver-L1과 Van-L1의 교차점 P3와, 상기 Ver-L2와 Van-L3의 교차점 P4와, 상기 Ver-L1과 Van-N4의 교차점 P5와, 상기 Ver-L2와 Van-L2의 교차점 P6가 생성되는 단계;
(f) 상기 VP2에서 P3를 지나는 소실선 Van-L5와, 상기 VP2에서 P6를 지나는 소실선 Van-L6를 생성하는 단계;
(g) 상기 P1을 지나는 좌측 전방 수직선 Ver-L3와, 상기 P2를 지나는 우측 후방 수직선 Ver-L4를 생성하여, 상기 Ver-L3와 Van-L6의 교차점 P7과, 상기 Ver-L4와 Van-L5의 교차점 P8이 생성되는 단계; 및
(h) 상기 P2, P5, P7, P6가 상단 꼭지점을 이루고, 상기 P1, P4, P8, P3가 하단 꼭지점을 이루는 6면체 바운딩 박스를 생성하는 단계; 를 포함하는,
소실점을 이용한 3D 바운딩 박스 생성 방법.
It is implemented by the artificial intelligence-based image analysis unit of the computer device,
(a) analyzing the camera installation angle and the directionality of the image captured by the camera to derive a longitudinal vanishing point VP1 and a transverse vanishing point VP2;
(b) specifying a moving object in the image to be analyzed;
(c) generating a left lower vanishing line Van-L1 and a right upper vanishing line Van-L2 connected from the VP1 to contact the outer edge of the object;
(d) In the VP2, a front lower vanishing line Van-L3 and a rear upper vanishing line Van-L4 connected to contact the outer edge of the object are created, and the intersection point P1 of the Van-L1 and Van-L3, and the Van-L2 A step in which the intersection P2 of Van-L4 is created;
(e) Create a left rear vertical line Ver-L1 in contact with the leftmost end of the object and a right front vertical line Ver-L2 in contact with the rightmost end of the object, thereby creating an intersection P3 of the Ver-L1 and Van-L1, and the Ver-L2 generating an intersection point P4 of Van-L3, an intersection P5 of Ver-L1 and Van-N4, and an intersection P6 of Ver-L2 and Van-L2;
(f) generating a vanishing line Van-L5 passing from the VP2 to P3 and a vanishing line Van-L6 passing from the VP2 to P6;
(g) Creating a left front vertical line Ver-L3 passing through P1 and a right rear vertical line Ver-L4 passing through P2, creating an intersection point P7 of Ver-L3 and Van-L6, and Ver-L4 and Van-L5. A step in which the intersection point P8 is created; and
(h) generating a hexahedral bounding box in which the P2, P5, P7, and P6 form the upper vertices, and the P1, P4, P8, and P3 form the lower vertices; Including,
How to create a 3D bounding box using vanishing points.
감지영역인 적어도 하나 이상의 도로를 촬영하여 영상을 획득하는 카메라들과, 상기 감지영역에 설치되는 신호등들의 동작을 제어하는 교통신호 제어기와, 컨트롤러를 포함하는 차량 흐름 제어 시스템의 동작 과정인 객체 감응형 차량 흐름 제어 방법으로서,
(A) 상기 카메라들이 자신에게 할당된 도로를 촬영하여 영상을 획득한 후, 상기 컨트롤러로 획득된 영상들을 전송하는 단계;
(B) 상기 컨트롤러가 딥-러닝(Deep learning) 기반의 객체분석 알고리즘을 이용하여, 상기 (A)단계를 통해 전송받은 영상들을 분석하여 제1항의 소실점을 이용한 3D 바운딩 박스 생성 방법에 따라 객체를 감지함과 동시에 감지된 객체의 위치, 종류 및 크기 중 적어도 하나 이상을 포함하는 객체정보를 검출하는 단계;
(C) 상기 컨트롤러가 상기 (B)단계에 의해 검출된 객체정보들과, 기 설정된 각 카메라의 촬영영역의 위치정보, 기 도로의 위치정보를 참조하여, 감지된 객체를 트래킹하여 각 객체가 위치한 차로종류, 차선위치, 이동속도 및 방향 중 적어도 하나 이상을 포함하는 객체분석정보를 생성하는 단계;
(D) 상기 컨트롤러가 상기 (C)단계에 의해 생성된 객체분석정보를 활용 및 가공하여, 각 연결차로의 대기열, 대기시간 및 교통량 중 적어도 하나 이상을 포함하는 교통정보를 생성하는 단계;
(E) 상기 컨트롤러가 상기 (D)단계에 의해 생성된 교통정보를 기반으로 최적 신호체계를 수립하는 단계; 및
(F) 상기 컨트롤러가 상기 (E)단계에 의해 수립된 최적 신호체계 정보를 교통신호 제어기로 전송하고, 상기 교통신호 제어기가 상기 컨트롤러로부터 전송받은 최적 신호체계 정보에 따라 상기 신호등들이 운영되도록 상기 신호등들을 제어하는 단계; 를 포함하는 것을 특징으로 하는 객체 감응형 차량 흐름 제어 방법.
Object sensitive type, which is the operating process of a vehicle flow control system that includes cameras that acquire images by photographing at least one road in the detection area, a traffic signal controller that controls the operation of traffic lights installed in the detection area, and a controller. As a vehicle flow control method,
(A) the cameras acquire images by photographing roads assigned to them, and then transmit the acquired images to the controller;
(B) The controller uses a deep learning-based object analysis algorithm to analyze the images transmitted through step (A) and creates an object according to the 3D bounding box creation method using the vanishing point of paragraph 1. simultaneously detecting object information including at least one of the location, type, and size of the detected object;
(C) The controller tracks the detected object by referring to the object information detected in step (B), the location information of the preset shooting area of each camera, and the location information of the road, and determines the location of each object. Generating object analysis information including at least one of lane type, lane location, moving speed, and direction;
(D) the controller utilizing and processing the object analysis information generated in step (C) to generate traffic information including at least one of queue, waiting time, and traffic volume for each connecting lane;
(E) the controller establishing an optimal signal system based on the traffic information generated in step (D); and
(F) The traffic light is such that the controller transmits the optimal signal system information established in step (E) to the traffic signal controller, and the traffic light controller operates the traffic lights according to the optimal signal system information transmitted from the controller. controlling them; An object-sensitive vehicle flow control method comprising:
제2항에서,
상기 (B)단계는, 상기 컨트롤러가 카메라 설치각도 및 거리 정보를 반영한 바운딩 박스 분석에 따라 감지된 객체의 종류와 크기를 추정함으로써 객체정보를 검출하는 것을 특징으로 하는 객체 감응형 차량 흐름 제어 방법.









In paragraph 2,
In step (B), the object-sensitive vehicle flow control method is characterized in that the controller detects object information by estimating the type and size of the detected object according to bounding box analysis reflecting camera installation angle and distance information.









KR1020220074549A 2022-06-20 2022-06-20 3D bound boxing method using vanishing point & Traffic flow controlling method for controlling traffic signal with sensing object KR20230173814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220074549A KR20230173814A (en) 2022-06-20 2022-06-20 3D bound boxing method using vanishing point & Traffic flow controlling method for controlling traffic signal with sensing object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220074549A KR20230173814A (en) 2022-06-20 2022-06-20 3D bound boxing method using vanishing point & Traffic flow controlling method for controlling traffic signal with sensing object

Publications (1)

Publication Number Publication Date
KR20230173814A true KR20230173814A (en) 2023-12-27

Family

ID=89378209

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220074549A KR20230173814A (en) 2022-06-20 2022-06-20 3D bound boxing method using vanishing point & Traffic flow controlling method for controlling traffic signal with sensing object

Country Status (1)

Country Link
KR (1) KR20230173814A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200141834A (en) 2019-06-11 2020-12-21 한국전자통신연구원 Apparatus and method for image based traffic signal control
KR20210103865A (en) 2020-02-14 2021-08-24 삼성전자주식회사 Vanishing point extraction device and method of extracting vanishing point
KR102311236B1 (en) 2021-04-01 2021-10-13 주식회사 젠티 Method for measuring speed using deep-learning object detection and tracking and system thereof
KR102391853B1 (en) 2021-11-19 2022-05-09 주식회사 케이비전 System and Method for Processing Image Informaion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200141834A (en) 2019-06-11 2020-12-21 한국전자통신연구원 Apparatus and method for image based traffic signal control
KR20210103865A (en) 2020-02-14 2021-08-24 삼성전자주식회사 Vanishing point extraction device and method of extracting vanishing point
KR102311236B1 (en) 2021-04-01 2021-10-13 주식회사 젠티 Method for measuring speed using deep-learning object detection and tracking and system thereof
KR102391853B1 (en) 2021-11-19 2022-05-09 주식회사 케이비전 System and Method for Processing Image Informaion

Similar Documents

Publication Publication Date Title
US10878584B2 (en) System for tracking object, and camera assembly therefor
CN108062349B (en) Video monitoring method and system based on video structured data and deep learning
KR102197946B1 (en) object recognition and counting method using deep learning artificial intelligence technology
KR102172239B1 (en) Method and system for abnormal situation monitoring based on video
KR102414876B1 (en) Traffic signal control system using sensitive left turn signal based on LiDAR
KR101678004B1 (en) node-link based camera network monitoring system and method of monitoring the same
CN113449632B (en) Vision and radar perception algorithm optimization method and system based on fusion perception and automobile
CN111967396A (en) Processing method, device and equipment for obstacle detection and storage medium
KR20200141834A (en) Apparatus and method for image based traffic signal control
KR102561656B1 (en) Control system of traffic flow with sensing of vehicle based on deep learning
JP7125843B2 (en) Fault detection system
CN111339834B (en) Method for identifying vehicle driving direction, computer device and storage medium
KR20230173814A (en) 3D bound boxing method using vanishing point &amp; Traffic flow controlling method for controlling traffic signal with sensing object
CN112906428A (en) Image detection area acquisition method and space use condition judgment method
CN116311166A (en) Traffic obstacle recognition method and device and electronic equipment
KR102561657B1 (en) Traffic flow controlling method for controlling traffic signal with sensing vehicle
US20200279103A1 (en) Information processing apparatus, control method, and program
US11157755B2 (en) Image processing apparatus
CN113870311A (en) Single-target tracking method based on deep learning
CN113628251A (en) Smart hotel terminal monitoring method
CN114373081A (en) Image processing method and device, electronic device and storage medium
Singh et al. Detection of vacant parking spaces through the use of convolutional neural network
US11645838B2 (en) Object detection system, object detection method, and program
Malbog et al. PED-AI: Pedestrian Detection for Autonomous Vehicles using YOLOv5
JP7203277B2 (en) Method and apparatus for monitoring vehicle license plate recognition rate and computer readable storage medium