KR20110123042A - Apparatus for yielding traffic information of intelligent transport system and method thereof - Google Patents

Apparatus for yielding traffic information of intelligent transport system and method thereof Download PDF

Info

Publication number
KR20110123042A
KR20110123042A KR1020100042463A KR20100042463A KR20110123042A KR 20110123042 A KR20110123042 A KR 20110123042A KR 1020100042463 A KR1020100042463 A KR 1020100042463A KR 20100042463 A KR20100042463 A KR 20100042463A KR 20110123042 A KR20110123042 A KR 20110123042A
Authority
KR
South Korea
Prior art keywords
vehicle
image
traffic information
edge
lane
Prior art date
Application number
KR1020100042463A
Other languages
Korean (ko)
Other versions
KR101104625B1 (en
Inventor
김응태
이대원
김성훈
Original Assignee
한국산업기술대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국산업기술대학교산학협력단 filed Critical 한국산업기술대학교산학협력단
Priority to KR1020100042463A priority Critical patent/KR101104625B1/en
Publication of KR20110123042A publication Critical patent/KR20110123042A/en
Application granted granted Critical
Publication of KR101104625B1 publication Critical patent/KR101104625B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A device for calculating traffic information of an intelligent transport system and a method thereof are provided to set an interest area in the lane of an image to recognize a vehicle, thereby increasing the accuracy of traffic information. CONSTITUTION: An image input device(110) photographs the traffic condition of a road. An image detector(120) generates a background image based on an image inputted from the image input device. The image detector detects a lane from the background image. The image detector sets an interest area in the lane to extract a feature point of a vehicle which belongs to the interest area. A transport operating center(130) receives traffic information through a cable/wireless network.

Description

지능형 교통 시스템의 교통정보를 산출하기 위한 장치 및 그 방법{Apparatus for yielding traffic information of intelligent transport system and method thereof}Apparatus for yielding traffic information of intelligent transport system and method

본 발명은 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for calculating traffic information of an intelligent transportation system.

최근 교통문제 해결을 위한 방안으로 지능형 교통 시스템(intelligent transport system; ITS)에 대한 관심이 증대되고 있다. 지능형 교통 시스템은 도로와 차량 등 기존 교통 체계의 구성 요소에 전자, 정보, 통신, 제어 등의 기술을 교통 체계에 접목시킨 시스템을 일컫는다.Recently, the interest in intelligent transport system (ITS) is increasing as a solution for solving traffic problems. The intelligent transportation system refers to a system that integrates electronic, information, communication, and control technologies into the transportation system, including components of the existing transportation system such as roads and vehicles.

특히, 지능형 교통 시스템은 실시간으로 교통 정보를 수집하여 수집된 교통 정보를 이용하여 교통 신호를 자동으로 제어하고, 실시간 교통 상황 정보를 교통 제어기와 구동 장치에 제공함으로써, 교통 정체를 사전에 막을 수 있다.In particular, the intelligent traffic system collects traffic information in real time and automatically controls traffic signals using the collected traffic information, and provides real-time traffic situation information to the traffic controller and the driving device, thereby preventing traffic congestion in advance. .

기존의 차량 검출 방벙으로 가장 많이 사용하는 유도 루프 검출기는 도로 표면 밑에 설치하므로 설치 및 구조 변경이 어렵고 유지 비용이 높다는 단점이 있다.Induction loop detectors, which are most commonly used as a vehicle detection method, are installed under the road surface, which makes installation and structural modification difficult and high maintenance costs.

기존의 단점을 극복하기 위하여 영상 인식기를 이용하는 방법이 제시되었는데, 이는 교통량, 점유시간, 및 비점유 시간 등을 계측할 수 있을 뿐만 아니라 대기 길이, 차종 구분, 및 지점 속도 등의 교통 정보를 계측할 수 있다.In order to overcome the shortcomings, a method of using an image recognizer has been proposed, which can measure traffic volume, occupancy time, and non-occupancy time, as well as traffic information such as waiting length, type of vehicle, and point speed. Can be.

이러한 교통 정보들은 차량의 검지, 추적, 분류, 인식을 기반으로 수집되는 정보로서 교차로와 고속도로의 감시 및 제어에 폭넓게 사용할 수 있다.The traffic information is collected based on the detection, tracking, classification, and recognition of the vehicle and can be widely used for monitoring and controlling intersections and highways.

그러나 영상 인식기를 이용하는 방법은 비, 눈 등과 같은 외부환경의 변화에 민감하고, 도로 배경과 차량의 분리가 필요할 뿐만 아니라, 입력된 영상 전체를 신호 처리하여 차선을 검지하기 때문에 처리 속도가 늦고 정확도가 낮다는 등의 문제점이 있다.However, the method of using the image recognizer is sensitive to changes in the external environment such as rain and snow, requires separation of the road background from the vehicle, and detects lanes by processing the entire input image so that the processing speed is slow and accurate. There is a problem such as low.

본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위한 것으로서, 입력된 영상 내에서 차선 내부를 관심 영역으로 설정하고, 그 관심 영역 내에서 차량의 특징점으로 차량을 인식하여 이를 기반으로 차량의 대수, 크기, 속도, 및 대기 길이 등의 교통정보를 산출하고자 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치 및 그 방법을 제공하는데 그 목적이 있다.
The present invention is to solve the problems of the prior art as described above, and set the inside of the lane to the region of interest within the input image, and recognizes the vehicle as a feature point of the vehicle within the region of interest, based on the number of vehicles, An object of the present invention is to provide an apparatus and a method for calculating traffic information of an intelligent traffic system for calculating traffic information such as size, speed, and air length.

또한, 본 발명은 배경 영상 내에서 소정 개수의 블록을 설정하고, 그 불록 내에서 직선 성분을 검출하여 차선을 검출하고자 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치 및 그 방법을 제공하는데 그 목적이 있다.
Another object of the present invention is to provide an apparatus and method for calculating traffic information of an intelligent transportation system for setting a predetermined number of blocks in a background image and detecting a lane by detecting a linear component within the block. There is this.

또한, 본 발명은 검출된 차선 내부를 관심 영역으로 설정하고 그 관심 영역 내에서 차량의 특징점을 추출하여 차량을 인식하고자 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치 및 그 방법을 제공하는데 그 목적이 있다.
Another object of the present invention is to provide an apparatus and method for calculating traffic information of an intelligent transportation system for recognizing a vehicle by setting a detected lane interior as a region of interest and extracting feature points of the vehicle within the region of interest. There is this.

이를 위하여, 본 발명의 한 관점에 따른 지능형 교통 시스템은 도로의 교통 상황을 촬영하는 영상 입력기; 상기 영상 입력기로부터 입력된 영상을 기반으로 배경 영상을 생성하고 생성된 상기 배경 영상으로부터 차선을 검출하고, 검출된 상기 차선 내부를 관심 영역으로 설정하며 그 설정한 관심 영역 내에서 차량의 특징점을 추출하며 추출된 상기 차량의 특징점으로 차량을 인식하여 교통 정보를 산출하는 영상 검지기; 및 산출된 상기 교통정보를 유/무선 네트워크를 통해 제공받는 교통운영 센터를 포함하는 것을 특징으로 한다.To this end, an intelligent traffic system according to an aspect of the present invention comprises an image input unit for photographing the traffic conditions of the road; Generates a background image based on the image input from the image input unit, detects a lane from the generated background image, sets the detected inside of the lane as a region of interest, and extracts feature points of the vehicle within the set region of interest. An image detector for recognizing the vehicle as the extracted feature point of the vehicle and calculating traffic information; And a traffic operation center that receives the calculated traffic information through a wired / wireless network.

바람직하게, 상기 영상 검지기는 영상 입력기로부터 입력되는 상기 영상을 에지 추출 마스크를 통해 에지를 추출하여 에지 영상을 생성하고 생성된 에지 영상으로부터 배경 영상을 생성하고, 생성된 상기 배경 영상 내에서 소정 개수의 블록을 설정하며, 설정된 상기 블록마다 허프 변환을 수행하여 직선 성분을 검출하고, 그 직선 성분들로부터 차선을 검출하는 것을 특징으로 한다.Preferably, the image detector extracts an edge from the image input from the image input unit through an edge extraction mask to generate an edge image, generates a background image from the generated edge image, and generates a predetermined number of images within the generated background image. A block is set and a linear component is detected by performing a Hough transform for each set block, and a lane is detected from the linear components.

바람직하게, 상기 영상 검지기는 차선 내부를 관심 영역으로 설정하여 생성된 상기 에지 영상을 이용하여 설정된 관심 영역에서 차량의 특징점을 추출하고, 추출된 상기 차량의 특징점을 연결하여 그 내부를 채워 차량 모양을 생성하며, 생성된 상기 차량 모양으로 차량을 인식하는 것을 특징으로 한다.
Preferably, the image detector extracts a feature point of the vehicle from the region of interest set by using the edge image generated by setting the inside of the lane as the region of interest, connects the extracted feature points of the vehicle, and fills the interior of the vehicle to form a shape of the vehicle. And generating and recognizing the vehicle by the generated vehicle shape.

본 발명의 다른 한 관점에 따른 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치는 영상 입력기로부터 입력되는 상기 영상을 에지 추출 마스크를 통해 에지를 추출하여 에지 영상을 생성하는 에지영상 생성부; 생성된 상기 에지 영상으로부터 배경 영상을 생성하는 배경영상 생성부; 생성된 상기 배경 영상 내에서 소정 개수의 블록을 설정하고, 각 블록마다 허프 변환을 하여 직선 성분을 검출하고, 그 직선 성분들을 처리하여 차선을 검출하는 차선 검출부; 검출된 상기 차선 내부를 관심 영역으로 설정하는 관심영역 설정부; 생성된 상기 에지 영상 내의 관심 영역에서 차량의 특징점을 추출하는 특징점 추출부; 추출된 상기 차량의 특징점을 연결하여 그 내부를 채워 차량 모양을 생성하고, 생성된 상기 차량 모양을 분석하여 상기 차량을 인식하는 차량 인식부; 상기 차선 내부에 있는 차량의 인식을 통해 상기 각종 교통정보를 산출하는 교통정보 산출부를 포함하는 것을 특징으로 한다.An apparatus for calculating traffic information of an intelligent transportation system according to another aspect of the present invention includes an edge image generation unit for generating an edge image by extracting an edge through an edge extraction mask from the image input from an image input unit; A background image generator for generating a background image from the generated edge image; A lane detector configured to set a predetermined number of blocks in the generated background image, perform a Hough transform for each block, detect a linear component, and process the linear components to detect a lane; A region of interest setting unit configured to set the detected inside of the lane as a region of interest; A feature point extracting unit extracting feature points of the vehicle from the region of interest in the generated edge image; A vehicle recognition unit configured to connect the extracted feature points of the vehicle to fill the inside to generate a vehicle shape, and analyze the generated vehicle shape to recognize the vehicle; And a traffic information calculation unit configured to calculate the various traffic information by recognizing the vehicle inside the lane.

필요에 따라, 상기 에지 추출 마스크는 소벨(sobel) 마스크, 및 프리윗(prewitt) 마스크 중 어느 하나인 것을 특징으로 한다.If necessary, the edge extraction mask may be any one of a sobel mask and a prewitt mask.

바람직하게, 상기 에지영상 생성부는 영상의 각 픽셀에 세로방향 마스크의 가운데를 기준으로 컨벌루션하여 세로방향 에지를 추출하여 세로방향 에지 영상을 생성하고, 영상의 각 픽셀에 가로방향 마스크의 가운데를 기준으로 컨벌루션하여 가로방향 에지를 추출하여 가로방향 에지 영상을 생성하며, 상기 세로방향 에지 영상과 상기 가로방향 에지 영상을 합쳐서 하나의 에지 영상을 생성하는 것을 특징으로 한다.Preferably, the edge image generator generates a vertical edge image by convolving each pixel of the image based on the center of the vertical mask to extract the vertical edge, and based on the center of the horizontal mask on each pixel of the image. By convolution, the horizontal edge is extracted to generate a horizontal edge image, and the vertical edge image and the horizontal edge image are combined to generate one edge image.

바람직하게, 상기 배경영상 생성부는 상기 에지 영상을 각 픽셀마다 이진화하여 픽셀마다 그 이진화한 값을 누적하여 그 누적한 값을 이용하여 상기 배경 영상을 생성하되, 수학식

Figure pat00001
을 통해 누적하고, 여기서, i는 입력되는 영상의 프레임(frame) 수이고, P(x,y)는 좌표 (x,y)의 픽셀값이며, 그리고 Pth는 픽셀 값의 임계치인 것을 특징으로 한다.Preferably, the background image generation unit binarizes the edge image for each pixel, accumulates the binarized value for each pixel, and generates the background image by using the accumulated value.
Figure pat00001
Cumulatively, wherein i is the number of frames of the input image, P (x, y) is a pixel value of coordinates (x, y), and Pth is a threshold of pixel values. .

바람직하게, 상기 특징점 추출부는 생성된 상기 에지 영상 내의 관심 영역에서 차량의 특징점을 추출하되, 수학식 R = (ab-c2) - k× (a+b)2에 의해 구하고, 여기서, a는 가로방향 에지 성분의 값이고, b는 세로방향 에지 성분의 값이며, c는 대각선 방향의 에지 성분의 값인 것을 특징으로 한다.Preferably, the feature point extractor extracts a feature point of the vehicle from the region of interest in the generated edge image, wherein the feature point extractor extracts the feature point of the vehicle using Equation R = (ab-c 2 ) −k × (a + b) 2 , where a is A value of a horizontal edge component, b is a value of a longitudinal edge component, and c is a value of a diagonal edge component.

필요에 따라, 본 발명에 따른 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치는 산출된 상기 각종 교통 정보를 유/무선 네트워크를 통해 교통운영 센터로 전송하는 교통정보 전송부를 더 포함하는 것을 특징으로 한다.
If necessary, the apparatus for calculating the traffic information of the intelligent traffic system according to the present invention is characterized in that it further comprises a traffic information transmission unit for transmitting the calculated various traffic information to the traffic management center through a wired / wireless network. .

본 발명의 또 다른 한 관점에 따른 지능형 교통 시스템의 교통 정보를 산출하기 위한 방법은 영상 입력기로부터 입력된 영상을 기반으로 배경 영상을 생성하고 생성된 상기 배경 영상으로부터 차선을 검출하는 단계; 검출된 상기 차선 내부를 관심 영역으로 설정하여 그 설정한 관심 영역 내에서 차량의 특징점을 추출하는 단계; 및 추출된 상기 차량의 특징점으로 차량을 인식하여 각종 교통정보를 산출하는 단계를 포함하는 것을 특징으로 한다.According to still another aspect of the present invention, there is provided a method for calculating traffic information of an intelligent transportation system, the method including: generating a background image based on an image input from an image input unit and detecting a lane from the generated background image; Setting the detected inside of the lane as a region of interest and extracting feature points of the vehicle within the set region of interest; And calculating a variety of traffic information by recognizing the vehicle as the extracted feature point of the vehicle.

바람직하게, 상기 차선을 검출하는 단계는 상기 영상 입력기로부터 입력되는 상기 영상을 에지 추출 마스크를 통해 에지를 추출하여 에지 영상을 생성하고 생성된 상기 에지 영상으로부터 배경 영상을 생성하고, 생성된 상기 배경 영상 내에서 소정 개수의 블록을 설정하고, 각 블록마다 허프 변환을 하여 직선 성분을 검출하고, 그 직선 성분들을 처리하여 차선을 검출하는 것을 특징으로 한다.The detecting of the lane may include extracting an edge from the image input from the image input unit through an edge extraction mask to generate an edge image, generating a background image from the generated edge image, and generating the background image. A predetermined number of blocks are set within the block, Hough transform is performed for each block, and linear components are detected, and the linear components are processed to detect lanes.

바람직하게, 상기 교통정보를 산출하는 단계는 추출된 상기 차량의 특징점을 연결하여 그 내부를 채워 차량 모양을 생성하고, 생성된 상기 차량 모양을 분석하여 상기 차량을 인식하며, 상기 차선 내부에 있는 차량의 인식을 통해 상기 각종 교통정보를 산출하는 것을 특징으로 한다.Preferably, the calculating of the traffic information comprises connecting the extracted feature points of the vehicle to fill the interior to generate a vehicle shape, analyzing the generated vehicle shape to recognize the vehicle, and a vehicle in the lane The various traffic information is calculated through the recognition of.

바람직하게, 상기 교통정보를 산출하는 단계는 상기 차량의 인식을 통해 차량의 대수, 크기, 속도, 및 대기 길이 중 적어도 하나를 산출하는 것을 특징으로 한다.Preferably, the calculating of the traffic information may include calculating at least one of a number, a size, a speed, and a standby length of the vehicle through recognition of the vehicle.

필요에 따라, 상기 교통정보를 산출하는 단계는 상기 차량의 인식을 통해 정지선부터 차량이 있는 관심 영역까지를 차량의 대기길이로 산출하되, 관심 영역에서 세로 방향으로 일정 비율 이상의 길이가 검출되면 차량이 있는 것으로 판단하는 것을 특징으로 한다.
If necessary, the calculating of the traffic information may be performed by calculating the waiting length of the vehicle from the stop line to the region of interest in which the vehicle is located through recognition of the vehicle. It is characterized by judging that there is.

본 발명은 입력된 영상 내에서 차선 내부를 관심 영역으로 설정하고, 그 관심 영역 내에서 차량의 특징점으로 차량을 인식하여 이를 기반으로 차량의 대수, 크기, 속도, 및 대기 길이 등의 교통정보를 산출함으로써, 설치가 용이할 수 있는 효과가 있다.
The present invention sets the inside of a lane as a region of interest within an input image, recognizes the vehicle as a feature point of the vehicle within the region of interest, and calculates traffic information such as the number, size, speed, and air length of the vehicle based on the vehicle. By doing so, there is an effect that the installation can be easy.

또한, 본 발명은 입력된 영상 내에서 차선 내부를 관심 영역으로 설정하고, 그 관심 영역 내에서 차량의 특징점으로 차량을 인식하여 이를 기반으로 차량의 대수, 크기, 속도, 및 대기 길이 등의 교통정보를 산출함으로써, 처리 속도가 빠른 효과가 있다.
In addition, the present invention sets the inside of the lane to the region of interest in the input image, and recognizes the vehicle as a feature point of the vehicle in the region of interest, based on the traffic information such as the number, size, speed, and air length of the vehicle By calculating, there is an effect that the processing speed is high.

또한, 본 발명은 입력된 영상 내에서 차선 내부를 관심 영역으로 설정하고, 그 관심 영역 내에서 차량의 특징점으로 차량을 인식하여 이를 기반으로 차량의 대수, 크기, 속도, 및 대기 길이 등의 교통정보를 산출함으로써, 정확도가 높다는 효과가 있다.In addition, the present invention sets the inside of the lane to the region of interest in the input image, and recognizes the vehicle as a feature point of the vehicle in the region of interest, based on the traffic information such as the number, size, speed, and air length of the vehicle By calculating, there is an effect that the accuracy is high.

도 1은 본 발명의 실시예에 따른 개략적인 지능형 교통 시스템을 나타내는 예시도이고,
도 2는 도 1에 도시된 영상 검지기(120)의 상세한 구성을 나타내는 예시도이고,
도 3a 내지 도 3d는 본 발명의 실시예에 따른 에지 영상을 생성하는 원리를 설명하기 위한 예시도이고,
도 4는 본 발명의 실시예에 따른 배경 영상을 생성하는 원리를 설명하기 위한 예시도이고,
도 5는 본 발명의 실시예에 따른 차선을 검출하는 원리를 설명하기 위한 예시도이고,
도 6은 본 발명의 실시예에 따른 관심 영역을 설정하는 원리를 설명하기 위한 제1 예시도이고,
도 7은 본 발명의 실시에에 따른 차량의 특징점을 추출하는 원리를 설명하기 위한 예시도이고,
도 8은 본 발명의 실시예에 따른 차량을 인식하는 원리를 설명하기 위한 예시도이고,
도 9는 본 발명의 실시예에 따른 대기 길이를 산출하는 원리를 설명하기 위한 예시도이고,
도 10은 본 발명의 실시예에 따른 관심 영역을 설정하는 원리를 설명하기 위한 제2 예시도이다.
도 11은 본 발명의 실시에에 따른 교통정보를 산출하는 방법을 나타내는 예시도이다.
1 is an exemplary view showing a schematic intelligent transportation system according to an embodiment of the present invention,
2 is an exemplary diagram illustrating a detailed configuration of the image detector 120 shown in FIG. 1.
3A to 3D are exemplary views for explaining a principle of generating an edge image according to an embodiment of the present invention.
4 is an exemplary view for explaining a principle of generating a background image according to an embodiment of the present invention.
5 is an exemplary view for explaining a principle of detecting a lane according to an embodiment of the present invention;
6 is a first exemplary view for explaining a principle of setting a region of interest according to an embodiment of the present invention;
7 is an exemplary view for explaining a principle of extracting feature points of a vehicle according to an embodiment of the present invention;
8 is an exemplary view for explaining a principle of recognizing a vehicle according to an exemplary embodiment of the present disclosure.
9 is an exemplary diagram for explaining a principle of calculating an air length according to an embodiment of the present invention.
10 is a second exemplary view for explaining a principle of setting a region of interest according to an embodiment of the present invention.
11 is an exemplary view showing a method of calculating traffic information according to an embodiment of the present invention.

이하에서는, 본 발명의 일실시예에 따른 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치 및 그 방법을 첨부된 도 1 내지 도 11을 참조하여 상세히 설명한다. 즉, 본 발명은 입력된 영상 내에서 차선 내부를 관심 영역으로 설정하고 그 관심 영역 내에서 차량의 특징점으로 차량을 인식하여 이를 기반으로 차량의 대수, 크기, 속도, 및 대기 길이 등의 각종 교통정보를 산출하고자 한다.Hereinafter, an apparatus and method for calculating traffic information of an intelligent transportation system according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 11. That is, the present invention sets the inside of the lane as the region of interest in the input image, recognizes the vehicle as a feature point of the vehicle within the region of interest, and based on this, various traffic information such as the number, size, speed, and air length of the vehicle. We want to calculate

즉, 본 발명은 1)배경 영상 내에서 소정 개수의 블록을 설정하고, 그 불록 내에서 직선 성분을 검출하여 차선을 검출하며, 2)검출된 차선 내부를 관심 영역으로 설정하고 그 관심 영역 내에서 차량의 특징점을 추출하여 차량을 인식하고자 한다.
That is, the present invention 1) set a predetermined number of blocks in the background image, detect a lane by detecting a linear component in the block, 2) set the inside of the detected lane as the region of interest and within the region of interest The vehicle extracts feature points to recognize the vehicle.

도 1은 본 발명의 실시예에 따른 개략적인 지능형 교통 시스템을 나타내는 예시도이다.1 is an exemplary view showing a schematic intelligent traffic system according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명에 따른 지능형 교통 시스템은 영상 입력기(110), 영상 검지기(120), 및 교통운영 센터(130) 등을 포함하여 구성될 수 있다. 이러한 지능형 교통 시스템은 DMB 등의 방송을 위한 방송망과 이동 단말기 등의 통신을 위한 이동통신망, 및 유/무선 인터넷망 등을 통해 교통 정보를 전달하게 된다.As shown in FIG. 1, the intelligent traffic system according to the present invention may include an image inputter 110, an image detector 120, and a traffic operation center 130. The intelligent traffic system delivers traffic information through a broadcasting network for broadcasting such as DMB, a mobile communication network for communication such as a mobile terminal, and a wired / wireless internet network.

영상 입력기(110)는 도로 상의 교통 상황을 촬영하기 위한 카메라로서, 예컨대, CCD(Charge Coupled Device) 카메라 등을 의미할 수 있다.The image inputter 110 may be a camera for photographing a traffic situation on a road, and may mean, for example, a charge coupled device (CCD) camera.

영상 검지기(120)는 영상 입력기(110)를 통해 입력된 영상을 분석하여 차량의 대수, 크기, 속도, 및 대기 길이 등의 교통정보를 산출하고, 산출된 교통 정보를 기반으로 교통 신호를 직접 제어하거나 교통운영 센터(130)에 전달하게 된다.The image detector 120 analyzes the image input through the image input unit 110 to calculate traffic information such as the number, size, speed, and air length of the vehicle, and directly controls the traffic signal based on the calculated traffic information. Or will be delivered to the traffic operation center (130).

먼저, 영상 검지기(120)는 연속적으로 입력되는 소정 개수의 영상마다 에지 추출 마스크를 이용하여 에지 또는 고주파 성분을 추출하여 에지 영상을 생성하고, 생성된 에지 영상으로부터 배경 영상을 생성하게 된다.First, the image detector 120 generates an edge image by extracting an edge or a high frequency component using an edge extraction mask for each predetermined number of images continuously input, and generates a background image from the generated edge image.

영상 검지기(120)는 생성된 배경 영상 내에서 소정 개수의 블록을 설정하며, 각 블록마다 허프 변환(hough transform)을 하여 직선 성분을 검출하고 불필요한 직선 성분을 제거함으로써, 차선을 검출하게 된다. 이처럼 본 발명은 기존과 같이 배경 영상 전체에 대한 허프 변환을 수행하지 않고 소정 개수로 설정된 블록에 대해서만 허프 변환을 수행함으로써 처리 속도를 향상시킬 수 있게 된다.The image detector 120 sets a predetermined number of blocks in the generated background image, detects a lane by performing a hough transform for each block, and removes unnecessary linear components. As described above, the present invention can improve the processing speed by performing Hough transform on only a predetermined number of blocks without performing Hough transform on the entire background image.

이후, 영상 검지기(120)는 생성된 에지 영상 내에서 차선 내부를 관심 영역으로 설정하고 그 관심 영역 내에서 차량의 특징점을 추출하며 추출된 특징점을 연결하고 그 내부를 채워 차량 모양을 생성함으로써 차량을 인식하게 된다.Thereafter, the image detector 120 sets the inside of the lane as the region of interest in the generated edge image, extracts the feature points of the vehicle within the region of interest, connects the extracted feature points, and fills the interior to generate the vehicle shape. To be recognized.

영상 검지기(120)는 이러한 차량 인식 방법을 이용하여 차량의 대수, 크기, 속도, 및 대기 길이 등의 각종 교통정보를 산출하게 된다.The image detector 120 calculates various traffic information such as the number, size, speed, and air length of the vehicle by using the vehicle recognition method.

교통운영 센터(130)는 영상 검지기(120)를 통해 산출된 교통정보를 제공받아 이를 기반으로 신호교차로의 운영이나 교통흐름 안내 서비스 등을 제공할 수 있다.
The traffic operation center 130 may receive the traffic information calculated through the image detector 120 and provide the operation of the signal intersection or the traffic flow guidance service based on the traffic information.

도 2는 도 1에 도시된 영상 검지기(120)의 상세한 구성을 나타내는 예시도이다.FIG. 2 is an exemplary diagram illustrating a detailed configuration of the image detector 120 illustrated in FIG. 1.

도 2에 도시한 바와 같이, 본 발명에 따른 영상 검지기(120)는 에지영상 생성부(210), 배경영상 생성부(220), 차선 검출부(230), 관심영역 설정부(240), 특징점 추출부(250), 차량 인식부(260), 교통정보 산출부(270), 교통정보 전송부(280), 및 제어부(290) 등을 포함하여 구성될 수 있다.As shown in FIG. 2, the image detector 120 according to the present invention includes an edge image generator 210, a background image generator 220, a lane detector 230, an ROI setting unit 240, and feature point extraction. The unit 250 may include a vehicle recognition unit 260, a traffic information calculator 270, a traffic information transmitter 280, a controller 290, and the like.

에지영상 생성부(210)는 영상 입력기를 통해 입력되는 영상을 에지 추출 마스크를 이용하여 에지를 추출하게 되는데, 여기서 에지 추출 마스크로는 소벨(sobel) 마스크나 프리윗(prewitt) 마스크 등을 사용하는 것이 바람직하다.
The edge image generator 210 extracts an edge from an image input through an image input unit using an edge extraction mask, wherein a sobel mask or a prewitt mask is used as the edge extraction mask. It is preferable.

도 3a 내지 도 3d는 본 발명의 실시예에 따른 에지 영상을 생성하는 원리를 설명하기 위한 예시도이다.3A to 3D are exemplary views for explaining a principle of generating an edge image according to an exemplary embodiment of the present invention.

도 3a 내지 도 3d에 도시한 바와 같이, 프리윗 마스크를 이용하여 배경 영상을 생성하는 원리를 설명하기로 한다. 에지영상 생성부(210)는 도 3a처럼 입력된 영상의 각 픽셀에 y방향(세로방향) 마스크의 가운데를 기준으로 컨벌루션하여 y방향 에지를 추출하여 도 3b처럼 y방향 에지 영상을 생성하게 되고, 동일하게 도 3a처럼 입력된 영상의 각 픽셀에 x방향(가로방향) 마스크의 가운데를 기준으로 컨벌루션하여 x방향 에지를 추출하여 도 3c처럼 x방향 에지 영상을 생성하게 된다.As shown in FIGS. 3A to 3D, the principle of generating a background image by using a free mask will be described. The edge image generator 210 extracts the y-direction edge by convolving each pixel of the input image as shown in FIG. 3A based on the center of the y-direction (vertical direction) mask, and generates the y-direction edge image as shown in FIG. 3B. Similarly, each pixel of the input image is convolved with respect to the center of the x-direction (horizontal direction) mask as shown in FIG. 3a to extract the x-direction edge to generate the x-direction edge image as shown in FIG. 3c.

그래서 에지영상 생성부(210)는 이렇게 생성된 y방향 에지 영상과 x방향 에지 영상을 합쳐서 도 3d처럼 정규화된 하나의 에지 영상을 생성하게 된다.
Thus, the edge image generator 210 generates the normalized one edge image as shown in FIG. 3D by combining the generated y-direction edge image and the x-direction edge image.

배경영상 생성부(210)는 에지 영상으로부터 배경 영상을 생성하게 되는데, 이를 도 4를 참조하여 설명한다.The background image generator 210 generates a background image from an edge image, which will be described with reference to FIG. 4.

도 4는 본 발명의 실시예에 따른 배경 영상을 생성하는 원리를 설명하기 위한 예시도이다.4 is an exemplary diagram for explaining a principle of generating a background image according to an exemplary embodiment of the present invention.

도 4에 도시한 바와 같이, 배경영상 생성부(210)는 에지 영상을 각 픽셀마다 이진화하는데, 에지가 있는 부분은 ‘1’로 에지가 없는 부분은 ‘0’로 이진화하여 에지 영상의 픽셀마다 그 이진화한 각 픽셀 값을 다음의 [수학식 1]과 같이 누적하게 된다.As shown in FIG. 4, the background image generator 210 binarizes an edge image for each pixel, and binarizes an edge portion to '1' and an edgeless portion to '0' for each pixel of the edge image. The binarized pixel values are accumulated as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00002
Figure pat00002

여기서, i는 입력되는 영상의 프레임(frame) 수이고, P(x,y)는 좌표 (x,y)의 픽셀값이며, 그리고 Pth는 픽셀 값의 임계치를 의미할 수 있다.Here, i may be the number of frames of the input image, P (x, y) may be a pixel value of coordinates (x, y), and Pth may mean a threshold of pixel values.

예컨대, N=15, Pth가 10인 경우에, 영상의 임의의 좌표 (x,y)의 화소 값이 첫 번째 영상에서 1이고 계속해서 열 다섯째 영상까지 1이라는 픽셀 값이 얻어지면, 그 누적 값은 15가 되어 임계치 10보다 크기 때문에 배경 영상의 한 픽셀이 될 수 있다.For example, in the case where N = 15 and Pth is 10, if a pixel value of any coordinate (x, y) of the image is 1 in the first image and 1 until the fifteenth image is obtained, the cumulative value Is 15, which is larger than the threshold 10, so that it can be one pixel of the background image.

배경영상 생성부(210)는 각 픽셀마다 누적된 값을 이용하여 하나의 배경 영상을 생성하게 되는데, 임계값보다 큰 값을 갖는 픽셀 부분은 흰색으로 처리되고 임계값보다 작은 값을 갖는 픽셀 부분은 검은색으로 처리되어 보여지게 된다.
The background image generator 210 generates one background image by using accumulated values for each pixel. The pixel portion having a value larger than the threshold value is processed as white and the pixel portion having a value smaller than the threshold value is generated. It will be processed in black.

차선 검출부(230)는 생성된 배경 영상으로부터 도로의 차선을 검출하게 되는데, 이를 도 5를 참조하여 설명한다.The lane detector 230 detects a lane of a road from the generated background image, which will be described with reference to FIG. 5.

도 5는 본 발명의 실시예에 따른 차선을 검출하는 원리를 설명하기 위한 예시도이다.5 is an exemplary view for explaining a principle of detecting a lane according to an exemplary embodiment of the present invention.

도 5에 도시한 바와 같이, 차선 검출부(230)는 (a)처럼 생성된 배경 영상 내에서 국부적으로 소정 개수의 블록을 설정 예컨대, 정지선으로부터 일정 간격으로 설정하며, 각 블록마다 허프 변환(hough transform)을 하여 직선 성분을 검출하게 된다.As shown in FIG. 5, the lane detection unit 230 locally sets a predetermined number of blocks within a background image generated as shown in (a), for example, at a predetermined interval from a stop line, and a hough transform for each block. Linear components are detected.

차선 검출부(230)는 검출된 직선 성분을 분석하게 되는데, 각각의 블록에서 생성된 직선 성분을 영상의 끝까지 연장한 후에, 차선의 방향과 일치도가 낮은 가로 방향의 직선들을 제거하고, 다수의 인접한 직선 성분이나 중복된 직선 성분들을 제거함으로써 (b)처럼 하나의 직선 성분으로 이루어진 차선을 검출하게 된다.The lane detecting unit 230 analyzes the detected straight line components. After extending the straight line components generated in each block to the end of the image, the lane detecting unit 230 removes the horizontal straight lines having a low concordance with the direction of the lanes, and a plurality of adjacent straight lines. By removing the components or overlapping linear components, a lane composed of one linear component is detected as shown in (b).

이때, 차선 검출부(230)는 인접한 직선 성분이나 중복된 직선 성분들을 제거하기 위하여 각 성분들마다 픽셀 값을 누적하여 그 누적된 픽셀 값의 평균을 구하고, 그 평균 이하의 픽셀 값을 갖는 직선 성분들을 제거하게 된다.
At this time, the lane detector 230 accumulates pixel values for each component in order to remove adjacent linear components or overlapping linear components, calculates an average of the accumulated pixel values, and extracts linear components having pixel values less than or equal to the average. Will be removed.

도 6은 본 발명의 실시예에 따른 관심 영역을 설정하는 원리를 설명하기 위한 제1 예시도이다.6 is a first exemplary view for explaining a principle of setting a region of interest according to an exemplary embodiment of the present invention.

도 6에 도시한 바와 같이, 관심영역 설정부(240)는 차선 내부를 관심 영역으로 설정하게 되는데, 여기서 관심 영역은 차선 안쪽의 영역을 말하며 차량 이외의 물체가 움직이지 않는다고 가정한다. 이러한 관심 영역은 정지선으로부터 일정 간격 예컨대, 실제 거리 10m 간격으로 구분하게 된다.As shown in FIG. 6, the ROI setting unit 240 sets the inside of the lane as the ROI, where the ROI refers to an area inside the lane and assumes that an object other than the vehicle does not move. This region of interest is separated from the stop line by a certain distance, for example, an actual distance of 10m.

본 발명은 이렇게 관심 영역을 설정함으로써, 영상 전체를 처리하지 않고 차량이 통행하는 지역만을 처리하여 차량을 인식하기 때문에 처리 속도가 빨라지게 된다.
By setting the region of interest in the present invention, the processing speed is increased because the vehicle is recognized by processing only the area through which the vehicle passes without processing the entire image.

도 7은 본 발명의 실시에에 따른 차량의 특징점을 추출하는 원리를 설명하기 위한 예시도이다.7 is an exemplary diagram for explaining a principle of extracting feature points of a vehicle according to an exemplary embodiment of the present invention.

도 7에 도시한 바와 같이, 특징점 추출부(250)는 에지영상 생성부에서 생성된 에지 영상을 이용하여 관심 영역에서 차량의 특징점을 추출하게 된다. 여기서, 특징점이라는 것은 모서리 부분을 말하는데 모서리를 인식하기 위한 결과 값 R은 다음의 [수학식 2]와 같다.As illustrated in FIG. 7, the feature point extractor 250 extracts the feature points of the vehicle from the ROI using the edge image generated by the edge image generator. Here, the feature point refers to the edge portion, and the resultant value R for recognizing the edge is expressed by Equation 2 below.

[수학식 2][Equation 2]

R = (ab-c2) - k× (a+b)2 R = (ab-c 2 )-k × (a + b) 2

여기서, a는 x방향(가로방향) 에지 성분의 값이고, b는 y방향(세로방향) 에지 성분의 값이며, c는 대각선 방향의 에지 성분의 값을 의미한다. 즉, y는 도 3의 (a)에서의 에지 성분에 대한 픽셀 값이고, x는 도 3의 (b)에서의 에지 성분에 대한 픽셀 값이며, 대각선은 도 3의 (c)에서의 에지 성분에 대한 픽셀 값이다.Here, a is the value of the x-direction (horizontal direction) edge component, b is the value of the y-direction (vertical direction) edge component, and c means the value of the edge component in the diagonal direction. That is, y is the pixel value for the edge component in FIG. 3A, x is the pixel value for the edge component in FIG. 3B, and the diagonal is the edge component in FIG. 3C. The pixel value for.

그래서 R > 0 크면, 특징점 추출부(250)는 그 픽셀을 특징점으로 인식하게 된다.
Therefore, when R> 0, the feature point extractor 250 recognizes the pixel as the feature point.

도 8은 본 발명의 실시예에 따른 차량을 인식하는 원리를 설명하기 위한 예시도이다.8 is an exemplary view for explaining a principle of recognizing a vehicle according to an exemplary embodiment of the present invention.

도 8에 도시한 바와 같이, 차량 인식부(260)는 먼저 차선의 각도를 계산하고 계산된 차선의 각도에 따라 특징점을 (a)와 같이 연결하게 된다. 그리고 차량 인식부(260)는 (b)와 같이 연결된 선들의 내부를 채움으로써 차량을 인식하게 된다.
As shown in FIG. 8, the vehicle recognition unit 260 first calculates the angle of the lane and connects the feature points according to the calculated angle of the lane as shown in (a). The vehicle recognition unit 260 recognizes the vehicle by filling the inside of the connected lines as shown in (b).

그러면 교통정보 산출부(270)는 차량 인식을 통해 각종 교통 정보를 산출하게 되는데, 특히, 대기 길이를 도 9를 참조하여 설명한다.Then, the traffic information calculator 270 calculates various traffic information through vehicle recognition. In particular, the waiting length will be described with reference to FIG. 9.

도 9는 본 발명의 실시예에 따른 대기 길이를 산출하는 원리를 설명하기 위한 예시도이다.9 is an exemplary view for explaining a principle of calculating an air length according to an embodiment of the present invention.

도 9에 도시한 바와 같이, 교통정보 산출부(270)는 정지선부터 차량이 있는 관심 영역까지를 대기 길이로 측정하게 되는데, 특히, 차선 중간에 차량이 없다고 인식될 경우에는 정지선에 가까운 관심 영역까지 만을 대기 길이로 측정하게 된다.As shown in FIG. 9, the traffic information calculating unit 270 measures the waiting area from the stop line to the area of interest in which the vehicle is located, in particular, when it is recognized that there is no vehicle in the middle of the lane, to the area of interest close to the stop line. Bay is measured in air length.

이는 도 6과 같이 관심 영역을 정지선에서 일정 거리마다 구분되도록 하였기 때문에 차량이 인식된 관심 영역을 판단함으로써, 그 대기 길이를 측정할 수 있다.
Since the region of interest is divided at predetermined distances from the stop line as shown in FIG. 6, the waiting length may be measured by determining the region of interest in which the vehicle is recognized.

또한, 교통정보 산출부(270)는 위와 같이 차량을 인식하는 방법을 통해 대기 길이 이외에도 차량의 대수, 크기, 및 속도 등의 교통정보를 산출하게 된다.In addition, the traffic information calculator 270 calculates traffic information such as the number, size, and speed of the vehicle in addition to the air length through the method of recognizing the vehicle as described above.

예컨대, 1)차량의 대수를 산출하는 경우에, 교차로에서 신호등이 빨간불에서 파란불로 바뀔 때 정지선 근처의 관심 영역에서 차량이 인식될 때마다 카운트를 하여 차량의 대수를 산출할 수 있다.For example, 1) In the case of calculating the number of vehicles, the number of vehicles can be calculated by counting each time the vehicle is recognized in the region of interest near the stop line when the traffic light changes from red light to blue light at the intersection.

2)차량의 크기를 산출하는 경우에, 대형차와 소형차로 구분할 수 있는데, 정지선 근처의 관심 영역에서 차량이 있을 때의 시간이 길면 대형차로 인식하고 차량이 있을 때의 시간이 짧으면 소형차로 인식할 수 있다.2) When calculating the size of a vehicle, it can be divided into a large car and a small car. If the time when there is a vehicle is long in the region of interest near the stop line, it can be recognized as a large car and if the time when the car is short, it can be recognized as a small car. have.

3)차량의 속도는 이전의 특징점으로 차량 모양을 생성했던 결과 영상과 현재 처리 결과 영상 간의 움직임 벡터를 구하여 각각의 움직임 벡터의 크기를 분석하여 차량의 속도를 산출할 수 있다. 3) The speed of the vehicle can be calculated by analyzing the magnitude of each motion vector by obtaining the motion vector between the result image of the previous shape and the current image.

이때, 같은 속도의 차량이라도 멀리 있는 차량의 경우에는 벡터의 크기가 작고 가까이 있는 차량의 경우에는 벡터의 크기가 크게 나타나게 되기 때문에 관심 영역에 따라 각 벡터에 가중치를 넣어서 속도를 산출할 수 있다.In this case, since the size of the vector is small in the case of a distant vehicle and the size of the vector is large in the case of a vehicle of the same speed, the speed can be calculated by adding a weight to each vector according to the region of interest.

4)차량의 대기 길이를 산출하는 경우에, 관심 영역에 대해 y방향(세로)으로 일정 비율 이상의 길이가 검출되면 관심 영역에 차량이 있는 것으로 판단할 수 있다. 예컨대, 일정 비율은 70% 이상인 것이 바람직하다.4) In the case of calculating the waiting length of the vehicle, if a length of a predetermined ratio or more is detected in the y direction (vertical) with respect to the region of interest, it may be determined that the vehicle is in the region of interest. For example, it is preferable that a fixed ratio is 70% or more.

또한, 제어부(290)는 영상 검지기 내의 모든 전자 기기를 제어할 수 있다.
In addition, the controller 290 may control all electronic devices in the image detector.

도 10은 본 발명의 실시예에 따른 관심 영역을 설정하는 원리를 설명하기 위한 제2 예시도이다.10 is a second exemplary view for explaining a principle of setting a region of interest according to an embodiment of the present invention.

도 10에 도시한 바와 같이, 관심 영역을 설정하는 경우 차선이 직선이 아닌 곡선이면 사용자가 직접 관심 영역을 설정할 수 있는데, 관심 영역의 모서리 부분에 대한 좌표를 입력하되, 사각형의 모양이 되도록 그 좌표를 설정하는 것이 바람직하다.
As shown in FIG. 10, when the ROI is set, if the lane is a curve rather than a straight line, the user may directly set the ROI. While inputting coordinates of an edge of the ROI, the coordinates are formed to have a rectangular shape. It is preferable to set.

도 11은 본 발명의 실시에에 따른 교통정보를 산출하는 방법을 나타내는 예시도이다.11 is an exemplary view showing a method of calculating traffic information according to an embodiment of the present invention.

도 11에 도시한 바와 같이, 영상 검지기는 영상 입력기로부터 촬영된 영상을 입력받으면(S110), 입력되는 영상을 에지 추출 마스크를 통해 에지를 추출하여 에지 영상을 생성하고(S120) 생성된 에지 영상으로부터 배경 영상을 생성하게 된다(S130).As shown in FIG. 11, when the image detector receives an image captured by an image inputter (S110), the image detector extracts an edge through an edge extraction mask to generate an edge image (S120). A background image is generated (S130).

영상 검지기는 생성된 배경 영상 내에서 소정 개수의 블록을 설정하고(S140), 각 블록마다 허프 변환(hough transform)을 하여 직선 성분을 검출하고, 그 직선 성분들을 처리 즉, 불필요한 직선 성분을 제거하여 차선을 검출하게 된다(S150).The image detector sets a predetermined number of blocks in the generated background image (S140), performs a hough transform on each block, detects linear components, and processes the linear components, that is, removes unnecessary linear components. The lane is detected (S150).

영상 검지기는 차선 내부를 관심 영역으로 설정하고(S160), 생성된 에지 영상을 이용하여 설정된 관심 영역에서 차량의 특징점을 추출하게 된다(S170).The image detector sets the inside of the lane as the region of interest (S160), and extracts the feature points of the vehicle from the region of interest set using the generated edge image (S170).

영상 검지기는 추출된 차량의 특징점을 연결하고 그 내부를 채워 차량 모양을 생성함으로써(S180) 이렇게 생성된 차량 모양을 분석하여 차량을 인식하게 된다.The image detector connects the feature points of the extracted vehicle and fills the interior to generate a vehicle shape (S180), thereby analyzing the generated vehicle shape to recognize the vehicle.

영상 검지기는 인식한 차량을 통해 차량의 대수, 크기, 속도, 및 대기 길이 등의 교통정보를 산출하고(S190), 산출된 교통정보를 교통운영 센터에 전송하게 된다(S200).
The image detector calculates traffic information such as the number, size, speed, and air length of the vehicle through the recognized vehicle (S190), and transmits the calculated traffic information to the traffic operation center (S200).

이와 같이, 본 발명은 입력된 영상 내에서 소정 개수의 블록을 설정하고, 그 불록 내에서 차량의 특징점으로 차량을 인식하여 이를 기반으로 차량의 대수, 크기, 속도, 및 대기 길이 등의 교통정보를 산출함으로써, 설치가 용이할 뿐만 아니라 교통정보 산출을 위한 처리 속도가 빠르고 정확도가 높을 수 있다.
As described above, the present invention sets a predetermined number of blocks in the input image, recognizes the vehicle as a feature point of the vehicle in the block, and based on the traffic information such as the number, size, speed, and air length of the vehicle, By calculating, not only the installation is easy but also the processing speed for calculating the traffic information can be high and high accuracy.

본 발명에 의한, 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치 및 그 방법은 본 발명의 기술적 사상의 범위 내에서 다양한 형태로 변형, 응용 가능하며 상기 실시 예에 한정되지 않는다. 또한, 상기 실시 예와 도면은 발명의 내용을 상세히 설명하기 위한 목적일 뿐, 발명의 기술적 사상의 범위를 한정하고자 하는 목적은 아니며, 이상에서 설명한 본 발명은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형, 및 변경이 가능하므로 상기 실시 예 및 첨부된 도면에 한정되는 것은 아님은 물론이며, 후술하는 청구범위뿐만이 아니라 청구범위와 균등 범위를 포함하여 판단되어야 한다.The apparatus and method for calculating traffic information of an intelligent transportation system according to the present invention can be modified and applied in various forms within the scope of the technical idea of the present invention, and are not limited to the above embodiments. In addition, the embodiments and drawings are merely for the purpose of describing the contents of the invention in detail, not intended to limit the scope of the technical idea of the invention, the present invention described above is common knowledge in the technical field to which the present invention belongs As those skilled in the art can have various substitutions, modifications, and changes without departing from the technical spirit of the present invention, it is not limited to the above embodiments and the accompanying drawings, of course, and not only the claims to be described below but also claims Judgment should be made including scope and equivalence.

110: 영상 입력기
120: 영상 감지기
130: 교통운영 센터
210: 에지영상 생성부
220: 배경영상 생성부
230: 차선 검출부
240: 관심영역 설정부
250: 특징점 추출부
260: 차량 인식부
270: 교통정보 산출부
280: 교통정보 전송부
290: 제어부
110: video input
120: video sensor
130: Traffic Operations Center
210: edge image generation unit
220: background image generation unit
230: lane detection unit
240: region of interest setting unit
250: feature point extraction unit
260: vehicle recognition unit
270: traffic information calculation unit
280: traffic information transmitter
290: control unit

Claims (14)

도로의 교통 상황을 촬영하는 영상 입력기;
상기 영상 입력기로부터 입력된 영상을 기반으로 배경 영상을 생성하고 생성된 상기 배경 영상으로부터 차선을 검출하고, 검출된 상기 차선 내부를 관심 영역으로 설정하며 그 설정한 관심 영역 내에서 차량의 특징점을 추출하며 추출된 상기 차량의 특징점으로 차량을 인식하여 교통 정보를 산출하는 영상 검지기; 및
산출된 상기 교통정보를 유/무선 네트워크를 통해 제공받는 교통운영 센터
를 포함하는 지능형 교통 시스템.
An image inputter for photographing traffic conditions on the road;
Generates a background image based on the image input from the image input unit, detects a lane from the generated background image, sets the detected inside of the lane as a region of interest, and extracts feature points of the vehicle within the set region of interest. An image detector for recognizing the vehicle as the extracted feature point of the vehicle and calculating traffic information; And
Traffic operation center that receives the calculated traffic information through wired / wireless network
Intelligent transportation system comprising a.
제1 항에 있어서,
상기 영상 검지기는,
영상 입력기로부터 입력되는 상기 영상을 에지 추출 마스크를 통해 에지를 추출하여 에지 영상을 생성하고 생성된 에지 영상으로부터 배경 영상을 생성하고,
생성된 상기 배경 영상 내에서 소정 개수의 블록을 설정하며,
설정된 상기 블록마다 허프 변환을 수행하여 직선 성분을 검출하고, 그 직선 성분들로부터 차선을 검출하는 것을 특징으로 하는 지능형 교통 시스템.
The method according to claim 1,
The video detector,
Extracts an edge from the image input from the image input unit through an edge extraction mask to generate an edge image, and generates a background image from the generated edge image,
A predetermined number of blocks are set in the generated background image.
And performing a Hough transform for each set block to detect a linear component and detecting a lane from the linear components.
제2 항에 있어서,
상기 영상 검지기는,
차선 내부를 관심 영역으로 설정하여 생성된 상기 에지 영상을 이용하여 설정된 관심 영역에서 차량의 특징점을 추출하고,
추출된 상기 차량의 특징점을 연결하여 그 내부를 채워 차량 모양을 생성하며,
생성된 상기 차량 모양으로 차량을 인식하는 것을 특징으로 하는 지능형 교통 시스템.
The method of claim 2,
The video detector,
Extracting feature points of the vehicle from the region of interest set using the edge image generated by setting the inside of the lane as the region of interest;
By connecting the extracted feature points of the vehicle to fill the inside to create a vehicle shape,
Intelligent traffic system, characterized in that for recognizing the vehicle in the shape of the vehicle generated.
영상 입력기로부터 입력되는 상기 영상을 에지 추출 마스크를 통해 에지를 추출하여 에지 영상을 생성하는 에지영상 생성부;
생성된 상기 에지 영상으로부터 배경 영상을 생성하는 배경영상 생성부;
생성된 상기 배경 영상 내에서 소정 개수의 블록을 설정하고, 각 블록마다 허프 변환을 하여 직선 성분을 검출하고, 그 직선 성분들을 처리하여 차선을 검출하는 차선 검출부;
검출된 상기 차선 내부를 관심 영역으로 설정하는 관심영역 설정부;
생성된 상기 에지 영상 내의 관심 영역에서 차량의 특징점을 추출하는 특징점 추출부;
추출된 상기 차량의 특징점을 연결하여 그 내부를 채워 차량 모양을 생성하고, 생성된 상기 차량 모양을 분석하여 상기 차량을 인식하는 차량 인식부;
상기 차선 내부에 있는 차량의 인식을 통해 상기 각종 교통정보를 산출하는 교통정보 산출부
를 포함하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치.
An edge image generation unit configured to generate an edge image by extracting an edge from the image input from the image input unit through an edge extraction mask;
A background image generator for generating a background image from the generated edge image;
A lane detector configured to set a predetermined number of blocks in the generated background image, perform a Hough transform for each block, detect a linear component, and process the linear components to detect a lane;
A region of interest setting unit configured to set the detected inside of the lane as a region of interest;
A feature point extracting unit extracting feature points of the vehicle from the region of interest in the generated edge image;
A vehicle recognition unit configured to connect the extracted feature points of the vehicle to fill the inside to generate a vehicle shape, and analyze the generated vehicle shape to recognize the vehicle;
Traffic information calculation unit for calculating the various traffic information through the recognition of the vehicle inside the lane
Apparatus for calculating traffic information of the intelligent transport system comprising a.
제4 항에 있어서,
상기 에지 추출 마스크는,
소벨(sobel) 마스크, 및 프리윗(prewitt) 마스크 중 어느 하나인 것을 특징으로 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치.
The method of claim 4, wherein
The edge extraction mask,
Apparatus for calculating traffic information of an intelligent transportation system, characterized in that it is any one of a sobel mask and a prewitt mask.
제4 항에 있어서,
상기 에지영상 생성부는,
영상의 각 픽셀에 세로방향 마스크의 가운데를 기준으로 컨벌루션하여 세로방향 에지를 추출하여 세로방향 에지 영상을 생성하고,
영상의 각 픽셀에 가로방향 마스크의 가운데를 기준으로 컨벌루션하여 가로방향 에지를 추출하여 가로방향 에지 영상을 생성하며,
상기 세로방향 에지 영상과 상기 가로방향 에지 영상을 합쳐서 하나의 에지 영상을 생성하는 것을 특징으로 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치.
The method of claim 4, wherein
The edge image generation unit,
A vertical edge image is generated by extracting the vertical edges by convolving each pixel of the image based on the center of the vertical mask.
Each pixel of the image is convolved based on the center of the horizontal mask to extract horizontal edges, thereby generating a horizontal edge image.
And generating the one edge image by combining the vertical edge image and the horizontal edge image.
제4 항에 있어서,
상기 배경영상 생성부는,
상기 에지 영상을 각 픽셀마다 이진화하여 픽셀마다 그 이진화한 값을 누적하여 그 누적한 값을 이용하여 상기 배경 영상을 생성하되,
수학식 을 통해 누적하고, 여기서, i는 입력되는 영상의 프레임(frame) 수이고, P(x,y)는 좌표 (x,y)의 픽셀값이며, 그리고 Pth는 픽셀 값의 임계치인 것을 특징으로 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치.
The method of claim 4, wherein
The background image generator,
Binarize the edge image for each pixel, accumulate the binarized value for each pixel, and generate the background image using the accumulated value,
Accumulated through the equation, wherein i is the number of frames of the input image, P (x, y) is a pixel value of coordinates (x, y), and Pth is a threshold of pixel values. A device for calculating traffic information of an intelligent traffic system.
제4 항에 있어서,
상기 특징점 추출부는,
생성된 상기 에지 영상 내의 관심 영역에서 차량의 특징점을 추출하되,
수학식 R = (ab-c2) - k× (a+b)2에 의해 구하고, 여기서, a는 가로방향 에지 성분의 값이고, b는 세로방향 에지 성분의 값이며, c는 대각선 방향의 에지 성분의 값인 것을 특징으로 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치.
The method of claim 4, wherein
The feature point extraction unit,
Extracting feature points of the vehicle from the region of interest in the generated edge image,
Calculated by the formula R = (ab-c 2 ) -k × (a + b) 2 , where a is the value of the transverse edge component, b is the value of the longitudinal edge component, and c is the diagonal direction. Apparatus for calculating traffic information of an intelligent transportation system, characterized in that the value of the edge component.
제4 항에 있어서,
산출된 상기 각종 교통 정보를 유/무선 네트워크를 통해 교통운영 센터로 전송하는 교통정보 전송부
를 더 포함하는 것을 특징으로 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치.
The method of claim 4, wherein
Traffic information transmission unit for transmitting the calculated various traffic information to the traffic management center through a wired / wireless network
Apparatus for calculating the traffic information of the intelligent transportation system further comprising.
영상 입력기로부터 입력된 영상을 기반으로 배경 영상을 생성하고 생성된 상기 배경 영상으로부터 차선을 검출하는 단계;
검출된 상기 차선 내부를 관심 영역으로 설정하여 그 설정한 관심 영역 내에서 차량의 특징점을 추출하는 단계; 및
추출된 상기 차량의 특징점으로 차량을 인식하여 각종 교통정보를 산출하는 단계
를 포함하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 방법.
Generating a background image based on an image input from an image input unit and detecting a lane from the generated background image;
Setting the detected inside of the lane as a region of interest and extracting feature points of the vehicle within the set region of interest; And
Calculating various traffic information by recognizing the vehicle as the extracted feature point of the vehicle
Method for calculating traffic information of the intelligent transport system comprising a.
제10 항에 있어서,
상기 차선을 검출하는 단계는,
상기 영상 입력기로부터 입력되는 상기 영상을 에지 추출 마스크를 통해 에지를 추출하여 에지 영상을 생성하고 생성된 상기 에지 영상으로부터 배경 영상을 생성하고,
생성된 상기 배경 영상 내에서 소정 개수의 블록을 설정하고, 각 블록마다 허프 변환을 하여 직선 성분을 검출하고, 그 직선 성분들을 처리하여 차선을 검출하는 것을 특징으로 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 방법.
The method of claim 10,
Detecting the lane,
Extracts an edge from the image input from the image input unit through an edge extraction mask to generate an edge image, and generates a background image from the generated edge image,
The traffic information of the intelligent traffic system is calculated by setting a predetermined number of blocks in the generated background image, performing a Hough transform for each block, detecting linear components, and processing the linear components to detect lanes. How to.
제10 항에 있어서,
상기 교통정보를 산출하는 단계는,
추출된 상기 차량의 특징점을 연결하여 그 내부를 채워 차량 모양을 생성하고,생성된 상기 차량 모양을 분석하여 상기 차량을 인식하며,상기 차선 내부에 있는 차량의 인식을 통해 상기 각종 교통정보를 산출하는 것을 특징으로 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 방법.
The method of claim 10,
Computing the traffic information,
Connecting the extracted feature points of the vehicle to fill the interior to generate a vehicle shape, analyzing the generated vehicle shape to recognize the vehicle, and calculating the various traffic information by recognizing the vehicle inside the lane; Method for calculating the traffic information of the intelligent transportation system, characterized in that.
제12 항에 있어서,
상기 교통정보를 산출하는 단계는,
상기 차량의 인식을 통해 차량의 대수, 크기, 속도, 및 대기 길이 중 적어도 하나를 산출하는 것을 특징으로 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 장치.
The method of claim 12,
Computing the traffic information,
And at least one of a number, a size, a speed, and a standby length of the vehicle through the recognition of the vehicle.
제12 항에 있어서,
상기 교통정보를 산출하는 단계는,
상기 차량의 인식을 통해 정지선부터 차량이 있는 관심 영역까지를 차량의 대기길이로 산출하되,
관심 영역에서 세로 방향으로 일정 비율 이상의 길이가 검출되면 차량이 있는 것으로 판단하는 것을 특징으로 하는 지능형 교통 시스템의 교통 정보를 산출하기 위한 방법.
The method of claim 12,
Computing the traffic information,
Through the recognition of the vehicle to calculate the waiting length of the vehicle from the stop line to the region of interest in which the vehicle,
A method for calculating traffic information of an intelligent transportation system, characterized in that it is determined that a vehicle exists when a length of a predetermined ratio or more is detected in a region of interest.
KR1020100042463A 2010-05-06 2010-05-06 Apparatus for yielding traffic information of intelligent transport system and method thereof KR101104625B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100042463A KR101104625B1 (en) 2010-05-06 2010-05-06 Apparatus for yielding traffic information of intelligent transport system and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100042463A KR101104625B1 (en) 2010-05-06 2010-05-06 Apparatus for yielding traffic information of intelligent transport system and method thereof

Publications (2)

Publication Number Publication Date
KR20110123042A true KR20110123042A (en) 2011-11-14
KR101104625B1 KR101104625B1 (en) 2012-01-12

Family

ID=45393331

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100042463A KR101104625B1 (en) 2010-05-06 2010-05-06 Apparatus for yielding traffic information of intelligent transport system and method thereof

Country Status (1)

Country Link
KR (1) KR101104625B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366568A (en) * 2013-06-26 2013-10-23 东南大学 Vehicle queue video detection method and system for traffic roads
KR101352662B1 (en) * 2012-12-28 2014-01-17 주식회사 만도 Apparatus and method for detecting passing vehicle using lane recognition
KR101383467B1 (en) * 2013-02-14 2014-04-08 한국산업기술대학교산학협력단 Adapting lane trace system using trace modeling based vision
KR101383828B1 (en) * 2013-01-14 2014-04-21 충북대학교 산학협력단 Apparatus and method for estimating location of mobile device using contour information of image
CN105374209A (en) * 2015-11-05 2016-03-02 北京航空航天大学 Urban region road network running state characteristic information extraction method
KR20160044757A (en) * 2014-10-16 2016-04-26 에스케이텔레콤 주식회사 Method and Apparatus for Analyzing Traffic Situation
KR20180047116A (en) * 2016-10-31 2018-05-10 연세대학교 산학협력단 Method and Apparatus for Estimating Traffic Information Using CCTV Image Analysis
KR20180067949A (en) * 2016-12-13 2018-06-21 홍익대학교 산학협력단 System and method of blackbox video sequence analysis for gathering information of crime scene or car accident
KR20190076271A (en) * 2017-12-22 2019-07-02 한동대학교 산학협력단 Method and System for Analysis of Road Congestion robust to Vehicle Stagnation Using CCTV
KR20210059493A (en) * 2019-11-15 2021-05-25 한국건설기술연구원 Lane information generation system by lane
KR102283483B1 (en) * 2021-02-19 2021-07-29 주식회사 싸인텔레콤 Image analysis system for calculating traffic volume
KR102499023B1 (en) * 2022-01-27 2023-02-14 포티투닷 주식회사 Apparatus and method for determining traffic flow by lane

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230004146A (en) 2021-06-30 2023-01-06 주식회사 케이티 Server, method and computer program for setting detection area using image data

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981758A (en) * 1995-09-19 1997-03-28 Toshiba Corp Vehicle detecting device
KR100552389B1 (en) * 2004-02-21 2006-02-20 유일정보시스템(주) Advanced Traffic Analyzing System by Descriminating Types of Vehicles

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101352662B1 (en) * 2012-12-28 2014-01-17 주식회사 만도 Apparatus and method for detecting passing vehicle using lane recognition
KR101383828B1 (en) * 2013-01-14 2014-04-21 충북대학교 산학협력단 Apparatus and method for estimating location of mobile device using contour information of image
KR101383467B1 (en) * 2013-02-14 2014-04-08 한국산업기술대학교산학협력단 Adapting lane trace system using trace modeling based vision
CN103366568A (en) * 2013-06-26 2013-10-23 东南大学 Vehicle queue video detection method and system for traffic roads
KR20160044757A (en) * 2014-10-16 2016-04-26 에스케이텔레콤 주식회사 Method and Apparatus for Analyzing Traffic Situation
CN105374209A (en) * 2015-11-05 2016-03-02 北京航空航天大学 Urban region road network running state characteristic information extraction method
KR20180047116A (en) * 2016-10-31 2018-05-10 연세대학교 산학협력단 Method and Apparatus for Estimating Traffic Information Using CCTV Image Analysis
KR20180067949A (en) * 2016-12-13 2018-06-21 홍익대학교 산학협력단 System and method of blackbox video sequence analysis for gathering information of crime scene or car accident
KR20190076271A (en) * 2017-12-22 2019-07-02 한동대학교 산학협력단 Method and System for Analysis of Road Congestion robust to Vehicle Stagnation Using CCTV
KR20210059493A (en) * 2019-11-15 2021-05-25 한국건설기술연구원 Lane information generation system by lane
KR102283483B1 (en) * 2021-02-19 2021-07-29 주식회사 싸인텔레콤 Image analysis system for calculating traffic volume
KR102499023B1 (en) * 2022-01-27 2023-02-14 포티투닷 주식회사 Apparatus and method for determining traffic flow by lane

Also Published As

Publication number Publication date
KR101104625B1 (en) 2012-01-12

Similar Documents

Publication Publication Date Title
KR101104625B1 (en) Apparatus for yielding traffic information of intelligent transport system and method thereof
CN106373430B (en) Intersection traffic early warning method based on computer vision
CN104008645B (en) One is applicable to the prediction of urban road lane line and method for early warning
US8184859B2 (en) Road marking recognition apparatus and method
JP4650079B2 (en) Object detection apparatus and method
CN103942959B (en) A kind of lane detection method and device
CN102316307B (en) Road traffic video detection method and apparatus thereof
KR100459476B1 (en) Apparatus and method for queue length of vehicle to measure
CN104616502B (en) Car license recognition and alignment system based on combination type bus or train route video network
RU2698610C2 (en) Method and processing unit for control over traffic monitoring system
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
CN103500322A (en) Automatic lane line identification method based on low-altitude aerial images
CN108528336A (en) A kind of vehicle crimping gives warning in advance system
KR102200204B1 (en) 3-D Image Analyzing System Using CCTV Image
KR102093237B1 (en) Vehicle classification system using non-contact automatic vehicle detectior
CN103646544B (en) Based on the vehicle behavioural analysis recognition methods of The Cloud Terrace and camera apparatus
KR20110001427A (en) High speed road lane detection method based on extraction of roi-lb
CN106327880A (en) Vehicle speed identification method and system based on monitored video
KR101264282B1 (en) detection method vehicle in road using Region of Interest
CN103021179A (en) Real-time monitoring video based safety belt detection method
JPH11175880A (en) Vehicle height measuring device and vehicle monitoring system using same
KR20160116686A (en) Multi-lane over-speed enforcement system based on FPGA, using radar speed sensor and low resolution image camera
KR101073053B1 (en) Auto Transportation Information Extraction System and Thereby Method
KR100532058B1 (en) Traffic information acquisition method and apparatus using camera calibration
CN105069407B (en) A kind of magnitude of traffic flow acquisition methods based on video

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151228

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170405

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee