KR102097673B1 - System and method for obtaining information of vehicle using side image thereof - Google Patents

System and method for obtaining information of vehicle using side image thereof Download PDF

Info

Publication number
KR102097673B1
KR102097673B1 KR1020190049935A KR20190049935A KR102097673B1 KR 102097673 B1 KR102097673 B1 KR 102097673B1 KR 1020190049935 A KR1020190049935 A KR 1020190049935A KR 20190049935 A KR20190049935 A KR 20190049935A KR 102097673 B1 KR102097673 B1 KR 102097673B1
Authority
KR
South Korea
Prior art keywords
vehicle
area
coordinates
camera
side image
Prior art date
Application number
KR1020190049935A
Other languages
Korean (ko)
Inventor
이재현
정진형
Original Assignee
주식회사에스에이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사에스에이티 filed Critical 주식회사에스에이티
Priority to KR1020190049935A priority Critical patent/KR102097673B1/en
Application granted granted Critical
Publication of KR102097673B1 publication Critical patent/KR102097673B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • G07B15/06Arrangements for road pricing or congestion charging of vehicles or vehicle users, e.g. automatic toll systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • G06K2209/23
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Finance (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

The preset invention relates to a vehicle information obtaining system which comprises a camera for photographing a side image of a vehicle passing the road and a controller for obtaining information on the side length, the number of axes, and a wheelbase of the vehicle using the side image of the vehicle photographed by the camera. According to the present invention, by using the side image photographed by the camera, the information on the length, the number of axes, and a wheelbase of the vehicle can be obtained so that installation costs and maintenance costs can be reduced compared to the conventional method of embedding a sensor.

Description

차량의 측면 영상을 이용한 차량 정보 획득 시스템 및 방법 {System and method for obtaining information of vehicle using side image thereof}Vehicle information acquisition system and method using vehicle side image {System and method for obtaining information of vehicle using side image thereof}

본 발명은 차종 분류 장치에 관한 것으로서, 더욱 상세하게는 차량의 측면 길이, 축수, 축거를 포함하는 차량 정보를 획득하는 기술에 관한 것이다.The present invention relates to a vehicle classifying apparatus, and more particularly, to a technology for obtaining vehicle information including side length, number of axes, and wheelbase of a vehicle.

일반적으로, 국도, 지방도 및 고속도로 등의 도로와, 고속도로를 포함하는 유료 도로의 진입로에는 교통량의 조사를 목적으로 하거나 차종별로 통행료를 징수할 목적으로 차종 분류장치가 설치되고 있다.2. Description of the Related Art In general, a vehicle classifier is installed on roads such as national roads, local roads and highways, and toll roads including highways for the purpose of investigating traffic or collecting tolls for each vehicle type.

ITS(Intelligent Transportation Systems)용 차량 검지기 및 도로교통량 조사용 차종분류장치(Automatic Vehicle Classification, AVC)는 도로상에 매설형 또는 비 매설형으로 설치되며, 통과차량의 교통량, 속도, 점유율, 차량길이 등의 자료를 실시간으로 수집해 교통관제센터에 전송하고, 교통관제센터에서는 전송된 자료를 바탕으로 전광판 및 각종 서비스 매체를 통하여 구간별 교통량을 실시간으로 안내해 주고 있다.Vehicle detection for ITS (Intelligent Transportation Systems) and automatic vehicle classification (AVC) for road traffic survey are installed in a buried or non-burden type on the road, and the traffic volume, speed, occupancy, vehicle length, etc. of passing vehicles The data is collected in real time and transmitted to the traffic control center, and the traffic control center guides the traffic volume for each section in real time through electronic signs and various service media based on the transmitted data.

이러한 도로교통량 조사용 장치는 톨게이트 및 고속도로와 일반국도에 설치되어 운영되고 있다.These road traffic survey devices are installed and operated on toll gates, highways, and national highways.

종래 차종분류장치는 접촉식과 비접촉식 방식을 포함하여 다양한 방식이 개발되어 사용되고 있으나, 대체적으로 매설형과 비 매설형으로 나눌 수 있다. Conventional vehicle classifiers have been developed and used in various ways, including contact and non-contact methods, but can be generally divided into buried and non-buried types.

도 1은 종래 매설형 차종분류장치를 도시한 도면이다. 1 is a view showing a conventional buried vehicle classifier.

도 1을 참조하면, 종래 매설형 차종분류장치는 차량(10)의 통과를 감지하고, 차종을 분류하고, 정확도를 보장하기 위해 루프센서와 피에조 센서를 이용한 복수개의 센서를 조합하여 사용하고 있다. 도 1의 예에서는 두 개의 피에조 센서(Piezoelectric sensor)(20)와, 루프센서(Loop sensor)(30)가 매설되어 있다. Referring to FIG. 1, a conventional buried vehicle classifier uses a combination of a plurality of sensors using a loop sensor and a piezo sensor to detect the passage of the vehicle 10, classify the vehicle model, and ensure accuracy. In the example of FIG. 1, two piezoelectric sensors 20 and a loop sensor 30 are embedded.

종래 매설형 차종분류장치에서는 다수의 매립식 센서(20, 30)를 이용하여 차량의 진입과 진출을 감지하여, 통행차량의 속도를 산출하고, 매립식 센서(20, 30)에 접촉한 타이어의 압력으로 검지한 축수와 축거 및 윤폭과 윤거 정보를 활용하여 차종을 분류한다. In the conventional buried vehicle classifier, a plurality of buried sensors 20 and 30 are used to detect the entry and exit of a vehicle, to calculate the speed of a passing vehicle, and of the tire contacting the buried sensors 20 and 30. The vehicle is classified using the number of wheels and wheelbase detected by pressure, and wheel width and wheelbase information.

이러한 매설형 차종분류장치의 경우, 다수의 센서를 도로에 매립하는데 따른 공사비용이 발생하고, 공사로 인한 도로파손 등의 문제가 발생하고 있으며, 정확한 분류를 위해 복수개의 센서가 필요함에 따라 전체적인 시스템의 복잡도가 증가하는 단점이 있다.In the case of such a vehicle type classification device, a construction cost is incurred due to the embedding of multiple sensors on the road, problems such as road damage caused by construction are occurring, and the entire system is required because a plurality of sensors are required for accurate classification. There is a disadvantage of increasing the complexity.

또한, 매립형 센서에 대한 타이어의 지속적인 접촉으로 인해, 센서의 내구성이 소모되어, 유지보수가 필요하게 되고, 유지보수 및 센서의 교체를 위해서 도로의 교통을 차단하고 도로 상에서 토목공사를 해야하는 등의 불편을 초래하고, 유지보수를 위한 고가의 비용이 발생한다는 문제점이 있다. In addition, due to the continuous contact of the tire to the buried sensor, the durability of the sensor is consumed, maintenance is required, and inconvenience such as having to cut off traffic on the road and perform civil engineering work on the road for maintenance and replacement of the sensor. It causes a problem that there is an expensive cost for maintenance.

대한민국 공개특허 10-2014-0027661Republic of Korea Patent Publication 10-2014-0027661

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 차량의 측면 영상을 이용하여 차량의 측면 길이, 축수 및 축거 정보를 획득할 수 있는 시스템 및 방법을 제공하는데 그 목적이 있다.The present invention has been devised to solve the above problems, and an object thereof is to provide a system and method for acquiring side length, number of axes, and wheelbase information of a vehicle using a side image of the vehicle.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

이와 같은 목적을 달성하기 위한 본 발명의 차량 정보 획득 시스템은 도로를 통행하는 차량의 측면 영상을 촬영하기 위한 카메라 및 상기 카메라에서 촬영된 차량의 측면 영상을 이용하여 차량의 측면 길이, 축수 및 축거 정보를 획득하는 제어기를 포함한다. The vehicle information acquisition system of the present invention for achieving the above object is a camera for photographing a side image of a vehicle passing through the road and a side length, number of axles, and wheelbase information of the vehicle using a side image of the vehicle captured by the camera It includes a controller for obtaining.

상기 카메라는 도로를 통행하는 차량의 측면을 촬영하여, 차량 측면의 전체 모습이 포함된 차량 측면 영상을 생성하고, 상기 제어기는 상기 차량 측면 영상을 이용하여 차량의 측면 길이, 축수 및 축거 정보를 획득할 수 있다. The camera photographs the side of the vehicle passing through the road, and generates a vehicle side image including the entire view of the side of the vehicle, and the controller uses the vehicle side image to obtain side length, number of axes, and wheelbase information of the vehicle. can do.

상기 제어기는 상기 차량 측면 영상에서 머신러닝을 이용한 영상 인식 기법을 통해 차량 영역을 검지하고, 검지된 차량 영역에서 측면 길이, 축수 및 축거 정보를 산출할 수 있다. The controller may detect a vehicle area through image recognition using machine learning from the vehicle side image, and calculate side length, number of axes, and wheelbase information from the detected vehicle region.

상기 제어기는, 상기 카메라로 촬영하는 도로 구간을 포함하는 실제 영역에 대한 실측 정보를 토대로 산출한 실측 좌표와, 상기 카메라에서 촬영된 차량 측면 영상 영역의 가상 좌표를 1:1로 매칭하고, 머신러닝을 이용한 영상 인식 기법을 통해 상기 차량 측면 영상에서 차량 영역을 검지하고, 검지된 차량 영역의 좌표를 산출하고, 상기 차량 영역에서 차량의 앞부분 좌표와 뒷부분 좌표를 이용하여 차량의 길이를 산출할 수 있다. The controller matches 1: 1 the actual coordinates calculated based on the actual information on the real area including the road section photographed by the camera and the virtual coordinates of the vehicle side image area captured by the camera, and machine learning. The vehicle area may be detected from the vehicle side image through the image recognition technique using, and the coordinates of the detected vehicle region may be calculated, and the vehicle length may be calculated using the front and rear coordinates of the vehicle in the vehicle region. .

상기 제어기는 머신러닝을 이용한 영상 인식 기법을 이용하여 상기 차량 측면 영상에서 타이어 오브젝트 영역을 검지하고, 검지된 타이어 오브젝트 영역의 좌표를 산출하고, 검지된 타이어 오브젝트 영역의 숫자를 축수로 인지하고, 양단에 위치한 각 타이어 오브젝트 영역의 좌표를 이용하여 축거 정보를 산출할 수 있다.The controller detects a tire object area from the vehicle side image using an image recognition technique using machine learning, calculates coordinates of the detected tire object area, recognizes the number of detected tire object areas as the number of axes, and ends Wheelbase information may be calculated using coordinates of each tire object area located at.

상기 제어기는 상기 카메라가 전송하는 화면에서 가상의 트리거 라인을 생성하고, 차량이 상기 트리거 라인에 도달하면 차량이 진입한 것으로 인지하고, 상기 카메라를 통해 차량의 측면 영상을 촬영하도록 구현할 수 있다. The controller may be implemented to generate a virtual trigger line on a screen transmitted by the camera, recognize that the vehicle has entered when the vehicle reaches the trigger line, and capture a side image of the vehicle through the camera.

본 발명의 카메라 및 제어기를 포함하는 차량 정보 획득 시스템에서의 차량 정보 획득 방법에서, 상기 카메라에서 도로를 통행하는 차량의 측면 영상을 촬영하는 단계 및 상기 제어기에서 상기 카메라에서 촬영된 차량의 측면 영상을 이용하여 차량의 측면 길이, 축수 및 축거 정보를 획득하는 단계를 포함한다. In a vehicle information acquisition method in a vehicle information acquisition system including a camera and a controller of the present invention, the side image of a vehicle passing through the road is photographed by the camera, and the side image of the vehicle photographed by the camera is captured by the controller. And obtaining side length, number of axes, and wheelbase information of the vehicle.

상기 카메라는 도로를 통행하는 차량의 측면을 촬영하여, 차량 측면의 전체 모습이 포함된 차량 측면 영상을 생성하고, 상기 제어기는 상기 차량 측면 영상을 이용하여 차량의 측면 길이, 축수 및 축거 정보를 획득할 수 있다. The camera photographs the side of the vehicle passing through the road, and generates a vehicle side image including the entire view of the side of the vehicle, and the controller uses the vehicle side image to obtain side length, number of axes, and wheelbase information of the vehicle. can do.

상기 제어기는 상기 차량 측면 영상에서 머신러닝을 이용한 영상 인식 기법을 통해 차량 영역을 검지하고, 검지된 차량 영역에서 측면 길이, 축수 및 축거 정보를 산출할 수 있다.The controller may detect a vehicle area through image recognition using machine learning from the vehicle side image, and calculate side length, number of axes, and wheelbase information from the detected vehicle region.

상기 제어기는, 상기 카메라로 촬영하는 도로 구간을 포함하는 실제 영역에 대한 실측 정보를 토대로 산출한 실측 좌표와, 상기 카메라에서 촬영된 차량 측면 영상 영역의 가상 좌표를 1:1로 매칭하는 단계와, 머신러닝을 이용한 영상 인식 기법을 통해 상기 차량 측면 영상에서 차량 영역을 검지하고, 검지된 차량 영역의 좌표를 산출하고, 상기 차량 영역에서 차량의 앞부분 좌표와 뒷부분 좌표를 이용하여 차량의 길이를 산출하는 단계를 수행할 수 있다. The controller, the 1: 1 coordinates of the actual coordinates calculated based on the actual information about the real area including the road section photographed by the camera, and the virtual coordinates of the vehicle side image area photographed by the camera, Detecting a vehicle area from the side image of the vehicle through image recognition using machine learning, calculating coordinates of the detected vehicle region, and calculating vehicle length using the front and rear coordinates of the vehicle in the vehicle region Steps can be performed.

상기 제어기는, 머신러닝을 이용한 영상 인식 기법을 이용하여 상기 차량 측면 영상에서 타이어 오브젝트 영역을 검지하는 단계와, 검지된 타이어 오브젝트 영역의 좌표를 산출하고, 검지된 타이어 오브젝트 영역의 숫자를 축수로 인지하는 단계와, 양단에 위치한 각 타이어 오브젝트 영역의 좌표를 이용하여 축거 정보를 산출하는 단계를 수행할 수 있다. The controller detects a tire object area in the vehicle side image using an image recognition technique using machine learning, calculates coordinates of the detected tire object area, and recognizes the detected number of tire object areas as the number of axes And calculating wheelbase information using coordinates of each tire object area located at both ends.

상기 제어기는 상기 카메라가 전송하는 화면에서 가상의 트리거 라인을 생성하고, 차량이 상기 트리거 라인에 도달하면 차량이 진입한 것으로 인지하고, 상기 카메라를 통해 차량의 측면 영상을 촬영하도록 구현할 수 있다. The controller may be implemented to generate a virtual trigger line on a screen transmitted by the camera, recognize that the vehicle has entered when the vehicle reaches the trigger line, and capture a side image of the vehicle through the camera.

본 발명에 의하면, 카메라에서 촬영된 차량의 측면 영상을 이용하여, 차량의 길이, 축수 및 축거 정보를 획득할 수 있으므로, 종래 센서를 매립하는 방식에 비해, 설치 비용과 유지보수 비용을 절감할 수 있다는 효과가 있다. According to the present invention, by using the side image of the vehicle photographed by the camera, it is possible to obtain the length, number of axes, and wheelbase information of the vehicle, so that it is possible to reduce installation and maintenance costs compared to a conventional sensor embedding method. There is an effect.

또한, 본 발명에 의하면, 기존 시스템에서 감지할 수 없는 차량의 가변축을 감지할 수 있으며, 차종 분류에 있어서 정확도를 향상시킬 수 있는 효과가 있다. In addition, according to the present invention, it is possible to detect a variable axis of a vehicle that cannot be detected in an existing system, and there is an effect of improving accuracy in classifying a vehicle.

또한, 본 발명에서는 도로를 통행하는 차량의 측면 영상을 획득함으로써, 통행량 자료로 활용할 수 있으며, 더 나아가서 ITS에서 필수적인 통행량 측정 및 차종분류 시스템에 활용되어, 신설도로 수요예측 및 도로관리에 기여할 수 있을 것으로 기대된다.In addition, in the present invention, by acquiring a side image of a vehicle passing through a road, it can be used as a traffic data, and furthermore, it can be used in a traffic measurement and vehicle classification system, which is essential in ITS, to contribute to the demand forecast and road management of new roads. Is expected.

도 1은 종래 매설형 차종분류장치를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 차량 정보 획득 시스템의 구성을 도시한 것이다.
도 3은 본 발명의 일 실시예에 따른 차량 정보 획득 시스템에서 카메라 설치 모습을 보여주는 도면이다.
도 4는 본 발명의 일 실시예에 따른 차량 정보 획득 방법을 보여주는 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 차량 정보 획득 시스템에서 실제 영역의 좌표와 가상 영역의 좌표를 매칭하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 차량 정보 획득 시스템에서 차량 및 타이어 오브젝트 영역을 인식하고 좌표를 계산하는 과정을 설명하기 위한 도면이다.
도 7은 호모그래피를 도시한 것이다.
도 8은 본 발명의 일 실시예에 따른 차량 정보 획득 시스템에서 타이어 오브젝트 인식을 위해 학습에 사용되는 이미지 영역을 도시한 것이다.
1 is a view showing a conventional buried vehicle classifier.
Figure 2 shows the configuration of a vehicle information acquisition system according to an embodiment of the present invention.
3 is a view showing a camera installation in the vehicle information acquisition system according to an embodiment of the present invention.
4 is a flowchart illustrating a method for obtaining vehicle information according to an embodiment of the present invention.
5 is a view for explaining a process of matching the coordinates of the real area and the coordinates of the virtual area in the vehicle information acquisition system according to an embodiment of the present invention.
6 is a view for explaining a process of recognizing a vehicle and a tire object area and calculating coordinates in a vehicle information acquisition system according to an embodiment of the present invention.
7 shows homography.
8 is a diagram illustrating an image area used for learning for tire object recognition in a vehicle information acquisition system according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention can be applied to various changes and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described on the specification exists, and that one or more other features are present. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 갖는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms, such as those defined in a commonly used dictionary, should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted. In the description of the present invention, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

도 2는 본 발명의 일 실시예에 따른 차량 정보 획득 시스템의 구성을 도시한 것이다. Figure 2 shows the configuration of a vehicle information acquisition system according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 차량 정보 획득 시스템은 카메라(110), 제어기(120)를 포함한다. 2, the vehicle information acquisition system of the present invention includes a camera 110, the controller 120.

카메라(110)는 도로를 통행하는 차량의 측면 영상을 촬영하는 역할을 한다. The camera 110 serves to photograph a side image of a vehicle passing through the road.

제어기(120)는 카메라(110)에서 촬영된 차량의 측면 영상을 이용하여 차량의 측면 길이, 축수 및 축거 정보를 획득한다. 여기서, 축수는 차량의 축의 수를 의미하고, 축거는 차량의 축간 거리를 의미한다. The controller 120 acquires side length, number of axes, and wheelbase information of the vehicle using the side image of the vehicle photographed by the camera 110. Here, the number of axes means the number of axes of the vehicle, and the wheelbase means the distance between the axes of the vehicle.

본 발명에서 카메라(110)는 도로를 통행하는 차량의 측면을 촬영하여, 차량 측면의 전체 모습이 포함된 차량 측면 영상을 생성한다. 본 발명에서 카메라(110)에서 생성되는 차량 측면 영상은 2D(dimension) 이미지일 수 있다.In the present invention, the camera 110 photographs a side of a vehicle passing through the road, and generates a vehicle side image including the entire shape of the side of the vehicle. In the present invention, the vehicle side image generated by the camera 110 may be a 2D (dimension) image.

그리고, 제어기(120)는 차량 측면 영상을 이용하여 차량의 측면 길이, 축수 및 축거 정보를 획득한다. Then, the controller 120 acquires side length, number of axes, and wheelbase information of the vehicle using the vehicle side image.

제어기(120)는 차량 측면 영상에서 머신러닝(machine learning)을 이용한 영상 인식 기법을 통해 차량 영역을 검지하고, 검지된 차량 영역에서 측면 길이, 축수 및 축거 정보를 산출할 수 있다. 예를 들어, CNN(Convolution Neural Network) 기법을 이용한 영상 인식 기법을 통해 차량 영역을 검지할 수 있다. The controller 120 may detect a vehicle region through an image recognition technique using machine learning from a vehicle side image, and calculate side length, number of axes, and wheelbase information from the detected vehicle region. For example, a vehicle area may be detected through an image recognition technique using a convolution neural network (CNN) technique.

제어기(120)는 카메라(110)로 촬영하는 도로 구간을 포함하는 실제 영역에 대한 실측 정보를 토대로 산출한 실측 좌표와, 상기 카메라에서 촬영된 차량 측면 영상 영역의 가상 좌표를 1:1로 매칭한다. 그리고, 머신러닝을 이용한 영상 인식 기법을 통해 차량 측면 영상에서 차량 영역을 검지하고, 검지된 차량 영역의 좌표를 산출하고, 차량 영역에서 차량의 앞부분 좌표와 뒷부분 좌표를 이용하여 차량의 길이를 산출할 수 있다. The controller 120 matches the actual coordinates calculated based on the actual information about the real area including the road section photographed by the camera 110 and the virtual coordinates of the vehicle side image area photographed by the camera on a 1: 1 basis. . Then, through the image recognition technique using machine learning, the vehicle area is detected from the vehicle side image, the coordinates of the detected vehicle area are calculated, and the vehicle length is calculated using the front and rear coordinates of the vehicle in the vehicle area. You can.

그리고, 제어기(120)는 머신러닝을 이용한 영상 인식 기법을 이용하여 차량 측면 영상에서 타이어 오브젝트 영역을 검지하고, 검지된 타이어 오브젝트 영역의 좌표를 산출하고, 검지된 타이어 오브젝트 영역의 숫자를 축수로 인지하고, 양단에 위치한 각 타이어 오브젝트 영역의 좌표를 이용하여 축거 정보를 산출할 수 있다. Then, the controller 120 detects the tire object area from the vehicle side image using the image recognition technique using machine learning, calculates the coordinates of the detected tire object area, and recognizes the detected number of the tire object areas as the number of axes. Then, wheelbase information may be calculated using coordinates of each tire object area located at both ends.

도 2에서 보는 바와 같이, 제어기(120)는 카메라(110)가 전송하는 화면에서 가상의 트리거 라인(130)을 생성하고, 차량(10)이 트리거 라인(130)에 도달하면 차량이 진입한 것으로 인지하고, 카메라(110)를 통해 차량의 측면 영상을 촬영하도록 제어할 수 있다. 즉, 통행 차량이 도로에 진입하면, 카메라(110)의 영상에서 미리 설정한 가상의 트리거 라인(130)에 도달하게 되고, 제어기(120)에서 실시간으로 가상 트리거 영역의 영상 히스토그램 변화량 감시를 통해 차량진입을 검지한다.As shown in FIG. 2, the controller 120 generates a virtual trigger line 130 on a screen transmitted by the camera 110, and when the vehicle 10 reaches the trigger line 130, the vehicle enters It can be recognized and controlled to take a side image of a vehicle through the camera 110. That is, when a traffic vehicle enters the road, the virtual trigger line 130 set in advance in the image of the camera 110 is reached, and the controller 120 monitors the image histogram change amount of the virtual trigger area in real time. The entry is detected.

도 3은 본 발명의 일 실시예에 따른 차량 정보 획득 시스템에서 카메라 설치 모습을 보여주는 도면이다. 3 is a view showing a camera installation in the vehicle information acquisition system according to an embodiment of the present invention.

도 3은 차량(10)의 정면에서 바라 본 모습으로서, 카메라(110)가 차량(10)의 측면에서 차량의 측면 영상을 촬영하게 된다. 3 is a view seen from the front of the vehicle 10, the camera 110 is to take a side image of the vehicle from the side of the vehicle 10.

도 4는 본 발명의 일 실시예에 따른 차량 정보 획득 방법을 보여주는 흐름도이다. 4 is a flowchart illustrating a method for obtaining vehicle information according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 차량 정보 획득 방법은, 먼저 카메라(110)에서 도로를 통행하는 차량의 측면 영상을 촬영하고, 가상의 트리거 라인(130)을 이용하여 차량의 진입을 검지한다(S401, S403). Referring to FIG. 4, in the method for acquiring vehicle information of the present invention, first, the camera 110 photographs a side image of a vehicle passing through the road, and detects the entry of the vehicle using a virtual trigger line 130 ( S401, S403).

그리고, 카메라(110)는 도로를 통행하는 차량의 측면을 촬영하여, 차량 측면의 전체 모습이 포함된 차량 측면 영상을 생성한다(S405). Then, the camera 110 photographs the side of the vehicle passing through the road, and generates a vehicle side image including the entire shape of the vehicle side (S405).

그리고, 제어기(120)는 차량 측면 영상에 대하여 머신러닝을 이용하여 차량 영역을 검지한다(S407). Then, the controller 120 detects the vehicle area by using machine learning on the vehicle side image (S407).

그리고, 제어기(120)는 검지된 차량 영역의 처음과 끝의 좌표값을 이용하여 차량의 측면 길이를 계산한다(S409). Then, the controller 120 calculates the side length of the vehicle by using the coordinate values of the beginning and end of the detected vehicle area (S409).

그리고, 제어기(120)는 머신러닝을 이용하여 차량 측면 영상에서 타이어 오브젝트를 인식한다(S411). Then, the controller 120 recognizes the tire object from the vehicle side image by using machine learning (S411).

그리고, 제어기(120)는 타이어 오브젝트의 좌표값을 이용하여 차량의 축수 및 축거를 계산한다(S413). Then, the controller 120 calculates the number of wheels and the wheelbase of the vehicle using the coordinate values of the tire object (S413).

본 발명에서 제어기(120)는, 카메라(110)로 촬영하는 도로 구간을 포함하는 실제 영역에 대한 실측 정보를 토대로 산출한 실측 좌표와, 카메라(110)에서 촬영된 차량 측면 영상 영역의 가상 좌표를 1:1로 매칭하는 단계와, 머신러닝을 이용한 영상 인식 기법을 통해 차량 측면 영상에서 차량 영역을 검지하고, 검지된 차량 영역의 좌표를 산출하고, 차량 영역에서 차량의 앞부분 좌표와 뒷부분 좌표를 이용하여 차량의 길이를 산출하는 단계를 수행할 수 있다. In the present invention, the controller 120 displays the actual coordinates calculated based on the actual field information including the road section photographed by the camera 110 and the virtual coordinates of the vehicle side image area photographed by the camera 110. Matching 1: 1 and detecting the vehicle area from the side image of the vehicle through image recognition using machine learning, calculating coordinates of the detected vehicle area, and using the front and rear coordinates of the vehicle in the vehicle area By performing the step of calculating the length of the vehicle.

제어기(120)는, 머신러닝을 이용한 영상 인식 기법을 이용하여 차량 측면 영상에서 타이어 오브젝트 영역을 검지하는 단계와, 검지된 타이어 오브젝트 영역의 좌표를 산출하고, 검지된 타이어 오브젝트 영역의 숫자를 축수로 인지하는 단계와, 양단에 위치한 각 타이어 오브젝트 영역의 좌표를 이용하여 축거 정보를 산출하는 단계를 수행할 수 있다. The controller 120 detects the tire object area from the vehicle side image using an image recognition technique using machine learning, calculates coordinates of the detected tire object area, and uses the detected number of tire object areas as the number of axes. A step of recognizing and calculating wheelbase information using coordinates of each tire object area located at both ends may be performed.

본 발명에서 머신러닝을 이용하여 차량의 길이를 계산하는 과정과, 타이어 오브젝트를 인식하여 축수와 축거를 구하는 과정을 설명하면 다음과 같다. In the present invention, the process of calculating the length of a vehicle using machine learning and the process of obtaining the number of wheels and the wheelbase by recognizing a tire object are as follows.

도 5는 본 발명의 일 실시예에 따른 차량 정보 획득 시스템에서 실제 영역의 좌표와 가상 영역의 좌표를 매칭하는 과정을 설명하기 위한 도면이다. 5 is a view for explaining a process of matching the coordinates of the real area and the coordinates of the virtual area in the vehicle information acquisition system according to an embodiment of the present invention.

도 5를 참조하면, 본 발명에서 카메라(110)로 촬영할 도로의 구간 영역(510)을 미리 실측하여 실즉 좌표계를 구한다. 그리고, 미리 실측한 좌표를 카메라(110)에서 촬영한 영상에서의 가상 영역의 좌표(520)와 1:1로 매칭(matching)하여, 영상에서의 좌표계와 실제 도로의 좌표계를 일치시키는 작업을 수행한다. Referring to FIG. 5, in the present invention, a section area 510 of a road to be photographed by the camera 110 is measured in advance to obtain a real coordinate system. Then, the previously measured coordinates are matched 1: 1 with the coordinates 520 of the virtual area in the image captured by the camera 110 to perform the task of matching the coordinate system in the image with the actual road coordinate system. do.

도 6은 본 발명의 일 실시예에 따른 차량 정보 획득 시스템에서 차량 및 타이어 오브젝트 영역을 인식하고 좌표를 계산하는 과정을 설명하기 위한 도면이다. 6 is a view for explaining a process of recognizing a vehicle and a tire object area and calculating coordinates in a vehicle information acquisition system according to an embodiment of the present invention.

도 6을 참조하면, 카메라(110)에서 촬영된 차량의 측면 영상이 도시되어 있으며, 이 영상에 XY 좌표계가 적용되어, 좌측 하단 꼭지점을 원점으로 하여 (0,0)~(x,y)까지의 좌표계로 변환된다. Referring to FIG. 6, a side image of a vehicle photographed by the camera 110 is illustrated, and an XY coordinate system is applied to the image, from (0,0) to (x, y) using the lower left vertex as the origin. Is transformed into the coordinate system.

그리고, 머신러닝을 이용하여 카메라(110)에서 촬영한 차량 측면 영상에서 차량 영역(620)을 획득하고, 차량 영역(620)에 대한 좌표를 구한다. Then, the vehicle area 620 is acquired from the vehicle side image photographed by the camera 110 using machine learning, and coordinates for the vehicle area 620 are obtained.

도 6에서 (x1, y1)이 차량의 앞부분 좌표가 되고, (x2, y2)가 차량의 뒷부분 좌표가 된다. 따라서, x2-x1이 차량의 측면 길이가 되며, 이를 실제 좌표로 변환하여 실제 길이를 구할 수 있다. In FIG. 6, (x1, y1) is the coordinates of the front of the vehicle, and (x2, y2) is the coordinates of the rear of the vehicle. Therefore, x2-x1 becomes the side length of the vehicle, and it can be converted to actual coordinates to obtain the actual length.

그리고, 도 6에서 제어기(120)는 머신러닝을 이용하여 각 타이어 오브젝트 영역(630, 640)을 인식하고, 이에 대한 좌표를 구할 수 있다. 이때, 차량 영역(620) 내에서 구한 타이어 오브젝트 영역의 숫자로 축수를 인지할 수 있다. 도 6의 실시예에서 축수는 2이다. In addition, in FIG. 6, the controller 120 may recognize each tire object area 630 and 640 by using machine learning, and obtain coordinates thereof. At this time, it is possible to recognize the number of axes by the number of tire object areas obtained in the vehicle area 620. In the embodiment of Fig. 6, the number of axes is two.

각 타이어 오브젝트 영역(630, 640)에서 구한 좌표 중에서 (x3, y3) 좌표와 (x5, y5) 좌표를 이용하여 축간 거리인 축거를 구할 수 있다. 즉, x5-x3의 값이 축거가 된다. Among the coordinates obtained in each tire object area 630 and 640, a wheelbase that is an inter-axis distance may be obtained using (x3, y3) coordinates and (x5, y5) coordinates. That is, the value of x5-x3 becomes the wheelbase.

본 발명에서 머신러닝 기법을 이용하여 차량의 측면 영상에서 측면 길이, 축수, 축거를 구하는 방법을 보다 상세히 설명하면 다음과 같다. The method of obtaining the side length, the number of axes, and the wheelbase from the side image of the vehicle using the machine learning technique in the present invention will be described in more detail as follows.

본 발명에서 차량의 측면 영상에서 차량의 측면 길이를 계산하는 것은 영상기하학에서 사용되는 방법을 사용하는데, 이를 순서대로 기술하면 다음과 같다. In the present invention, calculating the side length of the vehicle from the side image of the vehicle uses a method used in image geometry, which is described as follows.

카메라(110)를 기준점으로 하여, 미리 실측한 지면(도로)의 좌표(실제 길이)에 영상에서의 픽셀 좌표를 대입한다. 이는 호모그래피(homography)를 이용한 기법으로서, 호모그래피를 도면으로 나타내면 다음과 같다. Using the camera 110 as a reference point, pixel coordinates in an image are substituted for coordinates (actual length) of the ground (road) previously measured. This is a technique using homography, and the homography is as follows.

도 7은 호모그래피를 도시한 것이다. 7 shows homography.

도 7을 참조하면, 호모그래피를 이용하여, 한 평면을 다른 평면에 투영(projection)시켰을 때 투영된 대응점들 사이에는 일정한 변환관계가 성립하는데, 이 변환관계를 호모그래피라 부른다.Referring to FIG. 7, when a plane is projected to another plane by using homography, a certain transformation relationship is established between the projected corresponding points, and this transformation relation is called homography.

호모그래피는 3x3행렬로 표현되며 대응점들의 동차좌표(homogeneous coordinate)표현에 대해 성립하는 변환관계이다. 즉, 한 평면 위의 점들(x1, y1), (x2, y2), ... 이 다른 평면 위의 점들 (x1', y1'), (x2', y2'), ... 로 각각 투영되었다면 이들 대응점들 사이에는 다음 관계식을 만족하는 3x3 호모그래피 행렬 H가 항상 존재하고, 또 유일하게 존재한다.Homography is represented by a 3x3 matrix and is a transformational relationship established for the homogeneous coordinate representation of corresponding points. That is, points on one plane (x1, y1), (x2, y2), ... are projected onto points on another plane (x1 ', y1'), (x2 ', y2'), ... respectively. If possible, there is always a 3x3 homography matrix H satisfying the following relation between these corresponding points, and there is only one.

Figure 112019044062392-pat00001
Figure 112019044062392-pat00001

호모그래피는 2D 영상에서 평면적인 대상에 대해서 적용할 때 성립하는 방법이다. 그래서, 본 발명의 차량의 한쪽 측면의 길이를 측정하는 방식에 알맞은 기법이라고 할 수 있다.Homography is a method that is established when applied to a planar object in a 2D image. So, it can be said to be a suitable technique for measuring the length of one side of the vehicle of the present invention.

본 발명에서 호모그래피를 이용하는 핵심적인 내용은 몇몇 샘플링 된 영상좌표들에 대해서 대응되는 지면좌표를 실측을 통해 구한 후, 여기서 얻어진 영상좌표→지면좌표 변환관계를 다른 경우에도 일반화하여 적용하는 것이다.The essential content of using homography in the present invention is to obtain the corresponding ground coordinates for some sampled image coordinates through measurement, and then apply the general conversion of the obtained image coordinates to the ground coordinates in other cases.

본 발명에서 사용자가 잡은 기준(예를 들어, 카메라 위치 등)에 맞춰 실제 지면의 네 점의 지면좌표를 측정한 후, 해당 점들의 영상좌표(카메라 이미지에서의 픽셀좌표)를 구한다.In the present invention, after measuring the ground coordinates of four points on the actual ground in accordance with the criteria (eg, camera position, etc.) the user has caught, the image coordinates (pixel coordinates in the camera image) of the corresponding points are obtained.

이렇게 미리 설정된 구간에 진입한 차량에 대해서, 차량의 전체 영상을 촬영한다.For the vehicle entering the preset section, the entire image of the vehicle is photographed.

그리고, 획득한 영상에서 머신러닝을 이용한 영상인식으로 차량의 영역(픽셀 좌표)을 구한다. Then, the area (pixel coordinates) of the vehicle is obtained by image recognition using machine learning from the acquired image.

그리고, 도 6에 도시된 바와 같이, 차량 영역의 처음 좌표(x1, y1)와 끝의 좌표(x2, y2)로 차량의 측면 길이를 계산한다.Then, as illustrated in FIG. 6, the side length of the vehicle is calculated from the first coordinates (x1, y1) and the last coordinates (x2, y2) of the vehicle area.

x2 - x1 (차량 영역의 길이) = 차량 전체의 길이 x2-x1 (length of vehicle area) = total length of vehicle

그리고, 가상 좌표계로 구한 길이를 실제 좌표에 대입하여 실제차량의 길이를 구한다.Then, the length obtained by the virtual coordinate system is substituted for the actual coordinates to obtain the length of the actual vehicle.

본 발명에서 획득한 차량영상에서 타이어를 오브젝트로 인식하는 방법은 신경망 학습을 활용한 머신러닝 기법을 이용한다.The method of recognizing a tire as an object in a vehicle image obtained in the present invention uses a machine learning technique using neural network learning.

1) 우선 다양한 차량의 측면 디지털 영상을 구한 후, 각각의 영상에서의 학습시키고자 하는 타이어의 영역을 좌표로 정의하여 xml형식의 디지털 파일로 저장한다. 이 때, 차량영상 전체를 학습시키는 것이 아닌 차량영상 일부분(타이어가 포함된 영역)만 이용하여 학습시키는 점이 알고리즘의 특징이자, 인식 정확도를 높이는 핵심이다.1) First, after obtaining the digital images of the side of various vehicles, define the area of the tire to be learned in each image as coordinates and save it as a digital file in xml format. At this time, not only learning the entire vehicle image, but learning only using a portion of the vehicle image (the area including the tire) is the characteristic of the algorithm and the key to improving recognition accuracy.

도 8은 본 발명의 일 실시예에 따른 차량 정보 획득 시스템에서 타이어 오브젝트 인식을 위해 학습에 사용되는 이미지 영역을 도시한 것이다. 8 is a diagram illustrating an image area used for learning for tire object recognition in a vehicle information acquisition system according to an embodiment of the present invention.

도 8을 참조하면, 본 발명에서 타이어가 포함된 영역은 길이가 x2-x1이고, 높이 H가 '가장 큰 타이어의 지름+α'로 정의한다.Referring to FIG. 8, in the present invention, the area including the tire is x2-x1 in length, and the height H is defined as 'diameter + α of the largest tire + α'.

2) 신경망 학습을 수행할 수 있는 기기에서 차량의 측면 영상과 1)에서 미리 정의한 xml파일을 사용하여 신경망 학습(딥러닝)을 진행한다.2) Neural network learning (deep learning) is performed using a side image of a vehicle and an xml file predefined in 1) on a device that can perform neural network learning.

3) 여기서 사용되는 신경망 학습은 영상인식에 사용하는 CNN 기법을 활용하며, CNN 중에서도 SSD(Single Shot MultiBox Detector)모델을 사용하여 여러 종류의 타이어 측면영상을 학습시키고, 학습된 결과값(weight)을 출력한다.3) The neural network learning used here utilizes the CNN technique used for image recognition, and among the CNNs, a single shot multibox detector (SSD) model is used to train various types of tire side images, and the learned weight is calculated. Output.

4) 신경망 학습의 일종인 CNN은 학습을 위해 입력한 영상에서 지정한 타이어들의 형상의 특징점을 추출하여 학습하였다가, 다른 영상에서 비슷한 특징점을 가진 형상의 영역(좌표)을 추론할 수 있다.4) CNN, a kind of neural network learning, can learn by extracting the feature points of the shape of the tires specified in the image input for learning, and then infer the region (coordinate) of the shape having similar feature points in other images.

5) 충분히 학습된 결과값(weight)을 활용하여, 검지영역에 진입하여 촬영된 차량의 측면영상에 적용하여 입력된 영상에서 특징점을 비교하여, 타이어 영역의 픽셀좌표를 추론하고, 영역의 바운딩 박스(bounding box)를 구한다.5) By taking advantage of the sufficiently learned result weight, entering the detection area and applying it to the side image of the photographed vehicle, comparing the feature points in the input image, inferring the pixel coordinates of the tire area, inferring the bounding box of the area (bounding box).

6) 촬영된 차량영상 영역에 표출된 모든 타이어를 오브젝트로 인식(Bounding box)하여, 각각의 좌표값을 구하고, 전체 타이어의 수량을 구하여, 축수를 계산한다.6) All tires expressed in the photographed vehicle image area are recognized as objects (Bounding box), the respective coordinate values are obtained, the total number of tires is calculated, and the number of axes is calculated.

7) 도 6에 도시된 바와 같이, 인식된 각각의 타이어 영역의 좌표를 (x3, y3), (x5, y5)와 같이 구한다.7) As shown in FIG. 6, coordinates of each recognized tire area are obtained as (x3, y3), (x5, y5).

8) 차량의 길이를 구하는데 사용된 미리 실측된 영상좌표계에 해당 타이어의 픽셀좌표를 대입한다.8) The pixel coordinates of the tire are substituted into the previously measured image coordinate system used to obtain the length of the vehicle.

9) 각 타이어 영역의 좌표들 간의 거리를 계산한다.9) Calculate the distance between the coordinates of each tire area.

x5 - x3 = 타이어 간의 거리x5-x3 = distance between tires

10) 계산된 거리가 각각의 축들 사이의 축거가 된다.10) The calculated distance becomes the wheelbase between each axis.

본 발명에서 구한 축수와 축거 및 차량길이의 데이터는 차종분류에 사용할 수 있다.The data of the number of axes, wheelbase and vehicle length obtained in the present invention can be used for classifying the vehicle.

이처럼 본 발명의 차량 측면 영상을 이용한 차량 정보 획득 시스템은 별도의 센서를 설치하지 않고도 카메라를 통해 획득한 영상만으로 차종분류를 수행할 수 있다. 그리고, 신경망 학습(딥러닝)을 이용한 머신러닝 기법을 통해 통행 차량의 측면 영상에서 타이어를 오브젝트로 인식하여, 축수와 축거를 계산할 수 있다. As described above, the vehicle information acquisition system using the vehicle side image of the present invention can perform vehicle classification using only the image acquired through the camera without installing a separate sensor. In addition, through machine learning using neural network learning (deep learning), tires can be recognized as objects in side images of a traffic vehicle, and the number of wheels and wheelbases can be calculated.

이를 통해 기존의 접촉식 센서로는 인식이 불가능했던 가변축(차축을 들었다 내렸다 할 수 있는 축)의 인식도 가능하여, 기존 시스템에 비해 차종분류의 정확도를 향상시킬 수 있다.Through this, it is possible to recognize a variable axis (axle that can be lifted and lowered) that was not recognized by the existing contact sensor, thereby improving the accuracy of vehicle classification compared to the existing system.

또한, 차량 측면 영상의 획득을 통해 추가적인 교통량 자료로 활용이 가능하며, 설치 이후에도 소프트웨어의 업데이트만으로 차종분류의 정확도를 더욱 향상시키거나, 차종분류 이외에도 카메라로 획득한 영상을 활용하여 다른 정보를 추가로 추출할 수 있다.In addition, it can be used as additional traffic data by acquiring the vehicle side image, and after installation, it is possible to further improve the accuracy of vehicle classification by just updating the software, or to use the image acquired by the camera in addition to the vehicle classification to add other information. Can be extracted.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.Although the present invention has been described using several preferred embodiments, these embodiments are illustrative and not limiting. Those skilled in the art to which the present invention pertains will understand that various changes and modifications can be made without departing from the spirit of the present invention and the scope of the rights set forth in the appended claims.

110 카메라 120 제어기110 Camera 120 Controller

Claims (12)

도로를 통행하는 차량의 측면 영상을 촬영하기 위한 카메라; 및
상기 카메라에서 촬영된 차량의 측면 영상을 이용하여 차량의 측면 길이, 축수 및 축거 정보를 획득하는 제어기를 포함하되,
상기 카메라는 도로를 통행하는 차량의 측면을 촬영하여, 차량 측면의 전체 모습이 포함된 차량 측면 영상을 생성하고,
상기 제어기는 상기 차량 측면 영상에서 머신러닝을 이용한 영상 인식 기법을 통해 차량 영역을 검지하고, 검지된 차량 영역에서 측면 길이, 축수 및 축거 정보를 산출하고,
상기 제어기는 상기 카메라로 촬영하는 도로 구간을 포함하는 실제 영역에 대한 실측 정보를 토대로 산출한 실측 좌표와, 상기 카메라에서 촬영된 차량 측면 영상 영역의 가상 좌표를 1:1로 매칭하고, 머신러닝을 이용한 영상 인식 기법을 통해 상기 차량 측면 영상에서 차량 영역을 검지하고, 검지된 차량 영역의 좌표를 산출하고, 상기 차량 영역에서 차량의 앞부분 좌표와 뒷부분 좌표를 이용하여 차량의 측면 길이를 산출하고,
상기 제어기는 머신러닝을 이용한 영상 인식 기법을 이용하여 상기 차량 측면 영상에서 타이어 오브젝트 영역을 검지하고, 검지된 타이어 오브젝트 영역의 좌표를 산출하고, 검지된 타이어 오브젝트 영역의 숫자를 축수로 인지하고, 양단에 위치한 각 타이어 오브젝트 영역의 좌표를 이용하여 축거 정보를 산출하고,
상기 제어기는 상기 카메라가 전송하는 화면에서 가상의 트리거 라인을 생성하고, 차량이 상기 트리거 라인에 도달하면 차량이 진입한 것으로 인지하고, 상기 카메라를 통해 차량의 측면 영상을 촬영하도록 하되, 차량의 상기 트리거 라인 도달은 상기 가상의 트리거 라인 영역의 영상 히스토그램 변화량 감시를 통해 검지되고,
상기 제어기는 상기 카메라에서 촬영된 차량 측면 영상에서 타이어를 포함하는 일부 영역을 좌표로 정의하여 xml 형식의 디지털 파일로 저장하되, 상기 일부 영역은 차량의 앞부분 좌표와 뒷부분 좌표를 이용하여 산출된 차량의 측면 길이와 타이어 지름 보다 긴 길이의 높이로 이루어지는 영역이고, 차량 측면 영상과 상기 디지털 파일에 대해 SSD(Single Shot MultiBox Detector)모델을 사용하여 딥러닝을 진행하고, 딥러닝을 통해 학습된 결과값(weight)을 출력하고, 입력된 차량의 측면 영상에서 상기 결과값을 이용하여 특징점을 비교하고, 이에 따라 타이어 영역의 픽셀좌표를 추론하고, 타이어 영역의 바운딩 박스(bounding box)를 산출하고, 산출된 바운딩 박스를 타이어 오브젝트로 인식하고, 각 타이어 오브젝트에 대한 좌표값을 구하고, 전체 타이어 오브젝트의 수량을 구하여 축수 정보를 산출하고, 각 타이어 오브젝트 좌표 간의 거리를 계산하는 방식으로 축거 정보를 산출하는 것을 특징으로 하는 차량 정보 획득 시스템.
A camera for photographing a side image of a vehicle passing through the road; And
A controller for acquiring side length, number of axes and wheelbase information of a vehicle using a side image of a vehicle photographed by the camera,
The camera photographs the side of the vehicle passing through the road, and generates a vehicle side image including the entire view of the vehicle side,
The controller detects a vehicle area through an image recognition technique using machine learning from the vehicle side image, calculates side length, number of axes, and wheelbase information from the detected vehicle region,
The controller matches 1: 1 the actual coordinates calculated based on the actual information about the real area including the road section photographed by the camera, and the virtual coordinates of the vehicle side image area photographed by the camera, and performs machine learning. The vehicle area is detected from the vehicle side image through the image recognition technique used, the coordinates of the detected vehicle region are calculated, and the vehicle side length is calculated using the front and rear coordinates of the vehicle in the vehicle region,
The controller detects a tire object area from the side image of the vehicle using an image recognition technique using machine learning, calculates coordinates of the detected tire object area, recognizes the number of detected tire object areas as the number of axes, and ends Wheelbase information is calculated using the coordinates of each tire object area located at,
The controller generates a virtual trigger line on the screen transmitted by the camera, recognizes that the vehicle has entered when the vehicle reaches the trigger line, and attempts to capture a side image of the vehicle through the camera. The trigger line arrival is detected through monitoring the amount of change in the image histogram of the virtual trigger line area,
The controller defines a part of the vehicle side image captured by the camera as a coordinate and stores it as a digital file in xml format, wherein the part of the vehicle is calculated using the front and rear coordinates of the vehicle. This is an area that has a height that is longer than the side length and tire diameter, and deep learning is performed using a single shot multibox detector (SSD) model for the vehicle side image and the digital file, and the result value learned through deep learning ( weight), compare the feature points using the result from the input side image of the vehicle, infer pixel coordinates in the tire area accordingly, calculate a bounding box in the tire area, and calculate The bounding box is recognized as a tire object, coordinate values for each tire object are obtained, and the entire tire object Vehicle information acquisition system to obtain the variable calculating the bearing information, and calculates the wheelbase information in a manner of calculating the distance between each tire object coordinates characterized.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 카메라 및 제어기를 포함하는 차량 정보 획득 시스템에서의 차량 정보 획득 방법에서,
상기 카메라에서 도로를 통행하는 차량의 측면 영상을 촬영하는 단계; 및
상기 제어기에서 상기 카메라에서 촬영된 차량의 측면 영상을 이용하여 차량의 측면 길이, 축수 및 축거 정보를 획득하는 단계를 포함하되,
상기 카메라는 도로를 통행하는 차량의 측면을 촬영하여, 차량 측면의 전체 모습이 포함된 차량 측면 영상을 생성하고,
상기 제어기는 상기 차량 측면 영상에서 머신러닝을 이용한 영상 인식 기법을 통해 차량 영역을 검지하고, 검지된 차량 영역에서 측면 길이, 축수 및 축거 정보를 산출하고,
상기 제어기는 상기 카메라로 촬영하는 도로 구간을 포함하는 실제 영역에 대한 실측 정보를 토대로 산출한 실측 좌표와, 상기 카메라에서 촬영된 차량 측면 영상 영역의 가상 좌표를 1:1로 매칭하는 단계와, 머신러닝을 이용한 영상 인식 기법을 통해 상기 차량 측면 영상에서 차량 영역을 검지하고, 검지된 차량 영역의 좌표를 산출하고, 상기 차량 영역에서 차량의 앞부분 좌표와 뒷부분 좌표를 이용하여 차량의 측면 길이를 산출하는 단계를 수행하고,
상기 제어기는, 머신러닝을 이용한 영상 인식 기법을 이용하여 상기 차량 측면 영상에서 타이어 오브젝트 영역을 검지하는 단계와, 검지된 타이어 오브젝트 영역의 좌표를 산출하고, 검지된 타이어 오브젝트 영역의 숫자를 축수로 인지하는 단계와, 양단에 위치한 각 타이어 오브젝트 영역의 좌표를 이용하여 축거 정보를 산출하는 단계를 수행하고,
상기 제어기는 상기 카메라가 전송하는 화면에서 가상의 트리거 라인을 생성하고, 차량이 상기 트리거 라인에 도달하면 차량이 진입한 것으로 인지하고, 상기 카메라를 통해 차량의 측면 영상을 촬영하도록 하되, 차량의 상기 트리거 라인 도달은 상기 가상의 트리거 라인 영역의 영상 히스토그램 변화량 감시를 통해 검지되고,
상기 제어기는 상기 카메라에서 촬영된 차량 측면 영상에서 타이어를 포함하는 일부 영역을 좌표로 정의하여 xml 형식의 디지털 파일로 저장하되, 상기 일부 영역은 차량의 앞부분 좌표와 뒷부분 좌표를 이용하여 산출된 차량의 측면 길이와 타이어 지름 보다 긴 길이의 높이로 이루어지는 영역이고, 차량 측면 영상과 상기 디지털 파일에 대해 SSD(Single Shot MultiBox Detector)모델을 사용하여 딥러닝을 진행하고, 딥러닝을 통해 학습된 결과값(weight)을 출력하고, 입력된 차량의 측면 영상에서 상기 결과값을 이용하여 특징점을 비교하고, 이에 따라 타이어 영역의 픽셀좌표를 추론하고, 타이어 영역의 바운딩 박스(bounding box)를 산출하고, 산출된 바운딩 박스를 타이어 오브젝트로 인식하고, 각 타이어 오브젝트에 대한 좌표값을 구하고, 전체 타이어 오브젝트의 수량을 구하여 축수 정보를 산출하고, 각 타이어 오브젝트 좌표 간의 거리를 계산하는 방식으로 축거 정보를 산출하는 것을 특징으로 하는 차량 정보 획득 방법.
In a vehicle information acquisition method in a vehicle information acquisition system including a camera and a controller,
Photographing a side image of a vehicle passing through the road in the camera; And
The controller comprises using the side image of the vehicle photographed by the camera to obtain the side length, number of axes and wheelbase information of the vehicle,
The camera photographs the side of the vehicle passing through the road, and generates a vehicle side image including the entire view of the vehicle side,
The controller detects a vehicle area through an image recognition technique using machine learning from the vehicle side image, calculates side length, number of axes, and wheelbase information from the detected vehicle region,
The controller may match the actual coordinates calculated on the basis of the actual information on the real area including the road section photographed by the camera, and the virtual coordinates of the vehicle side image area photographed by the camera on a 1: 1 basis. Detecting a vehicle area from the vehicle side image through an image recognition technique using running, calculating coordinates of the detected vehicle region, and calculating a side length of the vehicle using the front and rear coordinates of the vehicle in the vehicle region Follow the steps,
The controller detects a tire object area in the vehicle side image using an image recognition technique using machine learning, calculates coordinates of the detected tire object area, and recognizes the detected number of tire object areas as the number of axes And calculating wheelbase information using coordinates of each tire object area located at both ends,
The controller generates a virtual trigger line on the screen transmitted by the camera, recognizes that the vehicle has entered when the vehicle reaches the trigger line, and attempts to capture a side image of the vehicle through the camera. The trigger line arrival is detected through monitoring the amount of change in the image histogram of the virtual trigger line area,
The controller defines a part of the vehicle side image captured by the camera as a coordinate and stores it as a digital file in xml format, wherein the part of the vehicle is calculated using the front and rear coordinates of the vehicle. This is an area that has a height that is longer than the side length and tire diameter, and deep learning is performed using a single shot multibox detector (SSD) model for the vehicle side image and the digital file, and the result value learned through deep learning ( weight), compare the feature points using the result from the input side image of the vehicle, infer pixel coordinates in the tire area accordingly, calculate a bounding box in the tire area, and calculate The bounding box is recognized as a tire object, coordinate values for each tire object are obtained, and the entire tire object Calculating bearing information, obtain the amount and the vehicle information acquisition method characterized in that for calculating the wheelbase information in a manner of calculating the distance between each tire object coordinates.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190049935A 2019-04-29 2019-04-29 System and method for obtaining information of vehicle using side image thereof KR102097673B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190049935A KR102097673B1 (en) 2019-04-29 2019-04-29 System and method for obtaining information of vehicle using side image thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190049935A KR102097673B1 (en) 2019-04-29 2019-04-29 System and method for obtaining information of vehicle using side image thereof

Publications (1)

Publication Number Publication Date
KR102097673B1 true KR102097673B1 (en) 2020-04-06

Family

ID=70281953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190049935A KR102097673B1 (en) 2019-04-29 2019-04-29 System and method for obtaining information of vehicle using side image thereof

Country Status (1)

Country Link
KR (1) KR102097673B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116453075A (en) * 2023-06-14 2023-07-18 山东省科学院海洋仪器仪表研究所 Axle identification method and system based on image processing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099789A (en) * 2001-09-20 2003-04-04 Mitsubishi Electric Corp Vehicle detector
KR20140027661A (en) 2012-08-27 2014-03-07 (주)메티스커뮤니케이션 Ticketless toll gate system using plural camera
KR20160014363A (en) * 2014-07-29 2016-02-11 (주)뉴컨스텍 Apparatus for classifyng vehicle type using 3-dimensional image camera
KR20170109018A (en) * 2015-03-04 2017-09-27 미츠비시 쥬고우 메카토로시스테무즈 가부시키가이샤 An axle water detecting device, a vehicle type discriminating system, an axle water detecting method and a program
KR102003387B1 (en) * 2018-10-11 2019-07-24 한국과학기술원 Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099789A (en) * 2001-09-20 2003-04-04 Mitsubishi Electric Corp Vehicle detector
KR20140027661A (en) 2012-08-27 2014-03-07 (주)메티스커뮤니케이션 Ticketless toll gate system using plural camera
KR20160014363A (en) * 2014-07-29 2016-02-11 (주)뉴컨스텍 Apparatus for classifyng vehicle type using 3-dimensional image camera
KR20170109018A (en) * 2015-03-04 2017-09-27 미츠비시 쥬고우 메카토로시스테무즈 가부시키가이샤 An axle water detecting device, a vehicle type discriminating system, an axle water detecting method and a program
KR102003387B1 (en) * 2018-10-11 2019-07-24 한국과학기술원 Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116453075A (en) * 2023-06-14 2023-07-18 山东省科学院海洋仪器仪表研究所 Axle identification method and system based on image processing
CN116453075B (en) * 2023-06-14 2023-09-08 山东省科学院海洋仪器仪表研究所 Truck wheel axle identification method and system based on image processing

Similar Documents

Publication Publication Date Title
CN105632175B (en) Vehicle behavior analysis method and system
KR102167291B1 (en) System and method for providing road status information
US20150178572A1 (en) Road surface condition classification method and system
CN111626277B (en) Vehicle tracking method and device based on over-station inter-modulation index analysis
JP2014002534A (en) Vehicle type determination device and vehicle type determination method
CN108364466A (en) A kind of statistical method of traffic flow based on unmanned plane traffic video
KR102167292B1 (en) Apparatus and method for providing road status information
CN104463204B (en) Destination number statistical method
CN111753797A (en) Vehicle speed measuring method based on video analysis
KR102200204B1 (en) 3-D Image Analyzing System Using CCTV Image
CN112966665A (en) Pavement disease detection model training method and device and computer equipment
CN110929676A (en) Deep learning-based real-time detection method for illegal turning around
KR102638711B1 (en) Radar and camera fusion based vehicle recognition system
CN113903008A (en) Ramp exit vehicle violation identification method based on deep learning and trajectory tracking
CN108009574A (en) A kind of rail clip detection method
JP2018055597A (en) Vehicle type discrimination device and vehicle type discrimination method
KR102097673B1 (en) System and method for obtaining information of vehicle using side image thereof
CN114495520B (en) Counting method and device for vehicles, terminal and storage medium
KR20120011533A (en) Detection system of road line using both laser sensor and camera
KR100532058B1 (en) Traffic information acquisition method and apparatus using camera calibration
CN114693722B (en) Vehicle driving behavior detection method, detection device and detection equipment
CN115223128A (en) Road rut congestion detection method and system based on neural network
KR101484839B1 (en) Detection Method of axles tampering truck using image processing
CN112418000B (en) Bad driving behavior detection method and system based on monocular camera
JP4788926B2 (en) Vehicle number reading device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant