KR20040005299A - Grouping apparatus for automobile and method thereof - Google Patents

Grouping apparatus for automobile and method thereof Download PDF

Info

Publication number
KR20040005299A
KR20040005299A KR1020020039799A KR20020039799A KR20040005299A KR 20040005299 A KR20040005299 A KR 20040005299A KR 1020020039799 A KR1020020039799 A KR 1020020039799A KR 20020039799 A KR20020039799 A KR 20020039799A KR 20040005299 A KR20040005299 A KR 20040005299A
Authority
KR
South Korea
Prior art keywords
vehicle
image
contour
outline
type
Prior art date
Application number
KR1020020039799A
Other languages
Korean (ko)
Other versions
KR100459479B1 (en
Inventor
이상진
송인준
임대운
전준석
Original Assignee
엘지산전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지산전 주식회사 filed Critical 엘지산전 주식회사
Priority to KR10-2002-0039799A priority Critical patent/KR100459479B1/en
Publication of KR20040005299A publication Critical patent/KR20040005299A/en
Application granted granted Critical
Publication of KR100459479B1 publication Critical patent/KR100459479B1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats

Abstract

PURPOSE: An apparatus for discriminating the type of a vehicle and a method for the same are provided to discriminate the type of the vehicle without stopping the vehicle by only using the photographed image. CONSTITUTION: An apparatus for discriminating the type of a vehicle(1) includes a vehicle detector(2), a first camera(3), a second camera(4) and an image processor(5). The vehicle detector(2) detects the vehicle approach(1). The first camera(3) is installed on the top of the approaching vehicle(1) and the second camera(4) is installed on the side of the intruding vehicle(1). And, the image processor(5) extracts the contour of the top portion and the side portion from the image photographed from the first and the second cameras(3,4) and measures the height, length, width and errors therefor from the extracted contours.

Description

차종 판별 장치 및 방법{GROUPING APPARATUS FOR AUTOMOBILE AND METHOD THEREOF}Vehicle discrimination apparatus and method {GROUPING APPARATUS FOR AUTOMOBILE AND METHOD THEREOF}

본 발명은 차종 판별 장치 및 방법에 관한 것으로, 특히 통행료 징수 시스템에서 징수기를 통과하는 차량의 종류를 판단하여 해당 차량의 종류에 맞는 요금을 징수할 수 있도록 하는 차종 판별 장치 및 방법에 관한 것이다.The present invention relates to a vehicle type determination apparatus and method, and more particularly, to a vehicle type determination apparatus and method for determining the type of the vehicle passing through the collector in the toll collection system to collect the fare corresponding to the type of the vehicle.

일반적으로, 유료도로에서 요금을 징수하는 시스템은 차종의 구분없이 일정한 요금을 징수하거나, 차종에 따라서 요금을 차등 징수하는 방법이 있다.In general, a system for collecting a fee on a toll road may collect a certain fee regardless of a vehicle type or differentially collect a fee according to a vehicle type.

차종의 구분없이 일정한 금액을 징수하는 시스템은 동전 투척기등 요금의 납입만을 확인하면 되나, 차종에 따라 차등된 요금을 징수해야 하는 시스템에서는 차종의 판별이 필요하다.In a system that collects a certain amount of money regardless of the vehicle type, it is only necessary to confirm the payment of a fee such as a coin thrower, but in a system that needs to collect the differential fee according to the vehicle type, it is necessary to distinguish the vehicle type.

현재, 고속도로의 요금징수에 보편적으로 사용하고 있는 수동형 요금 징수 시스템(TCS : Toll Collection System)은 집입 톨게이트에서 운전자가 마그네틱 카드를 발권하고, 도착 톨게이트에서 요금을 지불하는 방식이다.Currently, the Toll Collection System (TCS), which is commonly used for toll collection on highways, is a method in which a driver issues a magnetic card at an entry toll gate and pays a fee at an arrival toll gate.

이와 같은 방법은 톨게이트에서의 차량정체를 심화시키고, 물류비 증가, 환경오염 등의 문제를 발생시킨다.Such a method deepens the traffic congestion at the toll gate and causes problems such as increased logistics costs and environmental pollution.

상기 수동형 요금 징수 시스템이 가지는 문제점을 해결하기 위하여 최근 전자 요금 징수 시스템(ETCS : Electric Toll Collection System)이 제시되었다.In order to solve the problem of the manual toll collection system, an electronic toll collection system (ETCS) has recently been proposed.

이 전자 요금 징수 시스템(ETCS)은 요금 징수를 전산화하는 것이며, 차량이 톨게이트를 통과할때 요금을 지불하는 방법을 차량이 정지하지 않고 주행하는 상태에서 DSRC(Dedicated Small Region Communication)를 이용하여 무선으로 요금의 징수를 처리하는 것이다.This electronic toll collection system (ETCS) is a computerization of toll collection and wirelessly using dedicated small region communication (DSRC) while the vehicle is traveling without stopping when the vehicle passes through the toll gate. It is to handle the collection of charges.

그러나, 무선으로 요금의 징수를 처리하는 방법은 무선통신 만으로 통행요금을 지불한 차량과 지불하지 않은 차량을 구별할 수 없으며, 버스에 승용차의 OBU를 부착하는 등 다른 차종의 OBU(On Vehicle Unit)를 이용하여 통행하는 행위를 막을 수 없다.However, the method of wirelessly collecting tolls cannot distinguish between a vehicle that pays a toll and a vehicle that does not pay only by wireless communication, and attaches an OBU of a passenger car to a bus, such as an On Vehicle Unit (OBU) of another vehicle. You can't prevent traffic through trafficking.

상기 OBU의 적법한 사용을 확인하기 위해서는 차종을 판별할 필요가 있으며, 이를 위해 도로를 통행하는 차량의 차폭, 차고, 차장 등의 정보를 추출할 수 있는 차종판별장치를 사용해야 한다.In order to confirm the legitimate use of the OBU, it is necessary to determine a vehicle type, and for this purpose, a vehicle type discrimination apparatus capable of extracting information such as a vehicle width, a garage, and a vehicle head of a vehicle traveling through a road must be used.

상기 도로를 통행하는 차량의 차종을 판별하는 종래 차종 판별 장치 및 그 동작을 대한민국특허출원 10-1997-0014458를 예로하여 상세히 설명하면 다음과 같다.Conventional vehicle type determination device for determining the type of the vehicle passing through the road and its operation will be described in detail by taking the Republic of Korea Patent Application 10-1997-0014458 as an example.

도1은 종래 차종 판별 장치의 구성도로서 이에 도시한 바와 같이 종래 차종 판별 장치는차량감지기(300), 차량분리기(310), 축수감지기(320), 영상촬영기(330) 및 차종판별기(340)를 포함하여 구성된다.1 is a block diagram of a conventional vehicle type discrimination apparatus, and as shown in the related art, the vehicle type discrimination apparatus includes a vehicle detector 300, a vehicle separator 310, an axis number detector 320, an image photographing device 330, and a vehicle model discriminator 340. It is configured to include).

상기 차량감지기(300)는 유료도로의 톨게이트(toll gate) 등의 소정의 차선에 진입하는 차량을 감지하여 차량감지신호를생성하는 것으로서, 바람직하게는 마이크로파 센서(Micro Wave Sensor)가 사용될 수 있다.The vehicle detector 300 generates a vehicle detection signal by detecting a vehicle entering a predetermined lane such as a toll gate of a toll road, and preferably, a microwave sensor may be used.

상기 차량구분기(310)는 차선의 양변에 설치되고, 차량의 전단부가 지나가는 시점과 차량의 후단부가 지나가는 시점을 감지한다.The vehicle diverter 310 is installed at both sides of the lane, and detects a time point at which the front end of the vehicle passes and a time point at which the rear end of the vehicle passes.

상기 차량구분기(310)는 발광소자 및 수광소자를 구비하고, 상기 발광소자에서 생성된 광신호를 상기 수광소자에서 감지하다가 상기 차량의 방해에 의해 감지할 수 없는 시점을 감지시작시점으로두고, 상기 발광소자에서 생성된 광신호를 상기 수광소자에서 감지하지 못하다가 상기 차량의 지나감에 의해 감지할 수있는 시점을 감지종료시점으로 두는 광 센서를 사용할 수 있다.The vehicle separator 310 includes a light emitting element and a light receiving element, and detects an optical signal generated by the light emitting element at the light receiving element and sets a time point at which the light cannot be detected due to interference of the vehicle. The optical sensor may not use the optical signal generated by the light emitting device, but may use an optical sensor that detects the time when the light may be detected by the passing of the vehicle.

상기 축수감지기(320)는 차선 방향에 수직으로 차선 바닥에 설치된 4개의 스위치 접점을 구비하고, 상기 각 스위치 접점마다 상기 차량의 바퀴가 지나가면서 누르는 압력에 의해 소정의 접점신호를 생성한다. 상기 차종판별기(340)는 상기 축수감지기(320)의 각 스위치 접점에서 생성된 접점신호의 생성순서 및 생성횟수를 분석하여 축수를 계산하고, 차량의 전/후진을 판별한다.The bearing sensor 320 has four switch contacts installed on the bottom of the lane perpendicular to the lane direction, and generates a predetermined contact signal by pressing pressure as the wheels of the vehicle pass through each switch contact point. The vehicle type discriminator 340 calculates the number of axes by analyzing the generation order and the number of times of the contact signal generated at each switch contact point of the bearing sensor 320, and determines the forward / reverse of the vehicle.

상기 영상촬영기(330)는 상기 축수감지부(320)의 상측에 설치되어, 상기 차량감지신호에 의해 상기 차량이 지나가는 배경을 참조영상으로 촬영하고, 상기 감지시작시점과 상기 감지종료시점 사이에 상기 축수감지기에 의해 상기 차량의 제1축이감지되면 상기 차량의 상단부를 차량영상으로 촬영한다.The image photographing apparatus 330 is installed above the bearing detecting unit 320, and photographs a background of the vehicle passing by the vehicle detection signal as a reference image, and between the detection start point and the detection end point. When the first axis of the vehicle is detected by the axis sensor, the upper end of the vehicle is photographed as a vehicle image.

상기 차종판별기(340)는 프로세서, 메모리, 입출력장치 및 소정의 소프트웨어를 지닌 정보처리 시스템으로서, 상기 참조영상과 상기 차량영상의 차이값에 의해 상기 차량의 차폭과 차장을 계산하고, 상기 축수감지기(320)에서 생성된 접점신호의 발생순서 및 발생횟수에 의해 상기 차량의 축수 및 전/후진 상태를 결정하고, 상기 차량의 종류를 판별한다. 상기차종판별기(340)는 좀더 구체적으로 영상처리부(350), 차종판별부(360) 및 접점신호처리부(370)를 구비한다.The vehicle type discriminator 340 is an information processing system having a processor, a memory, an input / output device, and a predetermined software. The vehicle type discriminator 340 calculates a vehicle width and a vehicle head based on a difference value between the reference image and the vehicle image, The number of axes and the forward / reverse states of the vehicle are determined based on the generation order and the number of times of the contact signal generated at 320, and the type of the vehicle is determined. More specifically, the vehicle type discriminator 340 includes an image processor 350, a vehicle model determiner 360, and a contact signal processor 370.

상기 영상처리부(350)는 상기 영상촬영기(330)로부터 상기 참조영상과 상기 차량영상을 전달받아, 상기 두 영상의 차이값을 구하여 상기 차량의 차폭 및 차장을 계산하는 구성요소로서, 영상획득부(354), 영상저장부(352), 차이값영상생성부(356) 및 차폭/차장영상생성부(358)를 구비한다.The image processor 350 receives the reference image and the vehicle image from the imager 330, obtains a difference value between the two images, and calculates a vehicle width and a vehicle length. 354, an image storage unit 352, a difference value image generation unit 356, and a vehicle width / deputy image generation unit 358.

상기 영상획득부(354)는 상기 영상촬영기(330)로부터 상기 참조영상과 상기 차량영상을 전달받아 참조영상은 상기 영상저장부(352)에 전달하고, 차량영상은 상기 차이값영상생성부(356)에 전달하는 역할을 한다.The image acquisition unit 354 receives the reference image and the vehicle image from the image photographing unit 330, and transfers the reference image to the image storage unit 352, and the vehicle image is the difference value image generation unit 356. ) To deliver.

상기 영상저장부(352)는 상기 영상획득부(354)에서 전달받은 참조영상을 일시 저장하는 구성 블록이다. 상기 영상저장부(352)는 전달받은 참조영상과 이전에 저장된 참조영상을 비교하여 상당한 차이가 있는경우에는 상기 참조영상 내에 불필요한 차량 또는 다른 물체의 영상이 포함되어 있는 것으로 보아, 상기 전달받은 참조영상을 무시한다.The image storage unit 352 is a component block for temporarily storing a reference image transferred from the image acquisition unit 354. The image storage unit 352 compares the received reference image with a previously stored reference image, and if there is a significant difference, it is considered that an unnecessary vehicle or other object image is included in the reference image. Ignore

상기 차이값영상생성부(356)는 상기 영상획득부(354)에서 전달받은 차량영상과 상기 영상저장부(352)에 일시 저장된 참조영상의 변화분을 계산하여 차이값영상을 생성한다.The difference value image generator 356 generates a difference value image by calculating a change amount of the vehicle image received from the image acquisition unit 354 and a reference image temporarily stored in the image storage unit 352.

상기 차폭/차장계산부(358)는 상기 차이값영상생성부(356)에서 생성한 상기 차이값영상을 이용하여 차선에 진입한 차량의 폭 및 길이를 계산한다.The vehicle width / deputy calculator 358 calculates the width and the length of the vehicle entering the lane using the difference image generated by the difference image generator 356.

다음, 접점신호처리부(370)는 상기 축수감지기(320)에 포함된 4개의 스위치 접점에서 생성된 각 접점신호의 발생순서 및발생횟수에 의해 상기 차량의 축수 및 전/후진 상태를 결정하여 상기 차종판별부(360)에 전달한다.Next, the contact signal processing unit 370 determines the number of shafts and the forward / reverse state of the vehicle based on the generation order and the number of occurrences of each contact signal generated at the four switch contacts included in the bearing sensor 320. Transfer to the determination unit 360.

그리고, 상기 차종판별부(360)는 상기 영상처리부(350)에서 계산된 상기 차량의 차폭 및 차장과 상기 접점신호처리부(370)에서 결정된 상기 차량의 축수를 각 차종별로 미리 구비된 차종 데이터와 비교하여 일치하는 차종을 선택한다.The vehicle type discrimination unit 360 compares the vehicle width and vehicle head calculated by the image processing unit 350 and the number of axes of the vehicle determined by the contact signal processing unit 370 with vehicle type data previously provided for each vehicle type. Select the matching vehicle.

도 2는 종래 차종 판별 장치를 설치환경을 고려하여 도시한 도면이다. 도 4에서 참조번호 400은 도 1의 차량감지기(300)이고, 참조번호 402는 도 1의 차량분리기(310)이고, 참조번호 404는 도 1의 축수감지기(320)이고, 참조번호406은 도 1의 영상촬영기(330)을 표시한 것이다.2 is a view illustrating a conventional vehicle type determining apparatus in consideration of an installation environment. In FIG. 4, reference numeral 400 denotes the vehicle detector 300 of FIG. 1, reference numeral 402 denotes the vehicle separator 310 of FIG. 1, reference numeral 404 denotes the bearing sensor 320 of FIG. 1, and reference numeral 406 denotes FIG. The image photographing apparatus 330 of FIG. 1 is displayed.

다음은 종래 차종 판별 장치 동작 내용을 시간의 흐름에 비추어 구체적으로 설명한다.Next, the operation of the conventional vehicle type discrimination apparatus will be described in detail in light of the passage of time.

도 3는 도 1에 도시된 종래 차종 판별 장치에 있어서 차종을 판별하는 방법을 도시한 순서도이다.FIG. 3 is a flowchart illustrating a method of determining a vehicle model in the conventional vehicle model determination apparatus shown in FIG. 1.

먼저, 차량감지기(300, 400)에 의해 차선에 진입하는 차량이 감지되면, 영상촬영기(330, 406)에 의해 상기 차량이 지나갈차선의 배경이 참조영상으로 촬영되어, 상기 차종판별기(340)의 소정의 메모리에 저장된다(500, 505단계). 상기 참조영상이 소정의 메모리에 저장되는 과정을 좀 더 상세히 설명하면, 상기 영상촬영기(330, 406)에서 촬영되어 상기 차종판별기(340)에 전달된 참조형상을 제1 참조영상이라 하고, 상기 메모리에 이미 저장되어 있는 참조영상을 제2 참조영상이라할 때, 제1 참조영상과 제2 참조영상이 상당히 차이가 있는 경우에는 제1 참조영상을 무시하고, 그 차이가 크지 않은 경우에는 제2 참조영상을 제1 참조영상에 의해 갱신하게 된다.First, when a vehicle entering the lane is detected by the vehicle detectors 300 and 400, the background of the lane through which the vehicle passes by the image detectors 330 and 406 is photographed as a reference image, and the vehicle type discriminator 340. Are stored in a predetermined memory (steps 500 and 505). The process of storing the reference image in a predetermined memory will be described in more detail. The reference shape photographed by the image photographing apparatuses 330 and 406 and transmitted to the vehicle class discriminator 340 is called a first reference image. When the reference image already stored in the memory is referred to as the second reference image, the first reference image is ignored if there is a significant difference between the first reference image and the second reference image. The reference image is updated by the first reference image.

차량구분기(310, 402)에 의해 상기 차량의 전단부가 감지되고(510단계), 축수감지기(320, 404)에 의해 상기 차량의 제1축수가 감지되면(515단계), 상기 영상촬영기(330, 406)에 의해 상기 차량의 차량영상이 촬영된다(520단계).When the front end of the vehicle is detected by the vehicle separators 310 and 402 (step 510), and the first axis number of the vehicle is detected by the axis detectors 320 and 404 (step 515), the image photographing apparatus 330 In step 520, the vehicle image of the vehicle is captured.

다음, 상기 차종판별기(340)에 의해 상기 촬영된 차량영상과 상기 메모리에 저장된 참조영상의 차이값이 계산되어 상기차량의 차폭과 차장이 계산된다(525단계).Next, the difference between the photographed vehicle image and the reference image stored in the memory is calculated by the vehicle type discriminator 340 to calculate the vehicle width and the vehicle length (step 525).

다음, 상기 차량구분기(310, 402)에 의해 상기 차량의 후단부가 감지되면, 상기 차종판별기(340)에 의해 상기 축수감지기(320, 404)에 감지된 축수로 상기 차량의 축수를 결정된다(530단계 내지 545단계).Next, when the rear end of the vehicle is detected by the vehicle separators 310 and 402, the number of axes of the vehicle is determined based on the number of axes detected by the vehicle type detector 340 by the vehicle type discriminator 340. (Steps 530 to 545).

그리고, 상기 차종판별기(340)가 상기 차량의 차폭, 차장 및 축수를 미리 저장된 차종별 데이터와 비교하여 일치하는 차종을 선택함으로써 상기 차선에 진입한 차량에 대한 차종 판별 과정은 종료된다(550단계)In addition, the vehicle type discriminator 340 compares the vehicle width, the vehicle head, and the number of vehicles with previously stored vehicle type data, and selects a matching vehicle type, thereby completing the vehicle type determination process for the vehicle entering the lane (step 550).

그러나, 이와 같이 차량이 톨게이트에 진입할때 차량 검지기에 의해 미리 배경영상을 취득하고, 차량이 촬영영역에 진입하였을때 차량의 영상을 취득한 후, 배경영상과 차량의 영상을 이용한 차영상을 구하는 방법은 차량이 지체와 서행을 하는 경우, 배경영상을 원활하게 갱신할 수 없다.However, a method of acquiring a background image by a vehicle detector in advance when the vehicle enters a toll gate and acquiring an image of the vehicle when the vehicle enters a shooting area, and then obtaining a vehicle image using the background image and the image of the vehicle When the vehicle slows down with a delay, the background image may not be updated smoothly.

즉, 차량 검지기에 차량의 진입이 검지되었으나, 현재 촬영영역에는 배경만 위치하는 것이 아니라 이전에 진입한 차량이 위치하고 있을 수 있기 때문이다.That is, although the entry of the vehicle is detected by the vehicle detector, not only the background is located in the current photographing area, but the previously entered vehicle may be located.

또한, 배경영상을 취득한 후, 구름이 태양을 가리거나 하는 등의 조건의 변화에 따라 차량의 영상이 가지는 배경과 먼저 취득한 배경영상이 차이가 있을 수있으며, 이 경우에는 차 영상을 사용하여 차량을 판별하는 것은 불가능하다.In addition, after acquiring the background image, there may be a difference between the background of the vehicle image and the previously acquired background image according to a change in conditions such as a cloud covering the sun. In this case, the vehicle image is used to It is impossible to determine.

상기한 바와 같이 종래 차종 판별 장치는 차량이 지체 또는 정체 되는 경우 원하는 배경영상을 촬상할 수 없어, 차량의 판별이 불가능하며, 일기의 변화에 대처할 수 있는 수단이 없어 오류발생의 확률이 큰 문제점이 있었다.As described above, the conventional vehicle type determination device cannot capture a desired background image when the vehicle is delayed or congested, and thus, it is impossible to discriminate the vehicle. there was.

이와 같은 문제점을 감안한 본 발명은 차량의 지체 및 정체에 무관하게 차량의 종류를 판별할 수 있으며, 일기의 변화에 무관한 차종 판별 장치 및 방법을 제공함에 그 목적이 있다.In view of the above problems, the present invention can determine the type of vehicle irrespective of the delay and congestion of the vehicle, and has an object to provide a vehicle type determination apparatus and method irrespective of changes in weather.

도1은 종래 차종 판별 장치의 구성도.1 is a block diagram of a conventional vehicle type discrimination apparatus.

도2는 도1을 설치환경을 고려하여 구성한 구성도.FIG. 2 is a configuration diagram illustrating FIG. 1 in consideration of an installation environment; FIG.

도3은 종래 차종 판별 방법의 순서도.3 is a flowchart of a conventional vehicle model discrimination method.

도4는 본 발명 차종 판별 장치의 구성도.4 is a configuration diagram of a vehicle model discrimination apparatus of the present invention.

도5는 도4의 동작 순서도.5 is an operational flowchart of FIG. 4;

도6은 본 발명 차종 판별 방법의 순서도.Figure 6 is a flow chart of the vehicle model determination method of the present invention.

도7a 내지 도7h는 차량의 영상으로 부터 윤곽을 추출하는 과정의 모식도.7A to 7H are schematic views of a process of extracting contours from an image of a vehicle.

도8은 검출된 차량의 윤곽을 보정하고, 세선화하는 과정을 보인 모식도.8 is a schematic diagram showing a process of correcting and thinning the contour of the detected vehicle;

*도면의 주요 부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *

1:차량2:차량 검지기1: vehicle 2: vehicle detector

3,4:제1 및 제2촬상부5:영상처리부3, 4: first and second image capturing unit 5: image processing unit

6:겐트리6: Gantry

상기와 같은 목적은 배경영상을 사용하지 않고, 차량 자체의 영상만을 이용하여 그 차량의 폭, 높이 및 길이 정보를 획득함으로써 달성되는 것으로, 이와 같은 본 발명을 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다.The above object is achieved by acquiring the width, height, and length information of the vehicle using only the image of the vehicle itself without using a background image. The present invention will be described in detail with reference to the accompanying drawings. Same as

도4는 본 발명 차종 판별 장치의 구성도로서, 이에 도시한 바와 같이 주행하는 차량(1)의 위치를 감지하기 위한 차량 검지기(2)와; 차량(1)이 차량 검지기(2)를 통과할때 각각 차량(1)의 상부와 측면부를 촬상하는 제1 및 제2촬상부(3,4)와; 상기 제1 및 제2촬상부(3, 4)에서 촬영된 차량(1)의 영상을 인가받아 처리하여 차량의 높이, 폭, 길이 정보를 추출하여 차종을 판별하는 영상처리부(5)로 구성된다.4 is a block diagram of a vehicle type discrimination apparatus according to the present invention, and a vehicle detector 2 for detecting a position of a vehicle 1 traveling as shown therein; First and second imaging units 3 and 4 for imaging the upper and side portions of the vehicle 1, respectively, when the vehicle 1 passes through the vehicle detector 2; It is composed of an image processing unit (5) for receiving the image of the vehicle (1) taken by the first and second image pickup unit (3, 4) to process the vehicle, extract the height, width, and length information of the vehicle to determine the vehicle type .

이하, 상기와 같이 구성된 본 발명 차종 판별 장치의 구성 및 동작을 보다 상세히 설명한다.Hereinafter, the configuration and operation of the vehicle type determination device of the present invention configured as described above will be described in more detail.

먼저, 도로와 수직인 방향으로 차량(1)이 지나감을 검출할 수 있는 차량 검지기(2)가 설치된다.First, a vehicle detector 2 capable of detecting the passing of the vehicle 1 in a direction perpendicular to the road is provided.

상기 차량 검지기(2)는 차량이 지나감에 따라 발생하는 압력의 변화, 즉 차량의 무게에 의해 동작하는 센서를 가지는 것으로, 그 종류에는 제한이 없다.The vehicle detector 2 has a sensor that operates by a change in pressure generated by the passing of the vehicle, that is, the weight of the vehicle, and the type thereof is not limited.

또한, 상기 차량 검지기(2)를 통과하는 차량(1)의 측면과 상부의 영상을 촬상하기 위해, 겐트리(6)를 설치하고, 그 겐트리(6)의 적당한 위치에 제1 및 제2촬상부(3,4)를 각각 설치한다.In addition, in order to capture the image of the side and the upper part of the vehicle 1 passing through the vehicle detector 2, a gantry 6 is provided, and the first and the second gantry 6 are disposed at appropriate positions of the gantry 6. The imaging units 3 and 4 are provided respectively.

상기 차량 검지기(2)는 제1 및 제2촬상부(3,4)의 촬상 시점을 결정하는 스위치의 역할을 수행한다. 즉, 차량(1)이 상기 차량 검지기(2)를 통과하는 순간 차량(1)을 검지한 차량 검지기(2)의 검지신호는 제1 및 제2촬상부(3,4)의 동작신호로서 전달되어 촬상동작을 수행하도록 한다.The vehicle detector 2 plays a role of a switch for determining an imaging time point of the first and second imaging units 3 and 4. That is, the detection signal of the vehicle detector 2 that detects the vehicle 1 at the moment when the vehicle 1 passes the vehicle detector 2 is transmitted as an operation signal of the first and second imaging units 3 and 4. To perform the imaging operation.

상기 제1 및 제2촬상부(3,4) 각각은 CCD카메라, 적외선 필터 및 적외선 조명을 포함하여 구성되며, 상기 적외선 필터 및 적외선 조명의 사용으로 인해 촬상영역의 가시광선을 제거하고, 적외선 영역의 광으로만 촬상한다.Each of the first and second image capturing units 3 and 4 includes a CCD camera, an infrared filter, and an infrared light, and removes visible light in the imaging area due to the use of the infrared filter and the infrared light. Only with light.

상기 적외선 필터는 CCD 카메라의 렌즈 전면에 부착되며, 유리 또는 젤라틴 재질로 되어 투과 가능한 광의 파장만을 CCD 카메라로 인가하여 피사체의 색조 또는 명암을 변화시키는 기능을 한다.The infrared filter is attached to the front surface of the lens of the CCD camera, and is made of glass or gelatin to apply only the wavelength of light that can be transmitted to the CCD camera to change the color tone or contrast of the subject.

이처럼 적외선을 이용하여 차량의 상부 및 측면을 촬영하면, 태양광이나 차량의 전조등에 의해 생기는 영상의 번짐 문제를 해결할 수 있다.When the upper and side surfaces of the vehicle are photographed using infrared rays, it is possible to solve an image blur problem caused by sunlight or the headlight of the vehicle.

이로 인해 영상처리의 가장 큰 문제점인 빛의 민감도를 줄일 수 있어, 일기의 변화등에 무관한 영상을 획득할 수 있다.As a result, it is possible to reduce the sensitivity of light, which is the biggest problem of image processing, and thus obtain an image irrespective of changes in weather.

상기 제1 및 제2촬상부(3,4)는 각각 차량의 상부와 측면을 촬상하도록 배치되며, 이에 따라 동일한 차량에 대하여 서로다른 각도에서 촬상한 사진을 획득할 수 있게 된다.The first and second image capturing units 3 and 4 are arranged to photograph the upper side and the side surface of the vehicle, respectively, thereby acquiring photographs photographed from different angles with respect to the same vehicle.

차량의 상부를 촬상한 제1촬상부(3)의 촬상결과를 이용하여 차량의 폭을 검출할 수 있게 되며, 차량의 측면을 촬상하는 제2촬상부(4)의 촬상결과를 이용하여 차량의 길이와 높이를 검출할 수 있게 되어, 종합적으로 차량의 폭, 길이 및 높이를 모두 검출하여 차량의 종류를 판별할 수 있게 된다.The width of the vehicle can be detected by using the imaging result of the first imaging unit 3, which photographs the upper part of the vehicle, and the imaging result of the second imaging unit 4, which photographs the side of the vehicle, is used. Since the length and height can be detected, the type of the vehicle can be determined by detecting all the width, the length, and the height of the vehicle.

상기와 같이 촬상된 차량(1)의 영상은 영상처리부(5)에 인가된다.The image of the vehicle 1 captured as described above is applied to the image processor 5.

상기 영상처리부(5)는 상기 제1 및 제2촬상부(3,4)로 부터 차량의 영상을 인가받은 영상처리부(5)는 그 차량의 영상을 처리하여 촬상된 차량의 폭, 길이 및 높이를 이용하여 차량의 종류를 판별하고, 이를 출력 및 저장한다.The image processor 5 receives the image of the vehicle from the first and second image pickup units 3 and 4, and the image processor 5 processes the image of the vehicle to capture the width, length, and height of the vehicle. Use to determine the type of vehicle, and outputs and stores it.

도5는 상기 본 발명 차종 판별 장치의 전체적인 동작 순서도로서, 차량(1)의 검지를 수행하고, 차량이 검지되면, 제1 및 제2촬상부(3, 4)에서 차량의 영상을 촬상한 후, 그 촬상된 영상을 처리하여 차종을 판별한 다음 그 결과를 출력 및 저장하게 된다.FIG. 5 is an overall operation flowchart of the vehicle type discrimination apparatus according to the present invention. When the vehicle 1 is detected and the vehicle is detected, the first and second imaging units 3 and 4 capture images of the vehicle. Then, the captured image is processed to determine the vehicle type, and the result is output and stored.

이와 같은 과정에서는 종래와 같이 별도의 배경영상을 촬상하지 않고, 톨게이트를 통과하는 차량의 영상을 직접 촬영하여 그 촬영된 영상으로 부터 차종을 판별할 수 있게 되어, 차량이 정체 또는 지체되는 경우에도 차종을 판별할 수 있으며, 일기의 변화에 관계없이 정확한 차종 판별이 가능하게 된다.In this process, the vehicle model can be directly determined by photographing the image of the vehicle passing through the toll gate without taking a separate background image as in the prior art, even when the vehicle is congested or delayed. It is possible to determine, and accurate vehicle discrimination is possible regardless of the change of weather.

도6은 상기 영상처리부(5)의 영상처리방법의 순서도로서, 이에 도시한 바와같이 제1 및 제2촬상부(3,4)에서 촬상된 영상을 읽어 들이는 영상입력단계와; 상기 읽어 들인 영상에서 배경을 제거하는 전처리단계와; 상기 배경이 제거된 영상으로 부터 차량의 윤곽을 검출하는 윤곽검출 필터링단계와; 상기 검출된 윤곽을 세선화하고, 그 세선화된 윤곽으로 부터 차량의 윤곽을 결정하는 세선화 및 윤곽검출단계와; 상기 검출된 윤곽을 이용하여 차량 윤곽의 후보영역을 결정하는 윤곽후보결정단계와; 상기 차량의 윤곽후보 영역에 대하여 윤곽을 재검출하는 윤곽후보 재검출단계와; 상기 차량의 윤곽으로 부터 차량의 길이, 높이 및 폭을 결정하여 차종을 판별하는 단계로 이루어진다.Fig. 6 is a flowchart of an image processing method of the image processing section 5, and as shown therein, an image input step of reading images captured by the first and second image pickup sections 3 and 4; A preprocessing step of removing a background from the read image; A contour detection filtering step of detecting a contour of the vehicle from the image from which the background is removed; Thinning and contour detecting step of thinning the detected contour and determining the contour of the vehicle from the thinned contour; A contour candidate determining step of determining a candidate region of the vehicle contour using the detected contour; A contour candidate redetection step of re-detecting the contour of the contour candidate region of the vehicle; And determining a vehicle type by determining a length, a height, and a width of the vehicle from the outline of the vehicle.

이하, 상기와 같은 영상처리부(5)의 영상처리방법을 보다 상세히 설명한다.Hereinafter, the image processing method of the image processing unit 5 as described above will be described in more detail.

먼저, 영상입력단계에서는 제1 및 제2촬상부(3,4)에서 촬상된 차량의 영상을 입력받는다.First, in the image input step, images of the vehicles captured by the first and second image capturing units 3 and 4 are received.

도7a는 상기 제2촬상부(4)에서 촬상한 차량의 측면 영상이며, 제1촬상부에서 촬상한 차량의 상부 영상에 대한 처리과정도 측면 영상 처리과정과 동일하므로, 설명의 편의를 위해 도면을 생략한다.FIG. 7A is a side image of the vehicle picked up by the second image pickup unit 4, and the processing of the upper image of the vehicle picked up by the first image pickup unit is the same as the side image processing process. Omit.

상기 제2촬상부(4)에서 촬상된 차량의 측면 영상은 차량 뿐만 아니라 배경도 포함되는 것이며, 그 영상에서 차량의 윤곽만을 검출하기 위해서 종래에는 배경영상을 촬상하여 두 영상의 차를 구해 차량의 윤곽을 검출하였으나, 본 발명에서는 영상의 정보를 흐리게 하여 차량의 개략적인 윤곽을 검출한다.The side image of the vehicle captured by the second imaging unit 4 includes not only the vehicle but also the background. In order to detect only the outline of the vehicle from the image, the image of the vehicle is conventionally obtained by obtaining a difference between the two images. Although the contour is detected, in the present invention, the outline of the vehicle is detected by blurring the information of the image.

즉, 도7b는 상기 도7a에 도시한 차량의 측면 영상을 가우시안 필터를 사용하여 처리한 결과로, 보다 흐리게 표현되어 차량의 윤곽을 검출할 수 있게 된다.That is, FIG. 7B is a result of processing the side image of the vehicle illustrated in FIG. 7A by using a Gaussian filter, so that the outline of the vehicle can be detected by being blurred.

이는, 도6에서의 전처리단계에서 7×7 가우시안 필터를 사용하여, 촬상한 영상 전체에 적용하여 전체 영상을 흐리게 표현한다.This is applied to the entire captured image using a 7 × 7 Gaussian filter in the preprocessing step of FIG. 6 to blur the entire image.

상기 가우시안 필터의 예를 아래의 수학식1에 표시하였다.An example of the Gaussian filter is shown in Equation 1 below.

이와 같은 가우시안 필터를 사용하여 마스크 연산을 수행하면, 그 결과 영상 내의 한 점은 점을 기준으로 3점의 거리내에 있는 값들의 평균으로 대체되어, 영상이 전체적으로 흐려지게 된다.When a mask operation is performed using such a Gaussian filter, a point in the image is replaced by an average of values within a distance of three points based on the point, thereby blurring the image as a whole.

그 다음, 상기 도7b에 도시한 영상으로 부터 개략의 윤곽을 추출한다.Then, outline outlines are extracted from the image shown in Fig. 7B.

이때 윤곽을 추출하기 위해서 sobel 필터를 사용하여 영상에서의 모서리를 검출한다.In this case, we use a sobel filter to extract the edges of the image.

이때 sobel 필터의 예는 수학식2와 같이 표현된다.At this time, an example of a sobel filter is expressed as in Equation 2.

상기 수학식2에 표현된 필터는 하나의 픽셀을 기2준으로 X축의 경우 상하의레벨값의 변화가 많을 때, Y축의 경우 좌우의 레벨값의 변화가 많을때 큰 값을 가지게 된다.The filter expressed in Equation 2 has a large value when there are many changes in the upper and lower level values in the X axis based on one pixel, and when there are many changes in the left and right level values in the Y axis.

즉, 경계가 되는 부분에서 X와 Y의 값은 커지고, 그 경계이외의 부분에서는 값이 작아지게 된다.In other words, the value of X and Y increases at the portion that is the boundary, and the value decreases at the portion other than the boundary.

상기의 필터를 사용하여 검출되는 모서리의 크기와 방향은 다음의 수학식3과 수학식4로 표현할 수 있다.The size and direction of the edge detected using the filter can be expressed by the following equations (3) and (4).

상기의 검출결과로 얻어지는 개략적인 차량의 윤곽을 도7c에 도시하였다.The outline of the outline of the vehicle obtained as a result of the above detection is shown in Fig. 7C.

그 다음, 윤곽검출 필터링을 수행하며, 이때의 윤곽검출은 상기 도7c와 같이 전처리된 영상을 이진화하여 윤곽을 검출한다.Next, contour detection filtering is performed, and contour detection at this time detects the contour by binarizing the preprocessed image as shown in FIG. 7C.

상기 이차원의 영상에서 각 화소는 f(x,y)로 표현될 수 있으며, 임계값(T)을 정하여 각 화소와 임계값의 크기를 비교하여 영상을 0 또는 1의 값으로 변환할 수 있다.In the two-dimensional image, each pixel may be represented by f (x, y), and a threshold value T may be determined to compare the size of each pixel with a threshold value and convert the image into a value of 0 or 1. FIG.

아래의 수학식5는 각 화소와 임계값을 비교하여 이진화된 결과값인 g(x,y)를 구하는 식이다.Equation 5 below compares each pixel with a threshold to obtain g (x, y), which is a binarized result.

상기의 연산을 통해 하나의 화소는 그 값이 T보다 크면 1, T보다 작으면 0의 값을 가지면 전체의 영상은 0 또는 1의 두가지 값으로 표현되는 이진 영상이 된다.Through the above operation, one pixel has a value of 1 when the value is larger than T, and a value of 0 when the value is smaller than T, and the entire image becomes a binary image represented by two values of 0 or 1.

이를 도7d에 도시하였다.This is shown in Fig. 7d.

그러나, 상기 이진영상은 잡음 성분 등에 의해 차량의 윤곽이 왜곡되거나, 윤곽이 이어지지 않는 경우가 발생할 수 있다.However, in the binary image, the contour of the vehicle may be distorted due to the noise component, or the contour may not be continued.

이를 해결하기 위하여 잡음 영역을 제거하고, 하나의 선으로 연결된 윤곽선 후보를 검출하기 위해 상기 세선화 및 윤곽검출단계를 수행한다.To solve this problem, the noise region is removed and the thinning and contour detection steps are performed to detect contour candidates connected by one line.

세선화 및 윤곽검출단계는 먼저, 잡음을 제거하기 위해 Dialation과 Erosion기법을 사용한다.The thinning and edge detection steps first use dialing and erosion techniques to remove noise.

Dialation 기법은 수리형태학의 기본조작으로서 구성소에 의한 물체의 팽창효과를 가져오며, 이를 수학식6에 나타내었다.The dialation technique is the basic operation of mathematical morphology, which brings about the expansion effect of the object by the constituent element, which is shown in Equation 6.

상기 A와 B는 집합이며 0을 공집합이라 할때 B에 의한 A의 Dialation은 AB로 표현된다. 상기 A는 입력영상이며, B는 Dialation에 사용되는 마스크 연산요소이고, Br은 B의 리플렉션(reflection)을 의미한다.Where A and B are sets and 0 is an empty set, the dialing of A by B is A It is represented by B. A is an input image, B is a mask operation element used for dialing, and B r is a reflection of B.

상기 수학식6은 B에 의한 A의 dialation은 B를 중심으로 회전한 집합 x와 A가 겹치는 부분의 모든 점을 의미한다.Equation (6) means that the dialing of A by B means all the points where the set x rotated around B and A overlap.

이와 같은 과정을 통해 상기 전처리 과정에서 잡음에 의해 윤곽이 연결되지 않은 부분들이 연결되어진다.Through this process, the parts whose contours are not connected by the noise in the preprocessing process are connected.

상기 dialation을 수행하면 연결되지 않은 윤곽부분이 연결되나, 윤곽이 두꺼워지게 되며, 이를 해결하기 위해 erosion 기법을 사용하여 구성소에 의해 물체를 축소시키게 되며, 그 기법을 수학식7에 나타내었다.When the dialation is performed, the unconnected contour part is connected, but the contour is thickened. To solve this problem, the object is reduced by the component using the erosion technique, and the technique is shown in Equation (7).

상기 수학식7은 B에 의한 A의 erosion은 x, 즉 B에 의해 변환된 A에 포함된 모든 점을 의미한다.Equation (7) is the erosion of A by B means all points included in A converted by x, that is, B.

이처럼 erosion은 두꺼워진 윤곽을 원래의 상태로 되돌릴 수 있게 된다.As such, the erosion can return the thickened contours to their original state.

도8의 (a)는 전처리된 영상의 일부인 A, 도8의 (b)는 B, 도8의 (c)는 dialation 후 확장된 영역, 도8의 (d)는 erosion후 축소된 영역을 나타낸다.Fig. 8A shows part A of a pre-processed image, Fig. 8B shows B, Fig. 8C shows an expanded area after dialing, and Fig. 8D shows a reduced area after erosion. .

상기 b는 각 처리의 결과에 영향을 주는 요소로서, 그 크기와 모양에 따라 A영역의 확장 또는 축소되는 양과 모양을 결정하게 된다.B is an element that influences the result of each process, and determines the amount and shape of the area A to be expanded or reduced according to its size and shape.

상기와 같이 세선화 및 윤곽검출단계를 수행한 결과를 도7e에 도시하였다.As shown in FIG. 7E, the thinning and contour detection steps are performed as described above.

이와 같이 추출된 차량의 윤곽은 최초 가우시안 필터에 의해 blurring된 영상에서 검출된 윤곽이므로, 이를 이용하여 직접 차종을 판별하는 것은 정확도 및 신뢰도가 저하될 수 있다.Since the contour of the vehicle extracted as described above is a contour detected from an image blurring by the first Gaussian filter, directly determining the vehicle model using the extracted Gaussian filter may reduce accuracy and reliability.

이를 해결하기 위해 윤곽후보검출단계에서는 가변적인 거리인 D만큼 확장시킨다.To solve this problem, the contour candidate detection step is extended by a variable distance D.

도7f에 확장된 윤곽을 나타내었다. 이때 확장에 사용되는 거리 D는 경계의 정확도에 따라서 가변적으로 결정되는 값이다.An enlarged outline is shown in FIG. 7F. In this case, the distance D used for extension is a value that is variably determined according to the accuracy of the boundary.

그 다음, 도7g에 도시한 바와 같이 원래 촬영된 차량의 영상과 상기 추출 및 확장된 차량의 경계를 비교한다.Then, as shown in Fig. 7G, the image of the vehicle originally photographed is compared with the boundary of the extracted and expanded vehicle.

이와 같이 비교한 결과 적당한 값이면 그 추출된 차량의 윤곽을 이용하여 차종을 판별하게 된다.As a result of the comparison, the vehicle model is determined using the extracted outline of the vehicle.

도7h는 최종적으로 추출된 차량의 윤곽을 나타내었다.7H shows the contour of the vehicle finally extracted.

상기 도7a 내지 도7h에 도시한 도면은 제2촬상부(4)의 영상을 예로한 것이며, 제1촬상부(3)에서 촬상된 차량의 상부도 상기와 동일하게 처리되어 최종적으로 차량 상부의 윤곽을 추출할 수 있게 된다.7A to 7H illustrate the image of the second image pickup unit 4, and the upper portion of the vehicle captured by the first image capture unit 3 is processed in the same manner as described above. The outline can be extracted.

그 다음, 상기 추출된 차량의 측면 윤곽 및 차량의 상부 윤곽을 이용하여 차량의 폭, 길이 및 높이를 검출하여 촬상된 차량의 차종을 판별하게 된다.Then, the width, length and height of the vehicle are detected using the extracted side profile of the vehicle and the top profile of the vehicle to determine the vehicle type of the imaged vehicle.

이는 제1촬상부(3)에서 촬상한 차량의 상부영상에서 결정된 윤곽에서 차량의 윤곽을 포함하는 최소의 사각형 영역을 결정하여, 사각형의 가로 및 세로의 길이를 측정하여 차량의 길이 및 차폭을 결정한다.This determines the minimum rectangular area including the outline of the vehicle from the outline determined from the upper image of the vehicle captured by the first imager 3, and measures the length and width of the vehicle by measuring the length of the rectangle. do.

또한, 제2촬상부(4)에서 촬상한 차량의 측면영상에서, 결정된 윤곽을 포함하는 최소의 사각형 영역을 결정하여, 사각형의 가로 및 세로의 길이를 측정하여 차량의 길이와 높이를 알수 있게 된다.In addition, in the side image of the vehicle captured by the second imaging unit 4, the minimum rectangular area including the determined contour is determined, and the length and height of the vehicle can be known by measuring the length of the rectangle. .

이때 차량의 길이는 제1촬상부(3) 및 제2촬상부(4)에서 모두 검출할 수 있는것으로, 이를 이용하여 오차를 알 수 있게 된다.At this time, the length of the vehicle can be detected by both the first imaging unit 3 and the second imaging unit 4, and the error can be known using the same.

상기한 바와 같이 본 발명 차종 판별 장치는 차량이 톨게이트를 지나는 순간 그 차량의 측면 및 상부를 촬상하고, 다른 영상과의 비교 과정없이 그 촬상된 영상만으로 차종을 판별할 수 있도록 구성함으로써, 차량의 지체 또는 정체에 관계없이 운행되는 차량의 차종을 판별할 수 있는 효과와 아울러 배경정보를 이용하지 않음으로써, 일기의 변화에 관계없이 정확한 차량의 종류를 판별하는 효과가 있다.As described above, the vehicle type discrimination apparatus of the present invention is configured to capture the side and the upper portion of the vehicle at the moment when the vehicle passes the toll gate, and to determine the vehicle type using only the captured image without comparing with other images. Alternatively, by not using the background information and the effect of determining the vehicle type of the vehicle running regardless of congestion, there is an effect of determining the correct type of vehicle regardless of the change of weather.

또한, 차량의 상부와 측면의 영상을 획득하여 차량의 상부윤곽과 차량의 측면 윤곽을 추출할 수 있어, 오차를 감안한 차종 판별이 가능하도록 하여 그 차종 판별의 신뢰성을 향상시키는 효과가 있다.In addition, it is possible to extract the upper contour of the vehicle and the side contour of the vehicle by acquiring images of the upper and side surfaces of the vehicle, thereby making it possible to determine the vehicle type in consideration of the error, thereby improving the reliability of the vehicle type determination.

Claims (9)

차량이 진입함을 검출하는 차량 검지기와, 차량의 진입이 검출되면 각각 진입한 차량의 상부와 측면 영상을 촬상하는 제1 및 제2촬상부와; 상기 제1 및 제2촬상부에서 촬상한 영상으로 부터 차량의 상부 및 측면 윤곽을 추출하고, 그 윤곽으로 부터 차량의 높이, 길이, 폭 및 그 오차를 측정하는 영상처리부로 구성하여 된 것을 특징으로 하는 차종 판별 장치.A vehicle detector for detecting entry of the vehicle, and first and second imaging units for capturing images of the upper and side surfaces of the vehicle entering the vehicle, respectively; And an image processor for extracting the upper and side contours of the vehicle from the images captured by the first and second image capturing units, and measuring the height, length, width, and error of the vehicle from the contours. Vehicle model discrimination apparatus to do. 제 1항에 있어서, 제1 및 제2촬상부는 적외선을 조사하는 적외선 조명부와; 상기 조사된 적외선의 반사광 만을 선택적으로 투과시키는 적외선 렌즈와; 상기 적외선 렌즈를 통해 입사되는 적외선으로 영상을 촬상하는 카메라로 구성하여 된 것을 특징으로 하는 차종 판별 장치.The apparatus of claim 1, wherein the first and second imaging units comprise: an infrared illuminating unit for irradiating infrared rays; An infrared lens for selectively transmitting only the reflected light of the irradiated infrared rays; And a camera for capturing an image with infrared light incident through the infrared lens. 제 1항에 있어서, 상기 차량 검지기는 도로와 수직한 방향으로 설치되어 진입한 차량을 검지하는 순간 상기 제1 및 제2촬상부를 구동하는 신호를 출력하는 것을 특징으로 하는 차종 판별 장치.The vehicle type discrimination apparatus according to claim 1, wherein the vehicle detector outputs a signal for driving the first and second image capturing units at the moment of detecting a vehicle that is installed in a direction perpendicular to a road. 제 1항에 있어서, 상기 영상처리부는 제1 및 제2촬상부에서 촬상된 영상에서 배경영상을 사용하지 않고, 입력되는 영상 자체에서 윤곽을 추출하고, 그 윤곽을 보정하며, 그 윤곽과 원래의 영상을 비교하여 신뢰성이 높은 윤곽을 획득하는 것을특징으로 하는 차종 판별 장치.The image processing apparatus according to claim 1, wherein the image processing unit extracts an outline from the input image itself, corrects the outline, does not use the background image from the images captured by the first and second imaging units, and corrects the outline and the original. A vehicle type discrimination apparatus characterized by obtaining a contour having high reliability by comparing images. 차량의 상부 및 측면을 촬상하는 단계와; 상기 촬상한 영상을 필터링하여 그 영상을 흐리게 표현하는 단계와; 상기 흐려진 영상으로 부터 윤곽후보를 추출하는 단계와; 상기 추출된 윤곽후보를 보정하고, 세선화하는 단계와; 상기 처리된 윤곽후보를 확장하고, 그 확장된 윤곽후보와 원래의 영상을 비교하여 윤곽후보가 적당한 것이면 최종 윤곽으로 결정하는 단계와; 상기 윤곽을 이용하여 차량의 폭, 높이, 길이를 산출하고, 기준값과 비교하여 차종을 판별하는 단계로 이루어진 것을 특징으로 하는 차종 판별 방법.Imaging the top and side of the vehicle; Filtering the captured image to represent the blurred image; Extracting a contour candidate from the blurred image; Correcting and thinning the extracted contour candidates; Expanding the processed contour candidate and comparing the expanded contour candidate with the original image to determine a final contour if the contour candidate is appropriate; Calculating a width, a height, and a length of the vehicle using the outline, and determining a vehicle type by comparing with a reference value. 제 5항에 있어서, 상기 영상을 흐리게 표현하는 단계는 영상의 전체에 blurring 연산을 수행하는 것을 특징으로 하는 차종 판별 방법.The method of claim 5, wherein the blurring of the image comprises performing a blurring operation on the entire image. 제 5항에 있어서, 상기 윤곽후보를 추출하는 단계는 상기 흐려진 영상의 각 픽셀에 대하여 모서리를 검지하고, 그 검출된 모서리 정보를 포함하는 영상을 이진화하여 윤곽후보를 추출하는 것을 특징으로 하는 차종 판별 방법.The method of claim 5, wherein the extracting the contour candidate comprises detecting a corner of each pixel of the blurred image, and extracting the contour candidate by binarizing an image including the detected corner information. Way. 제 5항에 있어서, 상기 윤곽후보를 보정하고 세선화하는 단계는 잡음에 의해 윤곽이 이어지지 않은 부분을 그 윤곽을 확대하여 이어지도록 한 후, 그 윤곽을 원래의 크기로 축소하는 것을 특징으로 하는 차종 판별 방법.The method of claim 5, wherein the step of correcting and thinning the contour candidate is performed by enlarging and extending the contour of a portion that is not contoured by noise, and then reducing the contour to its original size. Determination method. 제 5항에 있어서, 차종을 판별하는 단계에서는 차량의 상부 윤곽 및 차량의 측면 윤곽으로 부터 얻어지는 차량의 길이 정보를 이용하여 차종 판별의 오차를 산출하는 것을 특징으로 하는 차종 판별 방법.The method of claim 5, wherein the determining of the vehicle type comprises calculating an error of vehicle type determination by using length information of the vehicle obtained from the upper outline of the vehicle and the side outline of the vehicle.
KR10-2002-0039799A 2002-07-09 2002-07-09 Grouping apparatus for automobile and method thereof KR100459479B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0039799A KR100459479B1 (en) 2002-07-09 2002-07-09 Grouping apparatus for automobile and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0039799A KR100459479B1 (en) 2002-07-09 2002-07-09 Grouping apparatus for automobile and method thereof

Publications (2)

Publication Number Publication Date
KR20040005299A true KR20040005299A (en) 2004-01-16
KR100459479B1 KR100459479B1 (en) 2004-12-03

Family

ID=37315639

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0039799A KR100459479B1 (en) 2002-07-09 2002-07-09 Grouping apparatus for automobile and method thereof

Country Status (1)

Country Link
KR (1) KR100459479B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100552389B1 (en) * 2004-02-21 2006-02-20 유일정보시스템(주) Advanced Traffic Analyzing System by Descriminating Types of Vehicles
KR100590841B1 (en) * 2004-12-31 2006-06-19 유일정보시스템(주) Advanced traffic analyzing system with adding referenced vehicles
KR101875180B1 (en) * 2017-11-20 2018-07-06 아마노코리아 주식회사 Method, apparatus and system for detecting vechicle and recognizing vechicle number of the vechicle
KR102274092B1 (en) * 2021-02-05 2021-07-08 주식회사 스타시큐리티 Artificial intelligence-based vehicle height measurement system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106776877B (en) * 2016-11-28 2020-05-01 常州市星网计算机技术有限公司 Automatic identification method for motorcycle part models

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3498532B2 (en) * 1997-04-21 2004-02-16 三菱電機株式会社 Vehicle shape discriminator

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100552389B1 (en) * 2004-02-21 2006-02-20 유일정보시스템(주) Advanced Traffic Analyzing System by Descriminating Types of Vehicles
KR100590841B1 (en) * 2004-12-31 2006-06-19 유일정보시스템(주) Advanced traffic analyzing system with adding referenced vehicles
KR101875180B1 (en) * 2017-11-20 2018-07-06 아마노코리아 주식회사 Method, apparatus and system for detecting vechicle and recognizing vechicle number of the vechicle
KR102274092B1 (en) * 2021-02-05 2021-07-08 주식회사 스타시큐리티 Artificial intelligence-based vehicle height measurement system

Also Published As

Publication number Publication date
KR100459479B1 (en) 2004-12-03

Similar Documents

Publication Publication Date Title
KR100459475B1 (en) System and method for judge the kind of vehicle
KR100459476B1 (en) Apparatus and method for queue length of vehicle to measure
EP3026651B1 (en) Vehicle monitoring device and vehicle monitoring method
RU2698610C2 (en) Method and processing unit for control over traffic monitoring system
CN111178291A (en) Parking payment system and parking payment method
US20070127778A1 (en) Object detecting system and object detecting method
JP2007179386A (en) Method and apparatus for recognizing white line
KR101224027B1 (en) Method for dectecting front vehicle using scene information of image
JP4864043B2 (en) Image processing apparatus, method, and program
CN115331191B (en) Vehicle type recognition method, device, system and storage medium
JPH1186185A (en) Vehicle-type discriminating device
KR100459479B1 (en) Grouping apparatus for automobile and method thereof
JP5306124B2 (en) Number plate reading apparatus and number plate reading method
KR100446964B1 (en) Grouping apparatus for automobile
JP3291873B2 (en) License plate recognition device
JPH07244717A (en) Travel environment recognition device for vehicle
JP3505362B2 (en) Vehicle detection method
JPH0997335A (en) Vehicle recognition device and traffic flow measuring instrument
CN109035457A (en) Automatic automobile passage charge platform
JP2946620B2 (en) Automatic number reading device with speed measurement function
JPH11219493A (en) Method for processing traffic information
JP3207696B2 (en) Vehicle type identification device
JPH0729009A (en) Vehicle detection method
JP2924063B2 (en) Image processing type traffic flow measurement device
JP3605892B2 (en) Vehicle sensor and vehicle sensing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment
FPAY Annual fee payment

Payment date: 20141117

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20151116

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20161116

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20181112

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20191111

Year of fee payment: 16