KR102654570B1 - Method, system and computer readable storage medium to recognize vehcle model based on computer vision - Google Patents

Method, system and computer readable storage medium to recognize vehcle model based on computer vision Download PDF

Info

Publication number
KR102654570B1
KR102654570B1 KR1020210057712A KR20210057712A KR102654570B1 KR 102654570 B1 KR102654570 B1 KR 102654570B1 KR 1020210057712 A KR1020210057712 A KR 1020210057712A KR 20210057712 A KR20210057712 A KR 20210057712A KR 102654570 B1 KR102654570 B1 KR 102654570B1
Authority
KR
South Korea
Prior art keywords
vehicle
entering
image
interest
bottom image
Prior art date
Application number
KR1020210057712A
Other languages
Korean (ko)
Other versions
KR20220150568A (en
Inventor
신상용
허원진
Original Assignee
파킹클라우드 주식회사
Filing date
Publication date
Application filed by 파킹클라우드 주식회사 filed Critical 파킹클라우드 주식회사
Priority to KR1020210057712A priority Critical patent/KR102654570B1/en
Priority to PCT/KR2021/007395 priority patent/WO2022234885A1/en
Publication of KR20220150568A publication Critical patent/KR20220150568A/en
Application granted granted Critical
Publication of KR102654570B1 publication Critical patent/KR102654570B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/0723Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10297Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves arrangements for handling protocols designed for non-contact record carriers such as RFIDs NFCs, e.g. ISO/IEC 14443 and 18092
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

본 개시는 컴퓨터 비전 기반의 차종 인식을 위한 방법, 시스템 및 컴퓨터 판독가능 저장 매체에 관한 것이다. 컴퓨터 비전 기반의 차종 인식을 위한 시스템은, 복수의 차량의 저면 영상을 저장하는 영상 데이터베이스부; 진입 차량의 저면을 촬영하는 하부 카메라; 및 통합 관리 서버를 포함할 수 있다. 통합 관리 서버는 하부 카메라로부터 촬영된 진입 차량의 저면 영상에 기초하여 진입 차량의 차종을 결정하는 차종 결정부를 포함할 수 있다. 차종 결정부는, 진입 차량의 저면 영상으로부터 관심 객체를 세그먼테이션하고, 진입 차량의 저면 영상 내의 관심 객체의 예측 바운딩 박스와 대응하는 영상 데이터베이스부에 저장된 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스로부터 각각의 IoU를 측정하고, 측정된 IoU에 기초하여, 제1 후보 차종을 결정할 수 있다.The present disclosure relates to a method, system, and computer-readable storage medium for computer vision-based vehicle model recognition. A system for computer vision-based vehicle type recognition includes an image database unit that stores bottom images of a plurality of vehicles; a lower camera that captures the bottom of the entering vehicle; and an integrated management server. The integrated management server may include a vehicle type determination unit that determines the vehicle type of the entering vehicle based on the bottom image of the entering vehicle captured from the lower camera. The vehicle type determination unit segments the object of interest from the bottom image of the entering vehicle, and calculates the object of interest from the predicted bounding box of the object of interest in the bottom image of the entering vehicle and the reference bounding box of the object of interest in the bottom image of the plurality of vehicles stored in the image database unit. Each IoU can be measured, and the first candidate vehicle model can be determined based on the measured IoU.

Description

컴퓨터 비전 기반의 차종 인식을 위한 방법, 시스템 및 컴퓨터 판독가능 저장 매체 {METHOD, SYSTEM AND COMPUTER READABLE STORAGE MEDIUM TO RECOGNIZE VEHCLE MODEL BASED ON COMPUTER VISION}Method, system and computer-readable storage medium for computer vision-based vehicle model recognition {METHOD, SYSTEM AND COMPUTER READABLE STORAGE MEDIUM TO RECOGNIZE VEHCLE MODEL BASED ON COMPUTER VISION}

본 개시는 컴퓨터 비전 기반의 차종 인식을 위한 방법, 시스템 및 컴퓨터 판독가능 저장 매체에 관한 것이다. 보다 구체적으로는, 일반적으로 객체 탐지 기술 분야에서 성능을 평가하는 데 사용되는 IoU(Intersection over Union)를 차종 인식에 활용하여 차종을 결정하는 방법, 시스템 및 컴퓨터 판독가능 저장 매체가 설명된다. The present disclosure relates to a method, system, and computer-readable storage medium for computer vision-based vehicle model recognition. More specifically, a method, system, and computer-readable storage medium for determining a vehicle type by utilizing IoU (Intersection over Union), which is generally used to evaluate performance in the field of object detection technology, for vehicle type recognition are described.

여기에서 달리 언급하지 않으면 본 섹션에서 기술되는 내용은 본 출원에서의 청구범위의 선행 기술이 아니며, 본 섹션에 기재하였다는 이유로 선행 기술로 인정되어서는 안 된다.Unless otherwise stated herein, the material described in this section is not prior art to the claims in this application and should not be acknowledged as prior art by virtue of being described in this section.

도로 상에는 용도, 외형, 크기, 색상, 또는 제조사 등이 상이한 여러 종류의 자동차가 존재한다. 차종에 따라 자동차의 세금 혜택이나, 유료 도로 또는 유료 주차장에서 징수되는 요금, 진입 가능한 장소 등이 상이해질 수 있다. 또한, 각각의 차종은 서로 구별되는, 고유한 특징을 갖기 때문에 차량을 식별하는 데에도 사용될 수 있다. 일반적으로 차량을 식별하는 데에는 차량의 번호판을 인식하고 판독하는 LPR(license plate recognition) 기술이 주로 이용되지만, 위법이나 차량에 대한 요금 부과 회피를 목적으로 차량의 번호판을 위조 또는 변조하는 경우나, LPR 장치에서 차량 번호판이 오인식 또는 미인식되는 경우에 대비하여 차량 번호판 외의 수단으로 차량을 인식할 필요가 있다. 이에 따라, 차량 번호판을 대신하여 차종을 이용하여 차량을 식별하는 방법이 고려될 수 있다. There are many types of cars on the road with different purposes, appearance, size, color, or manufacturer. Depending on the vehicle type, the vehicle's tax benefits, fees collected on toll roads or paid parking lots, and accessible locations may vary. Additionally, since each vehicle type has unique characteristics that are distinct from each other, it can also be used to identify the vehicle. In general, LPR (license plate recognition) technology, which recognizes and reads a vehicle's license plate, is mainly used to identify a vehicle. However, in cases where a vehicle's license plate is forged or altered for the purpose of violating the law or avoiding charging fees for the vehicle, LPR In case the vehicle's license plate is misrecognized or unrecognized by the device, it is necessary to recognize the vehicle using a means other than the vehicle's license plate. Accordingly, a method of identifying a vehicle using the vehicle model instead of the vehicle license plate may be considered.

예컨대, 등록 특허공보 제10-1301868호에서는 영상을 선명하게 하여 차량의 종류에 따른 특징을 추출한 후, 데이터베이스에 미리 설정된 각종 차량 데이터와 비교함으로써, 촬영된 영상에서 차종이 추출되도록 하는 차종 분류 시스템 및 방법을 개시하고 있다. 여기에서, 차종 분류에 사용되는 차량 데이터는 백미러의 형태, 옆창의 외주면 형태, 지붕의 외주면 형태 등으로, 선행 특허는 차종을 추출하기 위해 가시적인 차량의 외관의 특징에 주목하고 있다.For example, in Registered Patent Publication No. 10-1301868, a vehicle type classification system that extracts the vehicle type from the captured image by clearing the image to extract characteristics according to the type of vehicle and then comparing it with various vehicle data preset in a database; and The method is disclosed. Here, the vehicle data used to classify the vehicle type is the shape of the rearview mirror, the shape of the outer peripheral surface of the side window, and the outer peripheral shape of the roof, and the prior patent focuses on the visible exterior characteristics of the vehicle to extract the vehicle type.

그러나, 선행 특허에서 차량의 특징을 추출하는 데 이용되는 차량의 외관은 쉽게 개조가 가능한 문제점이 있으며, 촬영된 영상과 차량 데이터를 단순 비교하는 방식을 취해, 그 차종 분류 성능에 한계가 있다. 따라서, 차종 인식의 정확도를 높여서 신뢰 가능한 차종 인식 시스템을 구현할 필요가 있다.However, there is a problem that the exterior of the vehicle used to extract vehicle characteristics in the prior patent can be easily modified, and the method of simply comparing captured images and vehicle data is limited, so the vehicle type classification performance is limited. Therefore, there is a need to implement a reliable vehicle type recognition system by increasing the accuracy of vehicle type recognition.

KRKR 10-130186810-1301868 B1B1

본 개시는 위와 같은 문제점들을 해결하기 위한 것으로서, 차량의 외관보다 특징이 잘 구분되고 출고 이후 변형이 어려운 차량의 저면부를 사용하여 차종 인식의 효율을 높이고, 영상 분석 시에 IoU를 활용하여 차종 인식을 위한 딥러닝 모델의 성능을 향상시킬 수 있다.The present disclosure is intended to solve the above problems. It increases the efficiency of vehicle type recognition by using the bottom part of the vehicle, which has better distinguishing features than the exterior of the vehicle and is difficult to modify after shipment, and uses IoU when analyzing images to improve vehicle type recognition. The performance of deep learning models can be improved.

일 실시예에서, 컴퓨터 비전 기반의 차종 인식을 위한 시스템이 설명된다. 시스템은 진입 차량의 저면을 촬영하는 하부 카메라; 및 통합 관리 서버를 포함할 수 있다. 통합 관리 서버는 하부 카메라로부터 촬영된 진입 차량의 저면 영상에 기초하여 진입 차량의 차종을 결정하는 차종 결정부 및 복수의 차량의 저면 영상을 저장하는 영상 데이터베이스부를 포함할 수 있다. 차종 결정부는 진입 차량의 저면 영상으로부터 관심 객체를 세그먼테이션(segmentation)하고, 세그먼테이션으로 생성된 진입 차량의 저면 영상 내의 관심 객체의 예측 바운딩 박스(predicted bounding box)와 대응하는 영상 데이터베이스부에 저장된 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스(reference bounding box)로부터 각각의 IoU(Intersection over Union)를 측정할 수 있다. 차종 결정부는, 측정된 IoU에 기초하여, 제1 후보 차종을 결정할 수 있다. In one embodiment, a system for computer vision-based vehicle type recognition is described. The system includes a lower camera that captures the bottom of the entering vehicle; and an integrated management server. The integrated management server may include a vehicle type determination unit that determines the vehicle type of the entering vehicle based on the bottom image of the entering vehicle captured from a lower camera and an image database unit that stores bottom images of a plurality of vehicles. The vehicle type determination unit segments an object of interest from the bottom image of the entering vehicle, and a plurality of vehicles stored in the image database unit corresponding to the predicted bounding box of the object of interest in the bottom image of the entering vehicle generated by segmentation. Each IoU (Intersection over Union) can be measured from the reference bounding box of the object of interest in the bottom image. The vehicle type determination unit may determine the first candidate vehicle type based on the measured IoU.

일 예시에서, 차종 결정부는 측정된 IoU 중 가장 큰 것을 제1 후보 차종으로 결정할 수 있다. 또한, 차종 결정부가 주목하는 관심 객체는 차량의 파이프일 수 있다. In one example, the vehicle type determination unit may determine the largest among the measured IoUs as the first candidate vehicle type. Additionally, the object of interest that the vehicle type determination unit focuses on may be a pipe of the vehicle.

일 예시에서, 차종 결정부는 관심 객체의 세그먼테이션 전에, 진입 차량의 저면 영상으로부터 복수의 타이어를 인식하고, 인식된 타이어의 각각의 중점을 검출할 수 있다. 차종 결정부는 검출된 복수의 중점을 기준으로 촬영된 진입 차량의 저면 영상을 규격화함으로써, 진입 차량의 저면 영상과 영상 데이터베이스부에 저장된 복수의 차량의 저면 영상 간의 중점을 일치시켜 IoU 측정의 정확도를 향상시킬 수 있다. In one example, the vehicle type determination unit may recognize a plurality of tires from the bottom image of the entering vehicle and detect the midpoint of each recognized tire before segmenting the object of interest. The vehicle type determination unit improves the accuracy of IoU measurement by standardizing the bottom images of the entering vehicle captured based on the plurality of detected midpoints, thereby matching the midpoints between the bottom images of the entering vehicle and the bottom images of the multiple vehicles stored in the image database unit. You can do it.

일 예시에서, 시스템은 진입 차량의 외관을 촬영하는 상부 카메라를 더 포함할 수 있다. 여기에서, 차종 결정부는 상부 카메라로부터 촬영된 진입 차량의 외관 영상에 기초하여 제2 후보 차종을 결정할 수 있다. 차종 결정부는 제1 후보 차종과 제2 후보 차종이 일치하는지 확인함으로써, 차종 인식의 신뢰도를 향상시킬 수 있다.In one example, the system may further include an upper camera that photographs the exterior of the entering vehicle. Here, the vehicle type determination unit may determine the second candidate vehicle type based on the exterior image of the entering vehicle captured from the upper camera. The vehicle type determination unit can improve the reliability of vehicle type recognition by checking whether the first candidate vehicle type and the second candidate vehicle type match.

일 예시에서, 시스템은 진입 차량의 번호판으로부터 차량 번호를 인식하는 LPR 장치를 더 포함할 수 있다. 통합 관리 서버는 진입 차량의 위변조 여부를 결정하는 위변조 탐지부 및 각각의 차량 번호에 대응하는 등록 차종을 저장하는 제원 데이터베이스부를 더 포함할 수 있다. 여기에서, 위변조 탐지부는 제원 데이터베이스부로부터 진입 차량의 인식된 차량 번호에 대응하는 등록 차종을 조회하고, 등록 차종과 제1 후보 차종이 일치하는지 확인할 수 있다. 또한, 위변조 탐지부는 제1 후보 차종과 등록 차종이 일치하지 않는 것으로 판단되는 경우, 차량의 위변조를 관리하는 관리 서버에 경고 알림을 전송하여, 예컨대, 위법이나 차량에 대한 요금 부과 회피를 목적으로 차량의 번호판을 위조 또는 변조한 차량을 단속할 수 있다.In one example, the system may further include an LPR device that recognizes a license plate number of an entering vehicle. The integrated management server may further include a forgery detection unit that determines whether the entering vehicle has been forged or altered, and a specifications database unit that stores the registered vehicle model corresponding to each vehicle number. Here, the forgery detection unit can check the registered vehicle model corresponding to the recognized vehicle number of the entering vehicle from the specifications database unit and check whether the registered vehicle model and the first candidate vehicle model match. In addition, if the forgery detection unit determines that the first candidate vehicle model and the registered vehicle model do not match, a warning notification is sent to the management server that manages forgery and alteration of the vehicle, for example, for the purpose of avoiding illegal or vehicle fees. Vehicles with forged or altered license plates can be cracked down on.

다른 예시에서, 시스템은 진입 차량에 포함된 RFID 태그로부터 차량의 고유 ID를 인식하는 RFID 리더기를 더 포함할 수 있다. 통합 관리 서버는 진입 차량의 위변조 여부를 결정하는 위변조 탐지부 및 각각의 차량의 고유 ID에 대응하는 등록 차종을 저장하는 제원 데이터베이스부를 더 포함할 수 있다. 여기에서, 위변조 탐지부는 제원 데이터베이스부로부터 진입 차량의 고유 ID에 대응하는 등록 차종을 조회하고, 등록 차종과 제1 후보 차종이 일치하는지 확인할 수 있다. 또한, 위변조 탐지부는 제1 후보 차종과 등록 차종이 일치하지 않는 것으로 판단되는 경우, 차량의 위변조를 관리하는 관리 서버에 경고 알림을 전송하여, 예컨대, 불법 RFID 태그를 부착한 차량을 단속할 수 있다.In another example, the system may further include an RFID reader that recognizes the vehicle's unique ID from an RFID tag included in the entering vehicle. The integrated management server may further include a forgery detection unit that determines whether the entering vehicle has been forged or altered, and a specifications database unit that stores the registered vehicle model corresponding to the unique ID of each vehicle. Here, the forgery detection unit can check the registered car model corresponding to the unique ID of the entering vehicle from the specifications database unit and check whether the registered car model and the first candidate car model match. In addition, if the forgery detection unit determines that the first candidate vehicle model and the registered vehicle model do not match, a warning notification is sent to the management server that manages forgery and alteration of the vehicle, so that, for example, vehicles with illegal RFID tags attached can be cracked down. .

다른 실시예에서, 컴퓨터 비전 기반의 차종 인식을 위한 방법이 설명된다. 방법은 하부 카메라로 촬영된 진입 차량의 저면 영상을 수신하는 단계; 진입 차량의 저면 영상으로부터 관심 객체를 세그먼테이션하는 단계; 및 진입 차량의 저면 영상 내의 관심 객체의 예측 바운딩 박스와 대응하는 영상 데이터베이스부에 저장된 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스로부터 각각의 IoU를 측정하는 단계를 포함할 수 있다. 또한, 방법은 측정된 IoU에 기초하여, 제1 후보 차종을 결정하는 단계를 포함할 수 있다. In another embodiment, a method for computer vision-based vehicle model recognition is described. The method includes receiving a bottom image of an entering vehicle captured by a lower camera; Segmenting an object of interest from a bottom image of an entering vehicle; And it may include measuring each IoU from the reference bounding box of the object of interest in the bottom image of the plurality of vehicles stored in the image database unit corresponding to the predicted bounding box of the object of interest in the bottom image of the entering vehicle. Additionally, the method may include determining a first candidate vehicle model based on the measured IoU.

일 예시에서, 제1 후보 차종을 결정하는 단계는 측정된 IoU 중 가장 큰 것을 제1 후보 차종으로 결정하는 단계를 포함할 수 있다. 또한, 관심 객체는 차량의 파이프일 수 있다.In one example, determining the first candidate vehicle model may include determining the largest of the measured IoUs as the first candidate vehicle model. Additionally, the object of interest may be a pipe of a vehicle.

일 예시에서, 방법은 관심 객체를 세그먼테이션하는 단계 이전에, 진입 차량의 저면 영상으로부터 복수의 타이어를 인식하는 단계; 인식된 타이어의 각각의 중점을 검출하는 단계; 및 검출된 복수의 중점을 기준으로 촬영된 진입 차량의 저면 영상을 규격화하는 단계를 더 포함할 수 있다.In one example, the method includes recognizing a plurality of tires from an underside image of an entering vehicle prior to segmenting an object of interest; detecting the midpoint of each recognized tire; And it may further include standardizing the bottom image of the entering vehicle captured based on the plurality of detected midpoints.

또 다른 실시예에서, 컴퓨터 비전 기반의 차종 인식을 위한 통합 관리 서버의 기록 매체에 저장되어 통합 관리 서버에 의해 실행되는 컴퓨터 프로그램이 설명된다. 통합 관리 서버의 기록 매체에 저장된 컴퓨터 프로그램은 하부 카메라로 촬영된 진입 차량의 저면 영상을 수신하는 것과 관련된 적어도 하나의 명령어; 진입 차량의 저면 영상으로부터 관심 객체를 세그먼테이션하는 것과 관련된 적어도 하나의 명령어; 진입 차량의 저면 영상 내의 관심 객체의 예측 바운딩 박스와 대응하는 영상 데이터베이스부에 저장된 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스로부터 각각의 IoU를 측정하는 것과 관련된 적어도 하나의 명령어; 및 측정된 IoU에 기초하여, 제1 후보 차종을 결정하는 것과 관련된 적어도 하나의 명령어를 포함할 수 있다.In another embodiment, a computer program stored on a recording medium of the integrated management server and executed by the integrated management server for computer vision-based vehicle model recognition is described. The computer program stored in the recording medium of the integrated management server includes at least one command related to receiving a bottom image of an entering vehicle captured by a lower camera; at least one instruction related to segmenting an object of interest from an underside image of an entering vehicle; At least one command related to measuring each IoU from a reference bounding box of the object of interest in the bottom image of a plurality of vehicles stored in the image database unit corresponding to the predicted bounding box of the object of interest in the bottom image of the entering vehicle; and at least one command related to determining the first candidate vehicle model based on the measured IoU.

이상의 간단한 요약 및 효과에 관한 설명은 단순히 예시적인 것으로서 본 개시에서 의도한 기술적 사항을 제한하기 위한 것이 아니다. 이하의 상세한 설명과 첨부된 도면을 참조함으로써, 전술한 예시적인 실시예들과 기술적 특징들에 더하여, 추가적인 실시예와 기술적 특징들이 이해될 수 있을 것이다.The above brief summary and description of effects are merely illustrative and are not intended to limit the technical details intended in the present disclosure. By referring to the following detailed description and the accompanying drawings, additional embodiments and technical features, in addition to the above-described exemplary embodiments and technical features, may be understood.

앞서 설명한 본 개시의 특징들과 기타 추가적인 특징들에 대해서는 첨부된 도면을 참조하여 이하에서 자세하게 설명한다. 이러한 도면들은 본 개시에 따르는 단지 몇 가지의 실시예만을 도시한 것이며, 본 개시의 기술적 사상의 범위를 제한하는 것으로 간주되어서는 안 된다. 본 개시의 기술적 사상은 첨부된 도면을 사용하여 더 구체적이고 상세하게 기술될 것이다.
도 1은 본 개시의 적어도 일부 실시예에 따라, 예시적인 차종 인식을 위한 시스템을 도시하는 개략도이다.
도 2는 본 개시의 적어도 일부 실시예에 따라, 차종 인식을 위한 예시적인 통합 관리 서버를 도시하는 블록도이다.
도 3은 본 개시의 적어도 일부 실시예에 따라, 예시적인 진입 차량의 저면 영상을 도시한다.
도 4는 본 개시의 적어도 일부 실시예에 따라, 통합 관리 서버가 IoU를 측정하는 것을 예시한다.
도 5는 본 개시의 적어도 일부 실시예에 따라, 컴퓨터 비전 기반의 차종 인식을 위하여 컴퓨팅 장치에서 수행되는 예시적인 프로세스를 도시하는 흐름도이다.
도 6은 본 개시의 적어도 일부 실시예에 따라, 컴퓨터 비전 기반으로 차종을 인식하는 데 이용될 수 있는 예시적인 컴퓨터 프로그램 제품을 도시한다.
The features of the present disclosure described above and other additional features will be described in detail below with reference to the attached drawings. These drawings illustrate only a few embodiments according to the present disclosure and should not be considered to limit the scope of the technical idea of the present disclosure. The technical idea of the present disclosure will be described more specifically and in detail using the attached drawings.
1 is a schematic diagram illustrating an exemplary system for vehicle type recognition, according to at least some embodiments of the present disclosure.
2 is a block diagram illustrating an example integrated management server for vehicle type recognition, according to at least some embodiments of the present disclosure.
3 illustrates an example bottom view image of an approaching vehicle, according to at least some embodiments of the present disclosure.
4 illustrates an integrated management server measuring IoU, according to at least some embodiments of the present disclosure.
5 is a flowchart illustrating an example process performed on a computing device for computer vision-based vehicle model recognition, according to at least some embodiments of the present disclosure.
6 illustrates an example computer program product that can be used to recognize a vehicle type based on computer vision, in accordance with at least some embodiments of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 구현예 및 실시예를 상세히 설명한다. 그러나, 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 구현예 및 실시예에 한정되지 않는다. Hereinafter, with reference to the attached drawings, implementation examples and embodiments of the present disclosure will be described in detail so that those skilled in the art can easily implement the present disclosure. However, the present application may be implemented in many different forms and is not limited to the implementation examples and examples described herein.

본 개시는 일반적으로 컴퓨터 비전 기반의 차종 인식을 위한 방법, 시스템 및 컴퓨터 판독가능 저장 매체에 저장된 프로그램에 관한 것이다.The present disclosure generally relates to a method, system, and program stored in a computer-readable storage medium for computer vision-based vehicle model recognition.

도 1은 본 개시의 적어도 일부 실시예에 따라, 예시적인 차종 인식을 위한 시스템(100)을 도시하는 개략도이다. 예시적인 시스템(100)은 통합 관리 서버(110), 차량(120), 저면 영상 인식 장비(130), LPR 장치(140), 차단 장치(145), RFID 리더기(150) 및 상부 카메라(160)를 포함할 수 있다. 1 is a schematic diagram illustrating an example system 100 for vehicle type recognition, in accordance with at least some embodiments of the present disclosure. The exemplary system 100 includes an integrated management server 110, a vehicle 120, a bottom image recognition device 130, an LPR device 140, a blocking device 145, an RFID reader 150, and an upper camera 160. may include.

통합 관리 서버(110)는 어플리케이션 서버, 독립형 서버, 웹 서버 및 기타 데이터 송수신 기능, 데이터 식별 기능 및 데이터 처리 기능을 갖춘 임의의 컴퓨팅 장치일 수 있다. 통합 관리 서버(110)는 예컨대, 딥러닝 모델을 포함하여, 컴퓨터 비전 기반의 차종 인식을 위한 프로세스를 처리할 수 있으며, 구체적인 구성에 대해서는 도 2에서 보다 상세하게 설명될 것이다.The integrated management server 110 may be an application server, a stand-alone server, a web server, and any other computing device equipped with data transmission/reception functions, data identification functions, and data processing functions. The integrated management server 110 can, for example, process a process for computer vision-based vehicle model recognition, including a deep learning model, and the specific configuration will be described in more detail in FIG. 2.

차량(120)은 용도, 외형, 크기, 색상, 또는 제조사 등이 상이한 모든 종류의 자동차일 수 있다. 차량(120)은 예컨대, 보안이 요구되는 장소 또는 차량(120)에 부과된 요금 결제가 요구되는 장소와 같이, 차량 인식이 요구되는 임의의 장소에서 차량 인식을 위해 대기할 수 있다. The vehicle 120 may be any type of vehicle with a different purpose, appearance, size, color, or manufacturer. The vehicle 120 may wait for vehicle recognition at any location where vehicle recognition is required, such as a location where security is required or where payment of fees charged to the vehicle 120 is required.

저면 영상 인식 장비(130)는 제1 제어부, 제1 차량 감지부 및 제1 통신부를 포함할 수 있다. 제1 제어부는, 저면 영상 인식 장비(130)의 제1 차량 감지부와 제1 통신부를 제어할 수 있고, 통합 관리 서버(110)와 연동될 수 있다. 제1 차량 감지부는, 저면 영상 인식 장비(130)에 차량(120)이 접근하는 경우, 예컨대, 레이저 또는 압력 감지와 같은 방식으로 차량(120)을 인식할 수 있다. 제1 차량 감지부는 하부 카메라를 포함할 수 있으며, 인식된 차량(120)의 저면 영상을 촬영할 수 있다. 하부 카메라는 컴퓨터 비전 카메라로서, 예컨대, 라인 스캔 카메라가 이용될 수 있다. 제1 통신부는 하부 카메라에 의해 촬영된 차량(120)의 저면 영상을 통합 관리 서버(110)에 전송할 수 있다.The bottom image recognition equipment 130 may include a first control unit, a first vehicle detection unit, and a first communication unit. The first control unit can control the first vehicle detection unit and the first communication unit of the bottom image recognition equipment 130 and can be linked with the integrated management server 110. When the vehicle 120 approaches the bottom image recognition equipment 130, the first vehicle detector may recognize the vehicle 120 using, for example, laser or pressure detection. The first vehicle detection unit may include a lower camera and may capture a bottom image of the recognized vehicle 120. The lower camera may be a computer vision camera, for example, a line scan camera. The first communication unit may transmit the bottom image of the vehicle 120 captured by the lower camera to the integrated management server 110.

LPR 장치(140)는 LPR 제어부, LPR 차량 감지부 및 LPR 통신부를 포함할 수 있다. LPR 제어부는, LPR 장치(140)의 LPR 차량 감지부와 LPR 통신부를 제어할 수 있고, 통합 관리 서버(110)와 연동될 수 있다. LPR 차량 감지부는, LPR 장치(140)에 차량(120)이 접근하는 경우, 그 차량(120)의 외관 영상을 촬영하여 분석함으로써 차량 번호를 인식할 수 있다. LPR 차량 감지부는 카메라를 포함할 수 있으며, 차량 영상 분석을 위해 예컨대, OCR 기술과 같은 적절한 영상 분석 및 인식 알고리즘을 이용할 수 있다. LPR 통신부는 LPR 차량 감지부에 의해 인식된 차량 번호를 통합 관리 서버(110)에 전송할 수 있다. 대안적으로, LPR 통신부는 LPR 차량 감지부에 의해 촬영된 외관 영상을 통합 관리 서버(110)에 전송하여, 통합 관리 서버(110)에서 차량 번호를 인식할 수도 있다.The LPR device 140 may include an LPR control unit, an LPR vehicle detection unit, and an LPR communication unit. The LPR control unit can control the LPR vehicle detection unit and the LPR communication unit of the LPR device 140 and can be linked with the integrated management server 110. When a vehicle 120 approaches the LPR device 140, the LPR vehicle detection unit may recognize the vehicle number by capturing and analyzing an exterior image of the vehicle 120. The LPR vehicle detection unit may include a camera and may use appropriate image analysis and recognition algorithms, such as OCR technology, to analyze vehicle images. The LPR communication unit may transmit the vehicle number recognized by the LPR vehicle detection unit to the integrated management server 110. Alternatively, the LPR communication unit may transmit the exterior image captured by the LPR vehicle detection unit to the integrated management server 110, and the integrated management server 110 may recognize the vehicle number.

차단 장치(145)는 예컨대, 보안 검색 또는 요금 결제 등을 위해 대기하는 차량(120)의 차종 인식 프로세스를 거쳐 진입 또는 진출이 허용될 때까지 차단하는 역할을 수행할 수 있다. 통합 관리 서버(110)에서 차량(120)의 진입 또는 진출을 허용하는 경우, 차단 장치(145)는 차단바를 개방하여 차량(120)이 통과할 수 있도록 허용한다.For example, the blocking device 145 may function to block the vehicle 120 waiting for security screening or fare payment until entry or exit is permitted through a vehicle type recognition process. When the integrated management server 110 allows entry or exit of the vehicle 120, the blocking device 145 opens the blocking bar to allow the vehicle 120 to pass.

RFID 리더기(150)는 차량(120)에 포함된 RFID 태그와 송수신할 수 있으며, RFID 태그에서 수집된 차량(120)의 고유 ID에 관한 정보를 통합 관리 서버(110)에 전송할 수 있다. 상부 카메라(160)는 차량(120)의 외관을 촬영할 수 있으며, 차량(120)의 외관 영상을 통합 관리 서버(110)에 전송할 수 있다.The RFID reader 150 can transmit and receive information to and from the RFID tag included in the vehicle 120, and can transmit information about the unique ID of the vehicle 120 collected from the RFID tag to the integrated management server 110. The upper camera 160 can capture the exterior of the vehicle 120 and transmit the exterior image of the vehicle 120 to the integrated management server 110.

저면 영상 인식 장비(130), LPR 장치(140), RFID 리더기(150) 및 상부 카메라(160)는 각각 별개의 기능을 수행하는 것으로 예시되었지만, 각 장치에서 동일한 기능을 수행하는 구성 요소는 통합적으로 사용될 수 있다. 예컨대, LPR 장치(140)의 카메라와 상부 카메라(160)는 별도로 구성되지 않고, 하나로 사용될 수 있다. 또한, 저면 영상 인식 장비(130)의 제1 차량 감지부와 LPR 장치(140)의 LPR 차량 감지부는 별도로 구성되지 않고, 하나로 사용되어 임의의 방식으로 진입하는 차량(120)을 감지할 수 있다.Although the bottom image recognition equipment 130, LPR device 140, RFID reader 150, and top camera 160 are illustrated as performing separate functions, components that perform the same function in each device are integrated. can be used For example, the camera of the LPR device 140 and the upper camera 160 are not configured separately and can be used as one. In addition, the first vehicle detection unit of the bottom image recognition equipment 130 and the LPR vehicle detection unit of the LPR device 140 are not configured separately, but can be used as one to detect the vehicle 120 entering in a random manner.

도 1에서 시스템(100)은 단지 예시적인 것으로서, 당업자라면 응용에 적합하도록 도 1의 시스템(100)을 적절하게 수정하거나 변형하여 사용할 수 있을 것이다. 예컨대, 도 1에서 시스템(100)의 차단 장치(145)는 임의의 형태를 가질 수 있으며, 경우에 따라 차단 장치(145)는 시스템(100)에 포함되지 않을 수도 있다. 또한, LPR 장치(140), RFID 리더기(150) 및/또는 상부 카메라(160)는 시스템(100)에서 선택적으로 또는 조합하여 사용될 수 있다.The system 100 in FIG. 1 is merely an example, and those skilled in the art may appropriately modify or modify the system 100 in FIG. 1 to suit the application. For example, in FIG. 1, the blocking device 145 of the system 100 may have any shape, and in some cases, the blocking device 145 may not be included in the system 100. Additionally, LPR device 140, RFID reader 150, and/or top camera 160 may be used selectively or in combination in system 100.

도 2는 본 개시의 적어도 일부 실시예에 따라, 차종 인식을 위한 예시적인 통합 관리 서버(110)를 도시하는 블록도이다. 도 2에서 도 1의 시스템(100)을 참조하여, 통합 관리 서버(110)의 구체적인 동작이 설명된다.2 is a block diagram illustrating an example integrated management server 110 for vehicle type recognition, according to at least some embodiments of the present disclosure. In FIG. 2 , with reference to the system 100 of FIG. 1 , specific operations of the integrated management server 110 are described.

통합 관리 서버(110)는 차종 결정부(210), 위변조 탐지부(220), 통신부(230), 영상 데이터베이스부(240) 및 제원 데이터베이스부(250)를 포함할 수 있다. 차종 결정부(210)는 저면 영상 인식 장비(130)에 설치된 하부 카메라로부터 촬영된 진입 차량(120)의 저면 영상에 기초하여 진입 차량(120)의 차종을 결정할 수 있다. 차종 결정부(210)는 차종을 인식하기 위한 인공 지능 모델, 예컨대 딥러닝 모델을 포함할 수 있다. 위변조 탐지부(220)는 진입 차량(120)의 위변조 여부를 결정할 수 있다. 통신부(230)는 시스템(100)의 각 장치, 즉, 저면 영상 인식 장비(130), LPR 장치(140), 차단 장치(145), RFID 리더기(150) 및 상부 카메라(160)와 데이터를 송수신할 수 있다. 영상 데이터베이스부(240)에는 복수의 차량의 저면 영상이 각각 차종에 대응하여 저장될 수 있다. 제원 데이터베이스부(250)는 복수의 차량의 각각의 차량 번호 또는 차량의 고유 ID에 대응하는 등록 차종을 저장할 수 있다. 도 2에서는 하나의 통합 관리 서버에 차종 결정부(210), 위변조 탐지부(220), 통신부(230), 영상 데이터베이스부(240) 및 제원 데이터베이스부(250)가 포함되는 것으로 예시되지만, 각각의 구성은 독립적인 별도의 서버에서 구현될 수 있다.The integrated management server 110 may include a vehicle type determination unit 210, a forgery detection unit 220, a communication unit 230, an image database unit 240, and a specifications database unit 250. The vehicle type determination unit 210 may determine the vehicle type of the entering vehicle 120 based on the bottom image of the entering vehicle 120 captured from the lower camera installed in the bottom image recognition equipment 130. The vehicle type determination unit 210 may include an artificial intelligence model, for example, a deep learning model, for recognizing the vehicle type. The forgery detection unit 220 can determine whether the entry vehicle 120 has been forged or altered. The communication unit 230 transmits and receives data to each device of the system 100, that is, the bottom image recognition equipment 130, the LPR device 140, the blocking device 145, the RFID reader 150, and the upper camera 160. can do. The image database unit 240 may store bottom images of a plurality of vehicles, each corresponding to the vehicle type. The specifications database unit 250 may store the registered vehicle model corresponding to each vehicle number of a plurality of vehicles or the vehicle's unique ID. In Figure 2, one integrated management server is illustrated as including a vehicle type determination unit 210, a forgery detection unit 220, a communication unit 230, an image database unit 240, and a specifications database unit 250, but each The configuration can be implemented on a separate, independent server.

구체적으로, 차종 결정부(210)는 저면 영상 인식 장비(130)로부터 통신부(230)를 거쳐 수신되는, 진입 차량(120)의 저면 영상으로부터 관심 객체를 세그먼테이션할 수 있다. 관심 객체는 차량의 파이프일 수 있다. 이와 관련하여, 도 3은 본 개시의 적어도 일부 실시예에 따라, 예시적인 진입 차량의 저면 영상을 도시한다. 도 3의 예시 (a)-(d)에서 확인할 수 있는 바와 같이, 차종에 따라 차량의 저면 영상, 특히, 차량의 파이프 부분은 서로 구별되는 특징을 가질 수 있다. 또한, 차량의 하부는 출고 이후에는 임의로 개조하는 것이 어려우므로, 차량의 저면 영상을 차량의 식별하는 데 이용하면 효과적일 수 있다.Specifically, the vehicle type determination unit 210 may segment an object of interest from the bottom image of the entering vehicle 120, which is received from the bottom image recognition equipment 130 through the communication unit 230. The object of interest may be a pipe in a vehicle. In this regard, FIG. 3 illustrates an example bottom view of an entering vehicle, according to at least some embodiments of the present disclosure. As can be seen in examples (a)-(d) of FIG. 3, the bottom image of the vehicle, especially the pipe portion of the vehicle, may have distinct characteristics depending on the vehicle type. Additionally, since it is difficult to arbitrarily modify the underside of a vehicle after it is shipped, it can be effective to use the underside image of the vehicle to identify the vehicle.

차종 결정부(210)는 세그먼테이션으로 생성된 진입 차량(120)의 저면 영상 내의 관심 객체, 예컨대, 차량의 파이프의 예측 바운딩 박스와 대응하는 영상 데이터베이스부(240)에 저장된 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스로부터 각각의 IoU(Intersection over Union)를 측정할 수 있다. IoU는 전형적으로 딥러닝 모델을 이용한 객체 탐지 기술 분야에서 모델의 성능을 평가하는 지표로서, 모델이 예측한 객체의 위치를 나타내는 바운딩 박스의 영역과 실제 객체가 존재하는 위치를 나타내는 그라운드 트루스(ground truth)의 영역을 비교하여, 두 영역이 겹치는 넓이를 두 영역을 합친 넓이로 나눈 값으로 측정될 수 있다. 이를 식으로 나타내면 다음과 같다:The vehicle type determination unit 210 is configured to determine an object of interest in the bottom image of the entering vehicle 120 generated by segmentation, for example, in the bottom images of a plurality of vehicles stored in the image database unit 240 corresponding to the predicted bounding box of the pipe of the vehicle. Each IoU (Intersection over Union) can be measured from the reference bounding box of the object of interest. IoU is typically an indicator that evaluates model performance in the field of object detection technology using deep learning models. It is an indicator of the area of the bounding box that represents the location of the object predicted by the model and the ground truth that represents the location of the actual object. ) can be measured by comparing the areas of the two areas, dividing the overlapping area by the combined area of the two areas. This can be expressed as an equation:

본 개시에서는 IoU를 딥러닝 모델의 객체 탐지 성능을 평가하는 데 사용하지 않고, 영상 데이터베이스부(240)에 저장된 복수의 차량의 저면 영상 내애 관심 객체의 레퍼런스 바운딩 박스를 미리 설정해 두고, 진입 차량(120)의 저면 영상 내의 관심 객체의 예측 바운딩 박스와 비교함으로써, 차종을 인식하는 데 활용했다는 점에서 특징을 갖는다. 이와 같은 딥러닝 모델을 구현했을 때, 단순히 두 영상을 비교하였을 때보다 차종 인식 성능이 보다 개선될 수 있다. In this disclosure, the IoU is not used to evaluate the object detection performance of the deep learning model, but the reference bounding box of the object of interest is set in advance within the bottom images of a plurality of vehicles stored in the image database unit 240, and the entering vehicle (120) ) is characterized in that it is used to recognize the vehicle type by comparing it with the predicted bounding box of the object of interest in the bottom image. When such a deep learning model is implemented, vehicle type recognition performance can be improved compared to simply comparing two images.

차종 결정부(210)는, 측정된 IoU에 기초하여, 제1 후보 차종을 결정할 수 있다. 일 예시에서, 차종 결정부(210)는 측정된 IoU 중 가장 큰 것을 제1 후보 차종으로 결정할 수 있다. 다른 예시에서, 차종 결정부(210)는 측정된 IoU 중에서 미리 정해진 임계 값 이상인 것을 제1 후보 차종으로 결정할 수 있다. The vehicle type determination unit 210 may determine the first candidate vehicle type based on the measured IoU. In one example, the vehicle type determination unit 210 may determine the largest among the measured IoUs as the first candidate vehicle type. In another example, the vehicle type determination unit 210 may determine the measured IoU that is greater than or equal to a predetermined threshold as the first candidate vehicle type.

차종 결정부(210)는 관심 객체의 세그먼테이션 전에, 진입 차량(120)의 저면 영상으로부터 복수의 타이어를 인식하고, 인식된 타이어의 각각의 중점을 검출할 수 있다. 이후, 차종 결정부(210)는 검출된 복수의 중점을 기준으로 촬영된 진입 차량(120)의 저면 영상을 규격화할 수 있다. 저면 영상을 규격화하면, 진입 차량(120)의 저면 영상과 영상 데이터베이스부(240)에 저장된 복수의 차량의 저면 영상 간의 중점을 일치시킬 수 있는데, 이에 의해 IoU 측정의 정확도를 향상시킬 수 있다.Before segmenting the object of interest, the vehicle type determination unit 210 may recognize a plurality of tires from the bottom image of the entering vehicle 120 and detect the midpoint of each recognized tire. Thereafter, the vehicle type determination unit 210 may standardize the bottom image of the entering vehicle 120 captured based on the plurality of detected midpoints. If the bottom image is standardized, the midpoint between the bottom image of the entering vehicle 120 and the bottom image of the plurality of vehicles stored in the image database unit 240 can be matched, thereby improving the accuracy of IoU measurement.

차종 결정부(210)는 통신부(230)를 통해 수신되는, 상부 카메라(160)로부터 촬영된 진입 차량(120)의 외관 영상에 기초하여, 제2 후보 차종을 결정할 수 있다. 차종 결정부는 차량(120)의 가시적인 부분, 예컨대, 색상, 치수, 각 구성 요소의 형태, 엠블럼 등에 주목하여 영상 분석을 통해 제2 후보 차종을 결정할 수 있다. 차종 결정부(210)는 제1 후보 차종과 제2 후보 차종이 일치하는지 확인함으로써, 차종 인식의 신뢰도를 향상시킬 수 있다.The vehicle type determination unit 210 may determine the second candidate vehicle type based on the exterior image of the entering vehicle 120 captured by the upper camera 160 and received through the communication unit 230. The vehicle type determination unit may pay attention to visible parts of the vehicle 120, such as color, size, shape of each component, emblem, etc., and determine the second candidate vehicle type through image analysis. The vehicle type determination unit 210 can improve the reliability of vehicle type recognition by checking whether the first candidate vehicle type and the second candidate vehicle type match.

일 실시예에서, 위변조 탐지부(220)는 통신부(230)를 통해 LPR 장치(140)로부터 진입 차량(120)의 차량 번호를 수신할 수 있다. 위변조 탐지부(220)는 제원 데이터베이스부(250)에서 진입 차량(120)의 인식된 차량 번호에 대응하는 등록 차종을 조회하고, 등록 차종과 제1 후보 차종이 일치하는지 확인할 수 있다. 또한, 위변조 탐지부(220)는 제1 후보 차종과 등록 차종이 일치하지 않는 것으로 판단되는 경우, 차량의 위변조를 관리하는 관리 서버 또는 단속 장치에 경고 알림을 전송하여, 예컨대, 위법이나 차량에 대한 요금 부과 회피를 목적으로 차량의 번호판을 위조 또는 변조한 차량을 단속할 수 있다.In one embodiment, the forgery detection unit 220 may receive the vehicle number of the entering vehicle 120 from the LPR device 140 through the communication unit 230. The forgery detection unit 220 may check the registered vehicle model corresponding to the recognized vehicle number of the entering vehicle 120 in the specifications database unit 250 and check whether the registered vehicle model matches the first candidate vehicle model. In addition, if it is determined that the first candidate vehicle model and the registered vehicle model do not match, the forgery detection unit 220 transmits a warning notification to the management server or enforcement device that manages forgery and forgery of the vehicle, for example, to detect illegal or vehicle-related issues. Vehicles that have forged or altered license plates for the purpose of avoiding tolls can be cracked down on.

다른 실시예에서, 위변조 탐지부(220)는 통신부(230)를 통해 RFID 리더기(150)로부터 진입 차량(120)의 고유 ID를 수신할 수 있다. 위변조 탐지부(220)는 제원 데이터베이스부(250)에서 진입 차량(120)의 고유 ID에 대응하는 등록 차종을 조회하고, 등록 차종과 제1 후보 차종이 일치하는지 확인할 수 있다. 또한, 위변조 탐지부(220)는 제1 후보 차종과 등록 차종이 일치하지 않는 것으로 판단되는 경우, 차량의 위변조를 관리하는 관리 서버 또는 단속 장치에 경고 알림을 전송하여, 예컨대, 불법 RFID 태그를 부착한 차량을 단속할 수 있다.In another embodiment, the forgery detection unit 220 may receive the unique ID of the entering vehicle 120 from the RFID reader 150 through the communication unit 230. The forgery detection unit 220 may check the registered vehicle model corresponding to the unique ID of the entering vehicle 120 in the specifications database unit 250 and check whether the registered vehicle model matches the first candidate vehicle model. In addition, if it is determined that the first candidate vehicle model and the registered vehicle model do not match, the forgery detection unit 220 transmits a warning notification to the management server or enforcement device that manages forgery and forgery of the vehicle, for example, by attaching an illegal RFID tag. One vehicle can be intercepted.

도 2에서 통합 관리 서버(110)의 구성 요소 및 각 구성 요소의 동작(예컨대, 차종 결정부(210) 또는 위변조 탐지부(220)의 동작)은 단지 예시적인 것으로서, 당업자라면 본 개시에 기초하여 적절하게 수정하거나 변형하여 사용할 수 있을 것이다.In FIG. 2, the components of the integrated management server 110 and the operations of each component (e.g., the operation of the vehicle type determination unit 210 or the forgery detection unit 220) are merely exemplary, and those skilled in the art can use them based on the present disclosure. It may be used by modifying or modifying it appropriately.

도 4는 본 개시의 적어도 일부 실시예에 따라, 통합 관리 서버가 IoU를 측정하는 것을 예시한다.4 illustrates an integrated management server measuring IoU, according to at least some embodiments of the present disclosure.

도 4(a)는 통합 관리 서버(110)가 진입 차량의 저면 영상으로부터 복수의 타이어를 인식하고, 인식된 타이어의 각각의 중점을 검출하는 것을 예시한다. 예컨대, 도 4(a)에 예시한 4륜차의 경우 네 개의 타이어의 중점이 검출될 수 있다. 통합 관리 서버(110)는 검출된 복수의 중점, 예컨대 네 개의 중점을 기준으로 하여, 촬영된 진입 차량의 저면 영상을 리사이징하고 회전하여, 저면 영상이 미리 정해진 규격에 맞도록 조정할 수 있다. 통합 관리 서버(110)는 규격화된 저면 영상을 세그먼테이션하여 관심 객체(예컨대, 차량의 파이프)의 예측 바운딩 박스를 생성할 수 있다. Figure 4(a) illustrates that the integrated management server 110 recognizes a plurality of tires from the bottom image of an entering vehicle and detects the midpoint of each recognized tire. For example, in the case of the four-wheeled vehicle illustrated in FIG. 4(a), the midpoints of the four tires can be detected. The integrated management server 110 may resize and rotate the captured bottom image of the entering vehicle based on a plurality of detected midpoints, for example, four midpoints, and adjust the bottom image to meet predetermined standards. The integrated management server 110 may generate a predicted bounding box of an object of interest (eg, a pipe of a vehicle) by segmenting a standardized bottom image.

도 4(b)는 통합 관리 서버(110)의 영상 데이터베이스부에 저장된 복수의 차량 중 하나의 저면 영상을 예시한 것이다. 도 4(b)에 예시된 바와 같이, 영상 데이터베이스부에 저장된 모든 차량의 저면 영상은 타이어를 기준으로 이미 규격화되어 있다. 예컨대, 도 4(b)에 도시한 4륜차의 경우 네 개의 타이어의 중점이 표시될 수 있다. 또한, 영상 데이터베이스부에 저장된 모든 차량에 대해, 관심 객체(예컨대, 차량의 파이프)의 레퍼런스 바운딩 박스가 이미 지정되어 있다.FIG. 4(b) illustrates a bottom image of one of a plurality of vehicles stored in the image database unit of the integrated management server 110. As illustrated in FIG. 4(b), the bottom images of all vehicles stored in the image database unit are already standardized based on tires. For example, in the case of a four-wheeled vehicle shown in FIG. 4(b), the midpoints of the four tires may be displayed. Additionally, for all vehicles stored in the image database unit, the reference bounding box of the object of interest (eg, pipe of the vehicle) is already designated.

도 4(c)는 통합 관리 서버(110)가 IoU를 측정하기 위해 도 4(a)의 진입 차량의 저면 영상과 도 4(b)의 영상 데이터베이스부에 저장된 복수의 차량 중 하나의 저면 영상을 오버래핑(overlapping)하는 것을 예시한다. 도 4(a)의 진입 차량의 저면 영상과 도 4(b)의 영상 데이터베이스부에 저장된 차량의 저면 영상은 둘 다 규격화된 형태로서, 오버래핑 시 저면 영상 간의 중점이 일치될 수 있다. 통합 관리 서버(110)는 진입 차량의 저면 영상과 영상 데이터베이스부의 저면 영상이 일치된 영역을 진입 차량의 저면 영상과 영상 데이터베이스부의 저면 영상을 합친 영역으로 나누어 IoU를 측정할 수 있다. 통합 관리 서버(110)는 영상 데이터베이스부에 저장된 모든 저면 영상에 대해 동일한 프로세스를 반복하여 각각의 IoU를 측정할 수 있다. Figure 4(c) shows that the integrated management server 110 uses the bottom image of the entering vehicle in Figure 4(a) and the bottom image of one of the plurality of vehicles stored in the image database unit in Figure 4(b) to measure IoU. This is an example of overlapping. The bottom image of the entering vehicle in FIG. 4(a) and the bottom image of the vehicle stored in the image database unit in FIG. 4(b) are both in a standardized form, and when overlapping, the midpoints between the bottom images can match. The integrated management server 110 can measure the IoU by dividing the area where the bottom image of the entering vehicle and the bottom image of the image database unit match into an area that combines the bottom image of the entering vehicle and the bottom image of the image database unit. The integrated management server 110 may measure each IoU by repeating the same process for all bottom images stored in the image database unit.

통합 관리 서버(110)는 측정된 복수의 IoU에 기초하여, 제1 후보 차종을 결정할 수 있다. 일 예시에서, 통합 관리 서버(110)는 측정된 IoU 중 가장 큰 것을 제1 후보 차종으로 결정할 수 있다. 다른 예시에서, 통합 관리 서버(110)는 측정된 IoU 중에서 미리 정해진 임계 값 이상인 것을 제1 후보 차종으로 결정할 수 있다. 도 4의 예시에서 도 4(a)의 진입 차량의 저면 영상과 도 4(b)의 영상 데이터베이스부에 저장된 차량의 저면 영상은 상이하므로, 통합 관리 서버(110)가 측정한 두 영상 간의 IoU는 낮으며, 이에 따라 도 4(b)의 차량의 차종은 도 4(a)의 진입 차량의 제1 후보 차종으로 선택되지 않을 수 있다.The integrated management server 110 may determine the first candidate vehicle model based on a plurality of measured IoUs. In one example, the integrated management server 110 may determine the largest among the measured IoUs as the first candidate vehicle model. In another example, the integrated management server 110 may determine the first candidate vehicle model among the measured IoUs that is greater than or equal to a predetermined threshold. In the example of FIG. 4, the bottom image of the entering vehicle in FIG. 4(a) and the bottom image of the vehicle stored in the image database unit of FIG. 4(b) are different, so the IoU between the two images measured by the integrated management server 110 is It is low, and accordingly, the model of the vehicle in FIG. 4(b) may not be selected as the first candidate model for the entering vehicle in FIG. 4(a).

도 4(a)와 도 4(b)에서는 4륜차의 저면 영상이 예시되었지만, 진입 차량과 영상 데이터베이스부에 저장된 차량은 예컨대, 2륜차, 3륜차, 5륜차, 6륜차 등 임의의 형태를 가질 수 있음에 유의한다. 일 예시로서, 통합 관리 서버(110)는 진입 차량과 영상 데이터베이스부에 저장된 차량의 타이어 개수가 일치하는 경우에만 IoU를 측정하여, 즉, 양 저면 영상의 타이어 개수가 일치하지 않는 경우에는 추가 영상 분석을 제외함으로써, 차종 인식의 효율을 높일 수 있다.4(a) and 4(b) illustrate the bottom image of a four-wheeled vehicle, but the entering vehicle and the vehicle stored in the image database unit may have any shape, such as a two-wheeled vehicle, a three-wheeled vehicle, a five-wheeled vehicle, or a six-wheeled vehicle. Please note that this may be possible. As an example, the integrated management server 110 measures the IoU only when the number of tires of the entering vehicle and the vehicle stored in the image database unit match, that is, if the number of tires of both bottom images do not match, additional image analysis is performed. By excluding, the efficiency of vehicle type recognition can be increased.

도 5는 본 개시의 적어도 일부 실시예에 따라, 컴퓨터 비전 기반의 차종 인식을 위하여 컴퓨팅 장치에서 수행되는 예시적인 프로세스(500)를 도시하는 흐름도이다. 예컨대, 프로세스(500)는 도 1 및 도 2의 통합 관리 서버(110)와 같은 컴퓨팅 장치의 제어 하에서 수행될 수 있다. 프로세스(500)는 예컨대, 보안 검색 또는 요금 결제 등을 위해 차량 인식이 요구되는 임의의 장소에서 진입 차량의 차종 인식을 하도록 수행될 수 있다. FIG. 5 is a flow diagram illustrating an example process 500 performed on a computing device for computer vision-based vehicle type recognition, in accordance with at least some embodiments of the present disclosure. For example, process 500 may be performed under the control of a computing device, such as integrated management server 110 of FIGS. 1 and 2. Process 500 may be performed to recognize the vehicle type of an entering vehicle at any location where vehicle recognition is required, for example, for security screening or fare payment.

도 5에 도시된 프로세스(500)는 블록(501, 502, 503 및/또는 504)에 의하여 예시된 바와 같은 하나 이상의 동작, 기능 또는 작용을 포함할 수 있다. 한편, 도 5에 예시된 개략적인 동작들은 예시로서만 제공되고, 개시된 실시예의 본질에서 벗어나지 않으면서, 동작들 중 일부가 선택적일 수 있거나, 더 적은 동작으로 조합될 수 있거나, 추가적인 동작으로 확장될 수 있다. Process 500 shown in FIG. 5 may include one or more operations, functions or actions as illustrated by blocks 501 , 502 , 503 and/or 504 . Meanwhile, the schematic operations illustrated in FIG. 5 are provided as examples only, and without departing from the essence of the disclosed embodiment, some of the operations may be optional, may be combined into fewer operations, or may be expanded into additional operations. You can.

프로세스(500)는 하부 카메라로 촬영된 진입 차량의 저면 영상을 수신하는 블록(501)에서 시작할 수 있다. 블록(501)에서, 컴퓨팅 장치는 하부 카메라로 촬영된 진입 차량의 저면 영상을 수신할 수 있다. 여기에서, 하부 카메라는 컴퓨터 비전 카메라, 예컨대 라인 스캔 카메라를 포함할 수 있다.Process 500 may begin at block 501, which receives a bottom image of an entering vehicle captured by a bottom camera. At block 501, the computing device may receive a bottom image of the entering vehicle captured by a bottom camera. Here, the lower camera may include a computer vision camera, such as a line scan camera.

프로세스(500)는 블록(501)에서, 저면 영상으로부터 관심 객체를 세그먼테이션하는 블록(502)으로 이어질 수 있다. 블록(502)에서, 컴퓨팅 장치는 진입 차량의 저면 영상으로부터 관심 객체를 세그먼테이션할 수 있다. 관심 객체는 차량의 파이프일 수 있다. 컴퓨팅 장치는 세그먼테이션 전에, 진입 차량의 저면 영상으로부터 복수의 타이어를 인식하고, 인식된 타이어의 각각의 중점을 검출하고, 그리고 검출된 복수의 중점을 기준으로 촬영된 진입 차량의 저면 영상을 규격화할 수 있다. Process 500 may continue from block 501 to block 502, which segments objects of interest from the bottom image. At block 502, the computing device may segment an object of interest from an underside image of an entering vehicle. The object of interest may be a pipe in a vehicle. Before segmentation, the computing device can recognize a plurality of tires from the bottom image of the entering vehicle, detect the midpoint of each recognized tire, and standardize the captured bottom image of the entering vehicle based on the plurality of detected midpoints. there is.

프로세스(500)는 블록(502)에서, 저면 영상 내의 관심 객체의 예측 바운딩 박스와 대응하는 영상 데이터베이스부에 저장된 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스로부터 각각의 IoU를 측정하는 블록(503)으로 이어질 수 있다. 블록(503)에서, 컴퓨팅 장치는 규격화를 통해 서로 중점이 일치하는, 진입 차량의 저면 영상 내의 관심 객체의 예측 바운딩 박스와 대응하는 영상 데이터베이스부에 저장된 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스로부터 각각의 IoU를 측정할 수 있다. Process 500, at block 502, measures each IoU from the reference bounding box of the object of interest in the bottom image of a plurality of vehicles stored in the image database unit corresponding to the predicted bounding box of the object of interest in the bottom image ( 503). In block 503, the computing device performs a reference bounding of the object of interest in the bottom image of a plurality of vehicles stored in the image database unit corresponding to a prediction bounding box of the object of interest in the bottom image of the entering vehicle, the midpoints of which coincide with each other through normalization. Each IoU can be measured from the box.

프로세스(500)는 블록(503)에서, 측정된 IoU에 기초하여, 제1 후보 차종을 결정하는 블록(504)으로 이어질 수 있다. 블록(504)에서, 컴퓨팅 장치는 측정된 IoU에 기초하여, 제1 후보 차종을 결정할 수 있다. 컴퓨팅 장치는 측정된 IoU 중 가장 큰 것을 제1 후보 차종으로 결정할 수 있다. 대안적으로, 컴퓨팅 장치는 측정된 IoU 중 미리 정해진 임계 값 이상인 것을 제1 후보 차종으로 결정할 수 있다. Process 500 may continue from block 503 to block 504 where, based on the measured IoU, a first candidate vehicle type is determined. At block 504, the computing device may determine a first candidate vehicle model based on the measured IoU. The computing device may determine the largest among the measured IoUs as the first candidate vehicle model. Alternatively, the computing device may determine the measured IoU that is greater than or equal to a predetermined threshold as the first candidate vehicle type.

선택적으로, 제1 후보 차종이 결정된 이후, 컴퓨팅 장치는 상이한 방식으로 차량을 인식하여 제1 후보 차종이 잘 인식되었는지, 또는 차량에 올바르지 않은 식별 수단은 포함되지 않았는지(예컨대, 위변조 차량 번호판이나 불법 RFID 부착 여부) 확인할 수 있다. 제1 실시예에서, 컴퓨팅 장치는 진입 차량의 외관을 촬영하는 상부 카메라로부터 촬영된 진입 차량의 외관 영상에 기초하여 제2 후보 차종을 결정하고, 제1 후보 차종과 제2 후보 차종이 일치하는지 확인할 수 있다. 제2 실시예에서, 컴퓨팅 장치는 제원 데이터베이스부에서 LPR 장치에 의해 인식된 진입 차량의 차량 번호에 대응하는 등록 차종을 조회하고, 등록 차종과 제1 후보 차종이 일치하는지 확인할 수 있다. 제3 실시예에서, 컴퓨팅 장치는 제원 데이터베이에서 RFID 리더기에 의해 인식된 진입 차량의 고유 ID에 대응하는 등록 차종을 조회하고, 등록 차종과 제1 후보 차종이 일치하는지 확인할 수 있다. 또한, 컴퓨팅 장치는 제1 후보 차종과 등록 차종이 일치하지 않는 것으로 판단되는 경우, 차량의 위변조를 관리하는 관리 서버 또는 단속 장치에 경고 알림을 전송할 수 있다.Optionally, after the first candidate vehicle type is determined, the computing device may recognize the vehicle in different ways to determine whether the first candidate vehicle type is well recognized or that the vehicle does not contain any incorrect identification means (e.g., a counterfeit license plate or illegal vehicle type). You can check whether RFID is attached or not. In a first embodiment, the computing device determines a second candidate vehicle model based on an exterior image of the entry vehicle captured from an upper camera that photographs the exterior of the entry vehicle, and determines whether the first candidate vehicle type and the second candidate vehicle model match. You can. In a second embodiment, the computing device may search the specifications database unit for the registered vehicle model corresponding to the vehicle license plate number of the entering vehicle recognized by the LPR device and check whether the registered vehicle model matches the first candidate vehicle model. In a third embodiment, the computing device may search the specifications database for the registered vehicle model corresponding to the unique ID of the entering vehicle recognized by the RFID reader and check whether the registered vehicle model matches the first candidate vehicle model. Additionally, if it is determined that the first candidate vehicle model and the registered vehicle model do not match, the computing device may transmit a warning notification to a management server or control device that manages forgery and alteration of the vehicle.

다른 가능한 이점 중에서, 본 개시에 따르면, 차량의 외관보다 특징이 잘 구분되고 출고 이후 변형이 어려운 차량의 저면부를 사용하고, 저면 영상을 규격화시킴으로써, 차종 인식의 효율을 높일 수 있다. 또한, 영상 분석 시에 IoU를 활용하여 차종 인식을 위한 딥러닝 모델의 성능을 향상시킬 수 있다.Among other possible advantages, according to the present disclosure, the efficiency of vehicle type recognition can be increased by using the bottom part of the vehicle, which has better features than the exterior of the vehicle and is difficult to modify after shipment, and standardizing the bottom image. Additionally, the performance of deep learning models for vehicle type recognition can be improved by using IoU when analyzing images.

도 6은 본 개시의 적어도 일부 실시예에 따라, 컴퓨터 비전 기반으로 차종을 인식하는 데 이용될 수 있는 예시적인 컴퓨터 프로그램 제품(600)을 도시한다. 예시적인 컴퓨터 프로그램 제품의 실시예는 신호 포함 매체(602)를 이용하여 제공된다. 일부 실시예에서, 하나 이상의 컴퓨터 프로그램 제품(600)의 신호 포함 매체(602)는 명령어(604), 컴퓨터 판독가능 매체(606), 기록 가능 매체(608) 및/또는 통신 매체(610)를 포함할 수 있다.6 illustrates an example computer program product 600 that can be used to recognize vehicle types based on computer vision, in accordance with at least some embodiments of the present disclosure. An exemplary computer program product embodiment is provided using signal bearing media 602. In some embodiments, signal-bearing medium 602 of one or more computer program products 600 includes instructions 604, computer-readable medium 606, recordable medium 608, and/or communication medium 610. can do.

신호 포함 매체(602)에 포함된 명령어(604)는 도 1 및 도 2의 통합 관리 서버(110)와 같은 컴퓨팅 장치에 의해 실행될 수 있다. 명령어(604)는 실행되면, 컴퓨팅 장치로 하여금 하부 카메라로 촬영된 진입 차량의 저면 영상을 수신하는 것과 관련된 적어도 하나의 명령어; 진입 차량의 저면 영상으로부터 관심 객체를 세그먼테이션하는 것과 관련된 적어도 하나의 명령어; 진입 차량의 저면 영상 내의 관심 객체의 예측 바운딩 박스와 대응하는 영상 데이터베이스부에 저장된 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스로부터 각각의 IoU를 측정하는 것과 관련된 적어도 하나의 명령어; 및 측정된 IoU에 기초하여, 제1 후보 차종을 결정하는 것과 관련된 적어도 하나의 명령어를 포함할 수 있다.Instructions 604 included in signal-bearing medium 602 may be executed by a computing device, such as integrated management server 110 of FIGS. 1 and 2. Instructions 604 may include at least one instruction that, when executed, causes the computing device to receive an underside image of an entering vehicle captured by an underside camera; at least one instruction related to segmenting an object of interest from an underside image of an entering vehicle; At least one command related to measuring each IoU from a reference bounding box of the object of interest in the bottom image of a plurality of vehicles stored in the image database unit corresponding to the predicted bounding box of the object of interest in the bottom image of the entering vehicle; and at least one command related to determining the first candidate vehicle model based on the measured IoU.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수도 있다.The description of the present application described above is for illustrative purposes, and those skilled in the art will understand that the present application can be easily modified into other specific forms without changing its technical idea or essential features. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as single may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

이상, 본 개시에서 청구하고자 하는 대상에 대해 구체적으로 살펴보았다. 본 개시에서 청구된 대상은 앞서 기술한 특정 구현예로 그 범위가 제한되지 않는다. 예컨대, 어떤 구현예에서는 장치 또는 장치의 조합 상에서 동작 가능하게 사용되는 하드웨어의 형태일 수 있으며, 다른 구현예에서는 소프트웨어 및/또는 펌웨어의 형태로 구현될 수 있고, 또 다른 구현예에서는 신호 베어링 매체, 저장 매체와 같은 하나 이상의 물품을 포함할 수 있다. 여기서, CD-ROM, 컴퓨터 디스크, 플래시 메모리 등과 같은 저장 매체는, 예컨대 컴퓨팅 시스템, 컴퓨팅 플랫폼 또는 기타 시스템과 같은 컴퓨팅 장치에 의하여 실행될 때 앞서 설명한 구현예에 따라 해당 프로세서의 실행을 야기시킬 수 있는 명령을 저장할 수 있다. 이러한 컴퓨팅 장치는 하나 이상의 처리 유닛 또는 프로세서, 디스플레이, 키보드 및/또는 마우스와 같은 하나 이상의 입/출력 장치, 및 정적 랜덤 액세스 메모리, 동적 랜덤 액세스 메모리, 플래시 메모리 및/또는 하드 드라이브와 같은 하나 이상의 메모리를 포함할 수 있다.Above, we have looked in detail at the object sought to be claimed in this disclosure. The subject matter claimed in this disclosure is not limited in scope to the specific implementation examples described above. For example, in some implementations it may be in the form of hardware operably used on a device or combination of devices, in other implementations it may be implemented in the form of software and/or firmware, and in still other implementations it may be implemented in the form of a signal bearing medium, It may contain one or more items such as storage media. Here, the storage medium, such as a CD-ROM, computer disk, flash memory, etc., may contain instructions that, when executed by a computing device, such as a computing system, computing platform, or other system, may cause execution of the corresponding processor according to the implementation described above. can be saved. Such a computing device may include one or more processing units or processors, one or more input/output devices such as a display, keyboard, and/or mouse, and one or more memory such as static random access memory, dynamic random access memory, flash memory, and/or a hard drive. may include.

한편, 시스템을 하드웨어로 구현할 것인지 아니면 소프트웨어로 구현할 것인지는, 일반적으로 비용 대비 효율의 트레이드오프를 나타내는 설계상 선택 문제이다. 본 개시에서는 프로세스, 시스템, 기타 다른 기술들의 영향을 받을 수 있는 다양한 수단(예를 들어, 하드웨어, 소프트웨어 및/또는 펌웨어)이 있으며, 선호되는 수단은 프로세스 및/또는 시스템 및/또는 다른 기술이 사용되는 맥락(context)에 따라 변경될 것이다. 예를 들어, 구현자가 속도 및 정확성이 가장 중요하다고 결정한다면, 구현자는 주로 하드웨어 및/또는 펌웨어 수단을 선택할 수 있으며, 유연성이 가장 중요하다면, 구현자는 주로 소프트웨어 구현을 선택할 수 있으며; 또는, 다른 대안으로서, 구현자는 하드웨어, 소프트웨어 및/또는 펌웨어의 어떤 결합을 선택할 수 있다.Meanwhile, whether to implement a system in hardware or software is generally a design choice issue that represents a trade-off between cost and efficiency. There are a variety of means (e.g., hardware, software and/or firmware) that may be utilized in the present disclosure, with the preferred means being the process and/or system and/or other technology used. It will change depending on the context. For example, if the implementer determines that speed and accuracy are most important, the implementer may choose primarily hardware and/or firmware means; if flexibility is most important, the implementer may choose primarily software implementation; Or, alternatively, the implementer may choose any combination of hardware, software and/or firmware.

전술한 상세한 설명에서는 블록도, 흐름도 및/또는 기타 예시를 통해 장치 및/또는 프로세스의 다양한 실시예를 설명하였다. 그러한 블록도, 흐름도, 및/또는 기타 예시는 하나 이상의 기능 및/또는 동작을 포함하게 되며, 당업자라면 블록도, 흐름도 및/또는 기타 예시 내의 각각의 기능 및/또는 동작이 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합에 의해 개별적으로 혹은 집합적으로 구현될 수 있다는 점을 이해할 수 있을 것이다. 일 실시예에서, 본 개시에 기재된 대상의 몇몇 부분은 ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array), DSP(Digital Signal Processor) 또는 다른 집적의 형태를 통해 구현될 수 있다. 이와 달리, 본 개시의 실시예의 일부 양상은 하나 이상의 컴퓨터 상에 실행되는 하나 이상의 컴퓨터 프로그램(예를 들어, 하나 이상의 컴퓨터 시스템 상에 실행되는 하나 이상의 프로그램), 하나 이상의 프로세서 상에서 실행되는 하나 이상의 프로그램(예를 들어, 하나 이상의 마이크로프로세서 상에서 실행되는 하나 이상의 프로그램), 펌웨어 또는 이들의 실질적으로 임의의 조합으로써 전체적으로 또는 부분적으로 균등하게 집적 회로에서 구현될 수도 있으며, 소프트웨어 및/또는 펌웨어를 위한 코드의 작성 및/또는 회로의 설계는 본 개시에 비추어 당업자의 기술 범위 내에 속하는 것이다. 또한, 당업자라면, 본 개시의 대상의 매커니즘들이 다양한 형태의 프로그램 제품으로 분배될 수 있음을 이해할 것이며, 본 개시의 대상의 예시는 분배를 실제로 수행하는데 사용되는 신호 베어링 매체의 특정 유형과 무관하게 적용됨을 이해할 것이다. The foregoing detailed description illustrates various embodiments of devices and/or processes through block diagrams, flow diagrams, and/or other examples. Such block diagrams, flowcharts, and/or other examples will include one or more functions and/or operations, and those of ordinary skill in the art will understand that each function and/or operation within the block diagrams, flowcharts, and/or other examples includes hardware, software, firmware, Alternatively, it will be understood that any combination thereof may be implemented individually or collectively. In one embodiment, some portions of the subject matter described in this disclosure may be implemented through an Application Specific Integrated Circuit (ASIC), Field Programmable Gate Array (FPGA), Digital Signal Processor (DSP), or other form of integration. Alternatively, some aspects of embodiments of the present disclosure may include one or more computer programs running on one or more computers (e.g., one or more programs running on one or more computer systems), one or more programs running on one or more processors (e.g., one or more programs running on one or more computer systems), (e.g., one or more programs running on one or more microprocessors), firmware, or substantially any combination thereof, may also be implemented in whole or in part on an integrated circuit, including writing code for software and/or firmware. and/or design of circuits are within the scope of skill of those skilled in the art in light of this disclosure. Additionally, those skilled in the art will understand that the mechanisms of the subject matter of this disclosure may be distributed in a variety of program products, and the examples of the subject matter of this disclosure apply regardless of the specific type of signal bearing medium used to actually perform the distribution. You will understand.

특정 예시적 기법이 다양한 방법 및 시스템을 이용하여 여기에서 기술되고 도시되었으나, 당업자라면, 청구된 대상에서 벗어남이 없이, 다양한 기타의 수정 또는 등가물로의 치환 가능성을 이해할 수 있다. 추가적으로, 여기에 기술된 중심 개념으로부터 벗어남이 없이 특정 상황을 청구된 대상의 교시로 적응시키도록 많은 수정이 이루어질 수 있다. 따라서, 청구된 대상이 개시된 특정 예시로 제한되지 않으나, 그러한 청구된 대상은 또한 첨부된 청구범위 및 그 균등의 범위 내에 들어가는 모든 구현예를 포함할 수 있음이 의도된다.Although certain example techniques have been described and shown herein using various methods and systems, those skilled in the art will recognize that various other modifications or equivalents may be substituted without departing from the claimed subject matter. Additionally, many modifications may be made to adapt the teachings of the claimed subject matter to particular situations without departing from the central concept described herein. Accordingly, it is intended that the claimed subject matter not be limited to the specific examples disclosed, but that such claimed subject matter may also include all embodiments that fall within the scope of the appended claims and their equivalents.

본 개시 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 본 개시 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다. 나아가, 본 개시 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 본 개시에서 사용되는 정도의 용어 "약," "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본원의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. Throughout the present disclosure, when a part is said to be “connected” to another part, this includes not only the case where it is “directly connected,” but also the case where it is “electrically connected” with another element in between. do. Additionally, throughout the present disclosure, when a member is said to be located “on” another member, this includes not only the case where the member is in contact with the other member, but also the case where another member exists between the two members. Furthermore, throughout the present disclosure, when a part “includes” a certain element, this means that it may further include other elements rather than excluding other elements, unless specifically stated to the contrary. As used in this disclosure, the terms “about,” “substantially,” and the like are used to mean at or close to a numerical value when manufacturing and material tolerances inherent in the stated meaning are presented, and to aid in the understanding of the present application. It is used to prevent unscrupulous infringers from unfairly exploiting disclosures in which precise or absolute figures are mentioned.

본 개시의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위, 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present disclosure is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present application. do.

Claims (12)

컴퓨터 비전 기반의 차종 인식을 위한 시스템으로서,
진입 차량의 저면을 촬영하는 하부 카메라; 및
상기 하부 카메라로부터 촬영된 상기 진입 차량의 저면 영상에 기초하여 상기 진입 차량의 차종을 결정하는 차종 결정부와 복수의 차량의 저면 영상을 저장하는 영상 데이터베이스부를 포함하는 통합 관리 서버;
를 포함하고,
상기 차종 결정부는,
상기 진입 차량의 저면 영상으로부터 복수의 타이어를 인식하고,
상기 인식된 타이어의 각각의 중점을 검출하고;
상기 검출된 복수의 중점을 기준으로 상기 촬영된 진입 차량의 저면 영상을 규격화하고,
상기 진입 차량의 저면 영상으로부터 관심 객체를 세그먼테이션(segmentation)하고,
상기 진입 차량의 저면 영상 내의 관심 객체의 예측 바운딩 박스(predicted bounding box)와 대응하는 상기 영상 데이터베이스부에 저장된 상기 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스(reference bounding box)로부터 각각의 IoU(Intersection over Union)를 측정하고,
상기 측정된 IoU에 기초하여, 제1 후보 차종을 결정하며,
상기 제1 후보 차종을 결정하는 것은 상기 측정된 IoU 중 값이 가장 큰 것을 상기 제1 후보 차종으로 결정하는 것을 포함하고,
상기 관심 객체는 차량의 파이프인 것인, 시스템.
A system for computer vision-based vehicle type recognition,
a lower camera that captures the bottom of the entering vehicle; and
An integrated management server including a vehicle type determination unit that determines the vehicle type of the entering vehicle based on the bottom image of the entering vehicle captured from the lower camera and an image database unit that stores bottom images of a plurality of vehicles;
Including,
The vehicle type determination unit,
Recognize a plurality of tires from the bottom image of the entering vehicle,
detecting the midpoint of each of the recognized tires;
Standardizing the captured bottom image of the entering vehicle based on the plurality of detected midpoints,
Segmenting an object of interest from the bottom image of the entering vehicle,
Each IoU from the reference bounding box of the object of interest in the bottom image of the plurality of vehicles stored in the image database unit corresponding to the predicted bounding box of the object of interest in the bottom image of the entering vehicle Measure (Intersection over Union),
Based on the measured IoU, a first candidate vehicle model is determined,
Determining the first candidate vehicle model includes determining the largest value among the measured IoUs as the first candidate vehicle model,
The system of claim 1, wherein the object of interest is a pipe of a vehicle.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 시스템은 상기 진입 차량의 외관을 촬영하는 상부 카메라를 더 포함하고,
상기 차종 결정부는 상기 상부 카메라로부터 촬영된 상기 진입 차량의 외관 영상에 기초하여 제2 후보 차종을 결정하고, 상기 제1 후보 차종과 상기 제2 후보 차종이 일치하는지 확인하는 것인, 시스템.
According to paragraph 1,
The system further includes an upper camera that photographs the exterior of the entering vehicle,
The system wherein the vehicle type determination unit determines a second candidate vehicle type based on an exterior image of the entering vehicle captured from the upper camera, and determines whether the first candidate vehicle type and the second candidate vehicle type match.
제1항에 있어서,
상기 시스템은 상기 진입 차량의 번호판으로부터 차량 번호를 인식하는 LPR 장치를 더 포함하고,
상기 통합 관리 서버는 상기 진입 차량의 위변조 여부를 결정하는 위변조 탐지부 및 각각의 차량 번호에 대응하는 등록 차종을 저장하는 제원 데이터베이스부를 더 포함하고,
상기 위변조 탐지부는 상기 제원 데이터베이스부로부터 상기 진입 차량의 인식된 차량 번호에 대응하는 등록 차종을 조회하고, 상기 등록 차종과 상기 제1 후보 차종이 일치하는지 확인하는 것인, 시스템.
According to paragraph 1,
The system further includes an LPR device that recognizes the vehicle number from the license plate of the entering vehicle,
The integrated management server further includes a forgery detection unit that determines whether the entering vehicle has been forged or altered, and a specifications database unit that stores the registered vehicle model corresponding to each vehicle number,
The forgery detection unit searches the specifications database unit for a registered vehicle model corresponding to the recognized license plate number of the entering vehicle, and checks whether the registered vehicle model matches the first candidate vehicle model.
제1항에 있어서,
상기 시스템은 상기 진입 차량에 포함된 RFID 태그로부터 차량의 고유 ID를 인식하는 RFID 리더기를 더 포함하고,
상기 통합 관리 서버는 상기 진입 차량의 위변조 여부를 결정하는 위변조 탐지부 및 각각의 차량의 고유 ID에 대응하는 등록 차종을 저장하는 제원 데이터베이스부를 더 포함하고,
상기 위변조 탐지부는 상기 제원 데이터베이스부로부터 상기 진입 차량의 고유 ID에 대응하는 등록 차종을 조회하고, 상기 등록 차종과 상기 제1 후보 차종이 일치하는지 확인하는 것인, 시스템.
According to paragraph 1,
The system further includes an RFID reader that recognizes the unique ID of the vehicle from the RFID tag included in the entering vehicle,
The integrated management server further includes a forgery detection unit that determines whether the entering vehicle has been forged or altered, and a specifications database unit that stores the registered vehicle model corresponding to the unique ID of each vehicle,
The system wherein the forgery detection unit searches the specifications database unit for a registered vehicle model corresponding to the unique ID of the entering vehicle, and checks whether the registered vehicle model matches the first candidate vehicle model.
제6항 또는 제7항에 있어서,
상기 위변조 탐지부는 상기 제1 후보 차종과 상기 등록 차종이 일치하지 않는 것으로 판단되는 경우, 차량의 위변조를 관리하는 관리 서버에 경고 알림을 전송하는 것인, 시스템.
According to clause 6 or 7,
When the forgery detection unit determines that the first candidate vehicle model and the registered vehicle model do not match, the system transmits a warning notification to a management server that manages forgery and alteration of the vehicle.
컴퓨터 비전 기반의 차종 인식을 위한 방법으로서,
하부 카메라로 촬영된 진입 차량의 저면 영상을 수신하는 단계;
상기 진입 차량의 저면 영상으로부터 복수의 타이어를 인식하는 단계;
상기 인식된 타이어의 각각의 중점을 검출하는 단계;
상기 검출된 복수의 중점을 기준으로 상기 촬영된 진입 차량의 저면 영상을 규격화하는 단계;
상기 진입 차량의 저면 영상으로부터 관심 객체를 세그먼테이션하는 단계;
상기 진입 차량의 저면 영상 내의 관심 객체의 예측 바운딩 박스와 대응하는 영상 데이터베이스부에 저장된 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스로부터 각각의 IoU를 측정하는 단계; 및
상기 측정된 IoU에 기초하여, 제1 후보 차종을 결정하는 단계
를 포함하고,
상기 제1 후보 차종을 결정하는 단계는 상기 측정된 IoU 중 값이 가장 큰 것을 상기 제1 후보 차종으로 결정하는 단계를 포함하고,
상기 관심 객체는 차량의 파이프인 것인 방법.
As a method for computer vision-based vehicle model recognition,
Receiving a bottom image of an entering vehicle captured by a lower camera;
Recognizing a plurality of tires from a bottom image of the entering vehicle;
detecting the midpoint of each of the recognized tires;
standardizing the captured bottom image of the entering vehicle based on the plurality of detected midpoints;
Segmenting an object of interest from a bottom image of the entering vehicle;
Measuring each IoU from a reference bounding box of an object of interest in a bottom image of a plurality of vehicles stored in an image database unit corresponding to a predicted bounding box of the object of interest in the bottom image of the entering vehicle; and
Based on the measured IoU, determining a first candidate vehicle model
Including,
The step of determining the first candidate vehicle model includes determining the largest value among the measured IoUs as the first candidate vehicle model,
The method of claim 1, wherein the object of interest is a pipe of a vehicle.
삭제delete 삭제delete 컴퓨터 비전 기반의 차종 인식을 위한 통합 관리 서버의 기록 매체에 저장되어 상기 통합 관리 서버에 의해 실행되는 컴퓨터 프로그램으로서,
하부 카메라로 촬영된 진입 차량의 저면 영상을 수신하는 것과 관련된 적어도 하나의 명령어;
상기 진입 차량의 저면 영상으로부터 복수의 타이어를 인식하고, 상기 인식된 타이어의 각각의 중점을 검출하고; 그리고 상기 검출된 복수의 중점을 기준으로 상기 촬영된 진입 차량의 저면 영상을 규격화하는 것과 관련된 적어도 하나의 명령어;
상기 진입 차량의 저면 영상으로부터 관심 객체를 세그먼테이션하는 것과 관련된 적어도 하나의 명령어;
상기 진입 차량의 저면 영상 내의 관심 객체의 예측 바운딩 박스와 대응하는 영상 데이터베이스부에 저장된 복수의 차량의 저면 영상 내의 관심 객체의 레퍼런스 바운딩 박스로부터 각각의 IoU를 측정하는 것과 관련된 적어도 하나의 명령어; 및
상기 측정된 IoU에 기초하여, 제1 후보 차종을 결정하는 것과 관련된 적어도 하나의 명령어
를 포함하고
상기 제1 후보 차종을 결정하는 것은 상기 측정된 IoU 중 값이 가장 큰 것을 상기 제1 후보 차종으로 결정하는 것을 포함하고
상기 관심 객체는 차량의 파이프인 것인, 통합 관리 서버의 기록 매체에 저장된 컴퓨터 프로그램.
A computer program stored on a recording medium of an integrated management server for computer vision-based vehicle model recognition and executed by the integrated management server,
At least one command related to receiving a bottom image of an entering vehicle captured by a bottom camera;
Recognize a plurality of tires from the bottom image of the entering vehicle and detect the midpoint of each of the recognized tires; and at least one command related to standardizing the captured bottom image of the entering vehicle based on the plurality of detected midpoints;
at least one command related to segmenting an object of interest from a bottom image of the entering vehicle;
At least one command related to measuring each IoU from a reference bounding box of an object of interest in a bottom image of a plurality of vehicles stored in an image database unit corresponding to a predicted bounding box of the object of interest in the bottom image of the entering vehicle; and
At least one instruction related to determining a first candidate vehicle model based on the measured IoU
includes
Determining the first candidate vehicle model includes determining the largest value among the measured IoUs as the first candidate vehicle model;
A computer program stored in a recording medium of an integrated management server, wherein the object of interest is a pipe of a vehicle.
KR1020210057712A 2021-05-04 2021-05-04 Method, system and computer readable storage medium to recognize vehcle model based on computer vision KR102654570B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210057712A KR102654570B1 (en) 2021-05-04 Method, system and computer readable storage medium to recognize vehcle model based on computer vision
PCT/KR2021/007395 WO2022234885A1 (en) 2021-05-04 2021-06-14 Method, system, and computer-readable storage medium for computer vision-based vehicle model recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210057712A KR102654570B1 (en) 2021-05-04 Method, system and computer readable storage medium to recognize vehcle model based on computer vision

Publications (2)

Publication Number Publication Date
KR20220150568A KR20220150568A (en) 2022-11-11
KR102654570B1 true KR102654570B1 (en) 2024-04-05

Family

ID=

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101630154B1 (en) * 2015-12-31 2016-06-15 주식회사 디앤에스테크놀로지 Image detecting system and method for underbody of vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101630154B1 (en) * 2015-12-31 2016-06-15 주식회사 디앤에스테크놀로지 Image detecting system and method for underbody of vehicle

Similar Documents

Publication Publication Date Title
Won Intelligent traffic monitoring systems for vehicle classification: A survey
CN106652468B (en) The detection and from vehicle violation early warning alarm set and method in violation of rules and regulations of road vehicle front truck
JP6527678B2 (en) Overdue Vehicle Identification for Privacy Protection
US6442474B1 (en) Vision-based method and apparatus for monitoring vehicular traffic events
CN101859382B (en) License plate detection and identification method based on maximum stable extremal region
US20180107892A1 (en) Dual embedded optical character recognition (ocr) engines
KR20170109017A (en) Vehicle discrimination device, vehicle type discrimination method and program
CN113903180B (en) Method and system for detecting vehicle overspeed on expressway
He et al. Truck and trailer classification with deep learning based geometric features
Saha et al. Developing a framework for vehicle detection, tracking and classification in traffic video surveillance
Wong et al. Vehicle classification using convolutional neural network for electronic toll collection
KR102654570B1 (en) Method, system and computer readable storage medium to recognize vehcle model based on computer vision
Irhebhude et al. View invariant vehicle type recognition and counting system using multiple features
US20230342937A1 (en) Vehicle image analysis
KR20220150568A (en) Method, system and computer readable storage medium to recognize vehcle model based on computer vision
Al Awaimri et al. Vehicles Number Plate Recognition Systems A Systematic Review
Khuc Computer vision based structural identification framework for bridge health mornitoring
Tippannavar et al. Real-time vehicle identi-fication for improving the traffic management system-a review
Pu et al. A robust and real-time approach for license plate detection
Kang et al. Verification method to improve the efficiency of traffic survey
Wei et al. Adaptive video-based vehicle classification technique for monitoring traffic.
Gopikrishnan et al. Smart Parking System with Automated Vehicle Log Using Haar Cascade Classifier ANPR
Peng et al. A system for vehicle classification from range imagery
CN117373259B (en) Expressway vehicle fee evasion behavior identification method, device, equipment and storage medium
Li et al. An overview of extracting static properties of vehicles from the surveillance video