KR102272279B1 - Method for recognizing vehicle license plate - Google Patents
Method for recognizing vehicle license plate Download PDFInfo
- Publication number
- KR102272279B1 KR102272279B1 KR1020210041301A KR20210041301A KR102272279B1 KR 102272279 B1 KR102272279 B1 KR 102272279B1 KR 1020210041301 A KR1020210041301 A KR 1020210041301A KR 20210041301 A KR20210041301 A KR 20210041301A KR 102272279 B1 KR102272279 B1 KR 102272279B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- license plate
- image
- information
- surrounding environment
- Prior art date
Links
Images
Classifications
-
- G06K9/3258—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G06K9/00201—
-
- G06K9/6267—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/10—Network architectures or network communication protocols for network security for controlling access to devices or network resources
- H04L63/101—Access control lists [ACL]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/06—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols the encryption apparatus using shift registers or memories for block-wise or stream coding, e.g. DES systems or RC4; Hash functions; Pseudorandom sequence generators
- H04L9/0643—Hash functions, e.g. MD5, SHA, HMAC or f9 MAC
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G06K2209/15—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Power Engineering (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Emergency Management (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Biology (AREA)
- Traffic Control Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
Abstract
Description
본 명세서에 개시된 내용은 차량번호판 인식 기술 분야에 관한 것으로, 보다 상세하게는 도로를 주행하는 차량 등을 감시할 경우, 카메라 영상에서 차량번호판을 인식해서 교통관제를 수행하는 기술에 관한 것이다.The content disclosed in the present specification relates to the field of license plate recognition technology, and more particularly, to a technology for performing traffic control by recognizing a license plate from a camera image when monitoring a vehicle traveling on a road.
본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and inclusion in this section is not an admission that it is prior art.
최근 무렵 불법 주정차 단속장치, 차량속도 감시장치, 건물의 차량출입 시스템, CCTV 보안시스템 등에 차량번호인식 시스템이 활용되고 있다. 차량번호인식 시스템은 촬영장치인 카메라 및 카메라를 통해 촬영된 이미지를 분석하여 차량번호를 인식하는 정보처리부를 포함한다. 카메라는 고정식 또는 이동식으로 설치될 수 있다.Recently, the vehicle number recognition system has been used in illegal parking enforcement devices, vehicle speed monitoring devices, vehicle access systems in buildings, and CCTV security systems. The vehicle number recognition system includes a camera, which is a photographing device, and an information processing unit for recognizing a vehicle number by analyzing an image photographed through the camera. The camera can be installed fixedly or mobile.
그리고, 여기에서의 차량번호는 각 차량마다 식별을 위해 부여된 고유번호로서, 사람으로 따지면 주민등록번호와 같다. 이러한 차량번호를 통해서 차량의 이름/제작사/제작년월/배기량/원동기 형식 등 기본정보의 확인이 가능하며, 운행중 사고이력/정비이력(이 경우는 보험처리 하거나 지정정비사업소 수리의 경우에만 한정)/차량등록의 상태(무적차량,도난차량 조회도 가능)와 같은 중요정보의 확인도 가능하다.In addition, the vehicle number here is a unique number assigned to each vehicle for identification, and in terms of a person, it is the same as a resident registration number. Basic information such as vehicle name/manufacturer/year/month/displacement amount/motor type can be checked through these vehicle numbers, and accident history/maintenance history (in this case, only in the case of insurance processing or repair at a designated maintenance office)/ It is also possible to check important information such as the status of vehicle registration (inquiry of invincible vehicles and stolen vehicles is also possible).
최근에는, 특정장소 또는 불특정장소에 대한 특정차량 또는 불특정차량 등이 출입하는 상태 및 출입 내역을 확인하기 위한 장치들이 다수 소개되고 있다.Recently, a number of devices have been introduced to check the state and entry details of a specific vehicle or an unspecified vehicle for a specific or unspecified place.
한편, 기존의 차량의 번호판을 검출하는 방식에는 문자 기반의 검출 방식, 에지 기반의 검출 방식 등이 있다. 특히, 이러한 방식 중에는 개량된 형태로 색채 기반의 검출방식 등이 있다. 그런데, 이러한 색채 기반의 검출 방식은 조명 또는 그림자의 변화에 민감하다.On the other hand, conventional methods for detecting the license plate of a vehicle include a character-based detection method, an edge-based detection method, and the like. In particular, among these methods, there is a color-based detection method in an improved form. However, this color-based detection method is sensitive to changes in lighting or shadows.
특히, 안개와 구름, 눈, 비 등에 의한 급변 조도 변화에 차량번호판의 인식률 저하를 가져온다.In particular, sudden changes in illuminance caused by fog, clouds, snow, rain, etc. cause a decrease in the recognition rate of license plates.
이러한 배경의 선행기술문헌은 관련 선행기술을 살펴볼 경우, 특허문헌으로부터 선행기술을 조사해서 관련 선행기술로서 직접적으로 관련된 선행기술이 검색되지 않고 참고할만한 아래의 특허문헌이 나오는 정도이다.When looking at the related prior art, the prior art document with this background is to the extent that the following patent document is available for reference without directly searching for the related prior art as the related prior art by examining the prior art from the patent document.
(특허문헌 1) KR1020190143548 A(Patent Document 1) KR1020190143548 A
참고적으로, 이러한 특허문헌 1의 기술은 차량번호와, 종류, 및 색상 학습을 통한 번호판 인식률이 향상되고, 실시간 학습이 가능한 차량 인식 시스템에 관한 것이다.For reference, the technology of Patent Document 1 relates to a vehicle recognition system in which a license plate recognition rate is improved through learning a license plate number, a type, and a color, and real-time learning is possible.
개시된 내용은, 차량번호판을 인식할 경우에 종래의 색채를 이용하는 방식보다 데이터 처리량이 적고 인식율도 높이도록 하고, 인식을 신속하게도 할 수 있도록 하는 인공지능 알고리즘을 이용한 차량번호판 인식 방법을 제공하고자 한다.The disclosed content is to provide a license plate recognition method using an artificial intelligence algorithm that requires less data processing and a higher recognition rate than the conventional method using colors when recognizing a license plate, and enables rapid recognition.
실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법은,A vehicle license plate recognition method using an artificial intelligence algorithm according to an embodiment,
다양한 차량과, 번호판, 주변환경 유형을 반영한 영상깊이 기초의 차량번호판 3차원 학습모델로부터 차량과, 번호판을 통합적으로 3차원 객체화해서 차량번호판을 현장상황에 맞게 인식한다.From the 3D learning model of license plate based on image depth that reflects the types of various vehicles, license plates and surrounding environment, the vehicle and license plate are integrated into 3D objects to recognize license plates according to the field situation.
이러한 경우, 이러한 차량번호판 3차원 학습모델은 다양한 장소와, 시간대, 주변환경별로 관련된 데이터를 속성화한다.In this case, such a license plate 3D learning model attributes data related to various places, time zones, and surrounding environments.
또한, 이때 차량의 번호판 3차원 객체별로 맞는 타원의 방정식을 상이하게 사용하여 차량과, 번호판을 추출하므로, 종래보다 상대적으로 적은 디지털 부호량으로 다양한 형태의 깊이 영상을 표현하는 것을 특징으로 한다.In addition, at this time, since the vehicle and the license plate are extracted using different equations of the ellipse fit for each three-dimensional object of the license plate of the vehicle, it is characterized in that it expresses various types of depth images with a relatively small amount of digital code than in the prior art.
실시예들에 의하면, 다양한 차량과, 번호판, 주변환경 유형을 반영한 영상깊이 기초의 차량번호판 3차원 학습모델로부터 차량과, 번호판을 3차원 객체화해서 차량번호판을 현장상황에 맞게 인식하므로, 종래의 색채방식보다 데이터 처리량이 적고 인식율도 높인다.According to the embodiments, various vehicles, license plates, and license plates based on image depth reflecting the type of environment are recognized from the three-dimensional learning model of the vehicle and the license plate to three-dimensional objects to recognize the license plate according to the field situation, so the conventional color It requires less data processing and higher recognition rate than the previous method.
예를 들어, 안개와, 미세먼지 등 기상상황이 평상시와 상이한 경우에서도 인식율을 높인다.For example, the recognition rate is increased even when weather conditions such as fog and fine dust are different from usual.
그리고, 이러한 경우 이러한 차량번호판 3차원 학습모델은 다양한 장소와, 시간대, 주변환경별로 관련된 데이터를 속성화하므로, 인식율을 보다 높이기도 한다.And, in this case, such a license plate 3D learning model attributes data related to various places, time zones, and surrounding environments, so that the recognition rate is further increased.
또한, 이러한 경우에, 차량의 번호판 3차원 객체별로 맞는 타원의 방정식을 상이하게 사용하여 차량과, 번호판을 추출하므로, 종래보다 적은 디지털 부호량으로 다양한 형태의 깊이 영상을 표현해서 인식 처리를 신속하게 한다.In addition, in this case, since the vehicle and the license plate are extracted using different equations of the ellipse that fit each three-dimensional object of the license plate of the vehicle, the recognition process is quickly performed by expressing various types of depth images with a smaller amount of digital code than before. do.
도 1은 일실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법을 개념적으로 설명하기 위한 도면
도 2는 일실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법이 적용된 시스템을 전체적으로 도시한 도면
도 3a는 일실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법이 적용된 카메라의 구성을 도시한 블록도
도 3b는 일실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법이 적용된 중앙관제센터의 구성을 도시한 블록도
도 4는 일실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법을 순서대로 도시한 플로우 차트1 is a diagram for conceptually explaining a vehicle license plate recognition method using an artificial intelligence algorithm according to an embodiment;
2 is a view showing the overall system to which the vehicle license plate recognition method using an artificial intelligence algorithm according to an embodiment is applied;
3A is a block diagram showing the configuration of a camera to which a license plate recognition method using an artificial intelligence algorithm is applied according to an embodiment;
3b is a block diagram showing the configuration of a central control center to which a vehicle license plate recognition method using an artificial intelligence algorithm is applied according to an embodiment;
4 is a flowchart sequentially illustrating a vehicle license plate recognition method using an artificial intelligence algorithm according to an embodiment;
도 1은 일실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법을 개념적으로 설명하기 위한 도면이다.1 is a diagram for conceptually explaining a vehicle license plate recognition method using an artificial intelligence algorithm according to an embodiment.
도 1에 도시된 바와 같이, 일실시예의 차량번호판 인식 방법은 차량번호판을 인식할 경우에, 다양한 차량과, 번호판, 주변환경 유형을 반영한 영상 깊이정보 기초의 차량번호판 3차원 학습모델로부터 차량과, 번호판을 3차원 객체화해서 차량번호판을 현장상황에 맞게 인식하므로, 종래의 색채방식보다 데이터 처리량이 적고 인식율도 높인다.As shown in Figure 1, the vehicle license plate recognition method of an embodiment, when recognizing a license plate, various vehicles, license plates, and vehicles from a three-dimensional learning model of license plates based on image depth information reflecting types of surrounding environments, Since the license plate is converted into a three-dimensional object and the license plate is recognized according to the on-site situation, the amount of data processing is lower than that of the conventional color scheme and the recognition rate is increased.
이러한 경우, 이러한 차량번호판 3차원 학습모델은 다양한 영상감시 장소와, 시간대, 주변환경별로 또는, 각각의 유형별로 관련된 데이터를 속성화하므로, 인식율을 보다 높이기도 한다.In this case, such a license plate 3D learning model attributes data related to various image monitoring places, time zones, surrounding environments, or each type, so that the recognition rate is further increased.
그리고, 또한 일실시예는 이러한 경우에, 차량의 번호판 3차원 객체별로 맞는 타원의 방정식을 상이하게 사용하여 차량과, 번호판을 추출하므로, 종래보다 적은 디지털 부호량으로 다양한 형태의 깊이 영상을 표현해서 인식 처리를 신속하게 한다.And, in addition, in one embodiment, in this case, since the vehicle and the license plate are extracted using differently the equation of the ellipse fit for each three-dimensional object of the license plate of the vehicle, various types of depth images are expressed with a smaller amount of digital code than in the prior art. Accelerate recognition processing.
참고적으로, 이러한 일실시예에 따른 인식 내용은 아래의 도 3과 도 4를 참조해 상세히 설명한다.For reference, the recognition content according to this embodiment will be described in detail with reference to FIGS. 3 and 4 below.
추가적으로, 이러한 차량번호판 인식 방법이 적용된 시스템을 일반적으로 사용되는 동작에 관한 점에 대해서 개략적으로 설명한다.In addition, the system to which such a license plate recognition method is applied will be schematically described with respect to an operation generally used.
이러한 시스템은 일실시예에 따른 차량번호판 인식 방법이 영상감시 장치 즉, 카메라(100) 자체 내에 구현되거나 또는, 중앙관제센터에 구현된다.In such a system, the license plate recognition method according to an embodiment is implemented in the image monitoring device, that is, the
참고적으로, 중앙관제센터는 원격지에서 여러 감시영역에 설치된 카메라(100)의 영상감시 동작을 전체적으로 관리한다. For reference, the central control center entirely manages the video monitoring operation of the
이러한 카메라를 좀 더 설명하면 아래와 같다.A more detailed description of these cameras is given below.
카메라(100)는 기본적으로 도로 등에서 차량이 주행할 경우, 각 도로 등의 영상감시 영역에서 차량 영상정보를 수집하여 중앙관제센터로 전달함으로써, 중앙관제센터를 통해 교통관제 등이 이루어질 수 있도록 한다.The
예를 들어, 상기 카메라(100)는 다차로(L-1 ~ L-4) 도로 등에서 다수의 차량(V-1 ~ V-3)이 주행할 경우, 영상감시 영역(S-1, S-2)에서 감시영상을 수집하여 중앙관제센터로 제공한다.For example, when a plurality of vehicles (V-1 to V-3) drive on a multi-lane road (L-1 to L-4), the
그래서, 이를 통해 중앙관제센터에서 차량번호를 인식하거나 또는, 이상징후가 발견된 차량을 추적하는 등의 교통관제를 수행한다.So, through this, the central control center performs traffic control, such as recognizing a vehicle number or tracking a vehicle in which anomalies are found.
도 2는 일실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법이 적용된 시스템을 전체적으로 도시한 도면이다.2 is a view showing the overall system to which the license plate recognition method using an artificial intelligence algorithm according to an embodiment is applied.
도 2에 도시된 바와 같이, 일실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법이 적용된 시스템은 다수의 상이한 영상감시 영역별로 설치된 다수의 카메라(100-1 ~ 100-n 등)와, 중앙관제센터(200)를 포함한다.As shown in Figure 2, the system to which the license plate recognition method using an artificial intelligence algorithm according to an embodiment is applied is a plurality of cameras (100-1 ~ 100-n, etc.) installed for a plurality of different image monitoring areas, and the central It includes a control center (200).
상기 카메라(100-1 ~ 100-n 등)는 다수의 상이한 영상감시 영역별로 예를 들어, 주요 교차로, 진입로, 나들목 등에 각기 설치된다. 이러한 카메라(100-1 ~ 100-n 등)는 자신의 영상감시 영역에서 감시영상을 획득하고, 자가망을 통해 상기 중앙관제센터(200)에 제공한다. 부가적으로 카메라(100-1 ~ 100-n)는 자체 내에서 일실시예에 따른 차량번호판 인식 방법을 사용하여 차량번호를 인식하기도 한다.The cameras (100-1 to 100-n, etc.) are installed in each of a plurality of different video surveillance areas, for example, at a major intersection, an access road, an intersection, and the like. These cameras (100-1 to 100-n, etc.) acquire a surveillance image in their own image monitoring area and provide it to the
상기 중앙관제센터(200)는 기본적으로 상기 카메라(100-1 ~ 100-n 등)로부터 감시영상 등을 수집하고 차량번호판을 인식하거나 또는, 차량의 이상여부를 판별해서 위험 차량 등을 추적함으로써, 교통관제가 이루어진다. 이러한 경우, 차량의 이상여부를 판별하기 위해서 상기 중앙관제센터(200)는 신호위반과, 과속, 주정차위반 등 도로교통법상 위반내용을 구비한다. 그리고, 차량 이상이 감지될 때에는, 상기 카메라(100-1 ~ 100-n 등)의 회전과, 확대, 정지, 문자 표시, 상태 확인 등의 다양한 제어활동을 수행한다. 추가적으로, 상기 중앙관제센터(200)는 이러한 교통관제 결과 등을 방재관리실 혹은 외부연계기관에 제공하기도 한다. 예를 들어, 외부연계기관은 교통상황통제 정보처리장치와, 경찰서 정보처리장치, 교통기관 정보처리장치 또는, 긴급구조 정보처리장치, 소방서 정보처리장치 등이다.The
도 3a와 도 3b는 일실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법이 적용된 장치의 구성을 도시한 블록도이다.3A and 3B are block diagrams illustrating the configuration of an apparatus to which a license plate recognition method using an artificial intelligence algorithm is applied according to an embodiment.
구체적으로는, 도 3a는 일실실시예에 따른 차량번호판 인식 방법이 적용된 카메라의 구성을 도시한 블록도이다. 그리고, 도 3b는 이러한 차량번호판 인식 방법이 적용된 중앙관제센터의 구성을 도시한 블록도이다.Specifically, FIG. 3A is a block diagram illustrating the configuration of a camera to which a license plate recognition method according to an embodiment is applied. And, Figure 3b is a block diagram showing the configuration of the central control center to which the license plate recognition method is applied.
도 3a에 도시된 바와 같이, 먼저 일실시예에 따른 카메라(100)는 카메라 모듈(101)과, DSP부(102), 인공 지능부(103), 제어부(104) 및 통신부(105)를 포함한다.As shown in FIG. 3A , first, the
상기 카메라 모듈(101)은 특히, 영상깊이 정보를 획득하기 위해서 스테레오 형태로 설치된다. 그래서, 카메라 모듈(101)은 관리자를 통해 미리 지정된 영상감시 영역에 대해 스테레오 영상을 획득한다. In particular, the
상기 DSP부(102)는 이러한 스테레오 영상에서 일실시예에 따른 차량번호판 인식 방법이 실제적으로 적용되어서 차량번호판을 고속으로 인식한다. 이러한 경우, DSP부(102)는 인공 지능부와 연동하여 일실시예에 따른 차량번호판 3차원 학습모델을 사용한다. 그래서, DSP부(102)는 구체적으로, 이에 따라 차량 검출과, 차량 번호판 검출, 문자 분할, 문자 인식, 이미지 왜곡 보정을 순서대로 수행한다.The DSP
상기 인공 지능부(103)는 DSP부(102)에 의해 차량번호판이 인식될 경우에 일실시예에 따른 차량번호판 3차원 학습모델을 제공한다.The artificial intelligence unit 103 provides a license plate 3D learning model according to an embodiment when the license plate is recognized by the
상기 제어부(104)는 중앙관제센터(200)와 연계해서 상기 DSP부(102)에 의해 인식된 차량번호를 중앙관제센터(200)로 제공하고, 중앙관제센터(200)로부터 이에 따른 제어신호를 제공받아서 카메라 모듈(102)의 동작을 제어한다. 또는, 다른 형태로서는 상기 제어부(104)는 상기 DSP부(102)에 의해 처리된 감시영상만을 중앙관제센터(200)에 제공하기도 한다.The
상기 통신부(105)는 상기 제어부(104)의 제어에 의해 미리 등록된 중앙관제센터(200)와 정보를 통신 프로토콜에 따라 송수신한다.The
다음으로, 도 3b에 도시된 바와 같이, 일실시예에 따른 중앙관제센터(200)는 I/F부(201)와, 메인 제어부(202), 데이터베이스(203)를 포함한다.Next, as shown in FIG. 3B , the
상기 I/F부(201)는 미리 등록된 카메라(100)와 정보를 송수신한다.The I/
상기 메인 제어부(202)는 이러한 카메라(100)로부터 스테레오 영상을 제공받아서, 현재 스테레오 영상에서 일실시예에 따른 차량번호판 인식 방법을 실제적으로 적용하므로, 차량번호판을 고속으로 인식한다. 이러한 경우, 메인 제어부(202)는 일실시예에 따른 차량번호판 3차원 학습모델을 사용한다. 그래서, 이에 따라 차량 검출과, 차량 번호판 검출, 문자 분할, 문자 인식, 이미지 왜곡 보정을 순서대로 수행한다. 그리고 나서, 메인 제어부(202)는 이러한 차량번호 인식 결과에 따라서 특정 차량에 이상상태가 검출된 경우에 해당하는 카메라(100)의 동작을 예를 들어, 영상 확대와, 줌 인 등의 동작을 제어한다. 그래서, 이를 통해 위험 차량 등을 감시해서 교통관제를 수행한다.The
상기 데이터베이스(203)는 이러한 차량번호판 인식이 될 경우에 일실시예에 따른 차량번호판 3차원 학습모델을 등록한다. 그리고, 데이터베이스(203)는 이 외에도 교통관제를 수행하기 위해서 카메라(100)와 외부연계기관의 등록정보와, 도로교통법상 위반내용 등을 등록한다.The
도 4는 일실시예에 따른 인공지능 알고리즘을 이용한 차량번호판 인식 방법을 순서대로 도시한 플로우 차트이다.4 is a flowchart sequentially illustrating a vehicle license plate recognition method using an artificial intelligence algorithm according to an embodiment.
도 4에 도시된 바와 같이, 일실시예의 차량번호판 인식 방법은 먼저 영상감시영역을 통행하는 차량의 스테레오 영상이 입력될 경우에, 해당하는 스테레오 영상에서 차량과 번호판의 유형과, 영상구조특징 및 영상깊이정보를 추출한다(S401).As shown in Figure 4, the license plate recognition method of an embodiment is first, when a stereo image of a vehicle passing through the image monitoring area is input, the type of vehicle and license plate in the corresponding stereo image, image structure features and images Depth information is extracted (S401).
그리고, 이렇게 차량과 번호판의 유형과, 영상구조특징 및 영상깊이정보가 추출될 때에, 상기 영상감시영역으로부터의 환경정보를 수집한다(S402).And, when the type of vehicle and license plate, image structure characteristics, and image depth information are extracted in this way, environmental information from the image monitoring area is collected (S402).
그래서, 이를 통해 차량과 번호판의 유형과, 영상고유특징 및 영상깊이, 영상감시영역의 환경정보에 의해서 아래의 일실시예에 따른 차량번호판 3차원 학습모델에 따라 차량의 번호판을 3차원 객체화한다(S403).So, through this, the license plate of the vehicle is 3D objectified according to the vehicle license plate 3D learning model according to the embodiment below by the type of vehicle and license plate, image intrinsic features and image depth, and environmental information of the image monitoring area ( S403).
이를 통해, 일실시예는 다양한 차량과, 번호판, 주변환경을 반영한 영상 깊이정보 기초의 차량번호판 3차원 학습모델로부터 차량과, 번호판을 3차원 객체화해서 차량번호판을 현장상황에 맞게 인식하므로, 종래의 색채방식보다 데이터 처리량이 적고 인식율도 높인다.Through this, one embodiment recognizes the vehicle and the license plate as a three-dimensional object from the vehicle license plate 3D learning model based on the image depth information reflecting the various vehicles, the license plate, and the surrounding environment to recognize the license plate according to the field situation, so that the conventional It requires less data processing and higher recognition rate than the color method.
상기 차량번호판 3차원 학습모델은 아래와 같이 이루어진다.The license plate three-dimensional learning model is made as follows.
a) 먼저, 상기 차량번호판 3차원 학습모델은 차량번호판을 인식할 경우에, 다수의 상이한 차량과, 번호판 유형별로 주변환경 유형에 따라 차량과, 번호판을 영상구조특징 및 영상깊이로 분류하여 3차원 객체화한다.a) First, when the license plate 3D learning model recognizes a license plate, a number of different vehicles, a vehicle according to the type of the surrounding environment for each license plate type, and a license plate are classified into image structure features and image depth, and three-dimensional objectify
예를 들어, 이러한 차량 유형은 승용차와, 승합차, 버스, 트럭, 굴삭기 등이다. 그리고, 주변환경 유형은 날씨(예: 안개, 비, 눈 등)와, 온습도, 미세먼지, 계절 등이다.For example, these vehicle types are passenger cars, vans, buses, trucks, excavators, and the like. In addition, the types of the surrounding environment are weather (eg fog, rain, snow, etc.), temperature and humidity, fine dust, season, etc.
그리고, 이러한 차량과, 번호판의 3차원 객체별로 대응하여 영상평면 상에 타원의 방정식을 생성해서 해당하는 정보를 추출하여 학습 모델을 정의한다.And, by generating an equation of an ellipse on the image plane in correspondence with such a vehicle and each three-dimensional object of the license plate, the corresponding information is extracted to define a learning model.
이때 상기 타원의 방정식은 상이한 영상깊이별로 타원 인자를 추출해서 이루어지며, 영상평면 상의 좌표와, 매개변수로 된다. 그리고, 이러한 매개변수는 영상깊이 정보에 따라서 결정되고, 결정된 결과가 타원 인자로 된다.At this time, the equation of the ellipse is obtained by extracting the elliptic factor for each different image depth, and becomes the coordinates on the image plane and the parameters. And, these parameters are determined according to the image depth information, and the determined result becomes an elliptic factor.
그래서, 이를 통해 차량과, 번호판의 3차원 객체별로 맞는 타원의 방정식을 상이하게 사용하여 차량과, 번호판을 추출하므로, 종래보다 적은 디지털 부호량으로 다양한 형태의 깊이 영상을 표현해서 인식 처리를 신속하게 한다.So, through this, the vehicle and the license plate are extracted using different equations of the ellipse that fit each three-dimensional object of the vehicle and the license plate, so that the recognition process can be performed quickly by expressing various types of depth images with a smaller amount of digital code than before. do.
b) 다음, 다수의 상이한 차량과, 번호판, 주변환경 유형별로 차량과, 번호판의 영상구조특징 및 영상깊이 데이터셋을 추출한다.b) Next, extract the image structure features and image depth datasets of vehicles and license plates by a number of different vehicles, license plates, and surrounding environment types.
c) 그리고 나서, 이러한 데이터셋을 다수의 상이한 영상감시 장소와, 시간대, 주변환경 유형에 대응해서 속성화한다. 즉, 차량과, 번호판의 영상구조특징과 영상깊이를 속성화한다.c) Then, attribute these datasets to a number of different surveillance locations, time zones, and types of surroundings. That is, the image structure features and image depth of the vehicle and the license plate are attribute.
예를 들어, 이러한 영상감시 장소는 일반 도로와, 터널, 산간 지역 등이다. 그리고, 시간대는 새벽이나 또는, 밤, 오전과 오후, 해질녁 등이고, 주변환경은 전술한 주변환경 정보와 동일하다. 그리고, 이러한 정보를 기초로 유사한 속성을 나타내는 정보들에 대해서 유형화가 이루어진다.For example, such video surveillance places are general roads, tunnels, and mountainous areas. In addition, the time zone is dawn or night, morning and afternoon, sunset, etc., and the surrounding environment is the same as the above-described surrounding environment information. And, based on this information, types of information indicating similar properties are made.
d) 그래서, 이러한 속성화된 결과를 기초로 해서 다수의 상이한 학습 모델별로 차량과, 번호판의 영상구조특징 및 영상깊이의 속성을 결정한다.d) So, based on these attribution results, the image structure features and image depth properties of the vehicle and license plate are determined for each of a number of different learning models.
e) 그런 후에, 상기 결정된 결과를 정규화한다.e) Then, normalize the determined result.
f) 그리고, 다수의 상이한 학습 모델별로 차량과, 번호판의 영상구조특징 및 영상깊이를 설정하여, 다수의 상이한 차량과, 번호판의 3차원 객체별로 맞게 객체화를 하기 위한 독립 및 종속 변수로서 설정한다.f) And, by setting the image structure features and image depth of the vehicle and the license plate by a number of different learning models, it is set as an independent and dependent variable for objectification according to a number of different vehicles and the three-dimensional object of the license plate.
g) 다음, 상기 설정된 결과를 학습 및 훈련 데이터로 생성한다.g) Next, the set result is generated as learning and training data.
h) 그래서, 이를 통해 이러한 결과로부터 딥러닝 기반의 차량번호판 3차원 학습모델을 생성한다.h) So, through this, a 3D learning model of license plate based on deep learning is generated from these results.
그리고, 이러한 차량의 번호판 3차원 객체에 의해 차량번호를 추출해서, 인식한다(S404와, S405).And, by extracting the license plate number from the three-dimensional object of the license plate of the vehicle, it is recognized (S404 and S405).
참고적으로, 차량번호 인식은 종래 기술에 속하는 것으로서 여기에서는 이에 대한 설명을 생략한다.For reference, since vehicle number recognition belongs to the prior art, a description thereof will be omitted here.
이상과 같이, 일실시예는 다양한 차량과, 번호판, 주변환경 유형을 반영한 영상깊이 기초의 차량번호판 3차원 학습모델로부터 차량과, 번호판을 3차원 객체화해서 차량번호판을 현장상황에 맞게 인식하므로, 종래 색채방식보다 데이터 처리량이 적고 인식율도 높인다.As described above, one embodiment recognizes the vehicle and license plate as a three-dimensional object from the vehicle license plate 3D learning model based on the image depth based on the image depth reflecting the types of various vehicles, license plates, and surrounding environment to recognize the license plate according to the field situation, so that the conventional It requires less data processing and higher recognition rate than the color method.
이러한 경우, 이러한 차량번호판 3차원 학습모델은 다양한 장소와, 시간대, 주변환경별로 관련된 데이터를 속성화하므로, 인식율을 보다 높이기도 한다.In this case, such a license plate 3D learning model attributes data related to various places, time zones, and surrounding environments, so that the recognition rate is further increased.
그리고, 또한 일실시예는 이러한 경우에, 차량과, 번호판의 3차원 객체별로 맞는 타원의 방정식을 상이하게 사용하여 차량과, 번호판을 추출하므로, 종래보다 적은 디지털 부호량으로 다양한 형태의 깊이 영상을 표현해서 인식 처리를 신속하게 한다.And, in addition, in this case, since one embodiment extracts the vehicle and the license plate by using the equation of the ellipse that fits each three-dimensional object of the vehicle and the license plate differently, various types of depth images with a smaller amount of digital code than in the prior art. Express the recognition process quickly.
한편, 추가적으로 이러한 차량번호판 인식 방법은 이렇게 스테레오 영상에서 차량번호판을 추출할 경우에, 다수의 차량번호판 즉, 멀티 표적에 대해서 차량번호판을 일괄적으로 추적하여 추출하므로, 특정 감시영역에 많은 표적이 있더라도 신속히 찾아낸다.On the other hand, additionally, such a license plate recognition method extracts a plurality of license plates, that is, a license plate for a multi-target, in batches when extracting a license plate from a stereo image, so even if there are many targets in a specific monitoring area find it quickly
이를 위해, 이러한 차량번호판 인식 방법은 먼저 스테레오 영상에서 다수의 차량(멀티 표적)을 찾아낼 경우에, 스테레오 영상을 누적해서 배경 파트를 생성한다.To this end, this license plate recognition method generates a background part by accumulating stereo images when a plurality of vehicles (multi-targets) are first found in a stereo image.
그리고, 이러한 배경 파트를 기준으로 미리 설정된 차이값보다 초과하는 화소를 산출한다.Then, pixels exceeding a preset difference value are calculated based on the background part.
다음, 이러한 차이값이 임계치 이상인 화소영역을 모아서 전경 파트로 획득한다.Next, pixel regions having such a difference value equal to or greater than a threshold are collected and acquired as a foreground part.
그리고, 전경 파트의 노이즈를 모폴로지 필터를 통해 삭제한다.Then, the noise of the foreground part is deleted through the morphology filter.
다음, 이렇게 노이즈가 제거된 전경 파트에서 여러 객체가 있는데, 이러한 상태에서 다수의 상이한 객체별로 부분 윤곽을 영상분포도에 의해서 추출한다.Next, there are several objects in the foreground part from which the noise has been removed. In this state, partial contours for each different object are extracted from the image distribution diagram.
그리고 나서, 이렇게 추출된 객체의 부분 윤곽에서, 미리 설정된 최소 크기 이하의 영역을 인접한 영역과 결합하여 객체의 서브 바디를 생성한다.Then, in the partial contour of the object extracted in this way, an area smaller than a preset minimum size is combined with an adjacent area to generate a sub-body of the object.
그래서, 이러한 객체의 서브 바디를 미리 설정된 차량의 서브 바디와 비교해서, 현재 차량의 서브 바디만을 전부 일괄추출한다.Therefore, by comparing the sub-body of this object with the sub-body of a preset vehicle, only the sub-body of the current vehicle is all batch-extracted.
그런 후에, 차량의 서브 바디가 추출된 경우에, 차량의 서브 바디로부터 차량의 전체 크기와 위치를 상이한 차량의 서브 바디별로 추정하는 미리 설정된 포맷에 의해서 현재 차량의 전체 크기와 위치를 추정한다.Then, when the sub-body of the vehicle is extracted, the overall size and position of the current vehicle are estimated from the sub-body of the vehicle by a preset format for estimating the overall size and position of the vehicle for each sub-body of a different vehicle.
그래서, 이렇게 추정된 차량 전체에서 미리 설정된 차량과, 번호판 유형별로의 차량과, 번호판 영상구조특징을 이용하여 현재 차량과 번호판의 유형과, 영상구조특징을 각각의 차량별로서 통합적으로 추출한다.So, by using the vehicle, the vehicle by license plate type, and the license plate image structure feature set in advance from the entire vehicle estimated in this way, the type of the current vehicle and the license plate and the image structure feature are integrally extracted for each vehicle.
따라서, 이를 통해 다른 실시예는 감시영상에서 차량번호판을 추출할 경우에, 다수의 차량번호판 즉, 멀티 표적에 대해서 차량번호판을 일괄적으로 추적하여 추출하므로, 특정 감시영역에 많은 표적이 있더라도 신속히 찾아낸다.Accordingly, in another embodiment, when extracting a license plate from a surveillance image, a plurality of license plates, i.e., a license plate for multiple targets, are collectively tracked and extracted, so even if there are many targets in a specific monitoring area, it is quickly found. pay
추가적으로, 이러한 실시예는 이러한 멀티 표적에 대한 추적동작 중에 위험 차량 등을 즉시 식별할 수 있기도 한다.Additionally, this embodiment can also immediately identify a dangerous vehicle or the like during a tracking operation for such multi-targets.
구체적으로는, 이러한 식별동작은 상기 영상 분포도에 의해 차량의 전체 크기와 위치가 추정될 경우에, 미리 설정된 이상 차량 영상분포도로부터 현재 차량의 영상분포도를 비교한다.Specifically, in this identification operation, when the overall size and position of the vehicle are estimated by the image distribution map, the image distribution map of the current vehicle is compared from a preset abnormal vehicle image distribution map.
그래서, 상기 비교 결과, 이상 차량 영상분포도가 현재 차량의 영상분포도에 대한 차이값이 미리 설정된 차이값보다 이상인 경우에 알람한다.Therefore, as a result of the comparison, an alarm is issued when the difference between the image distribution diagram of the abnormal vehicle and the image distribution diagram of the current vehicle is greater than a preset difference value.
반면에, 이상 차량 영상분포도와 현재 차량의 영상분포도의 차이값이 상기 차이값보다 미만인 경우에는 알람하지 않는다.On the other hand, when the difference value between the image distribution diagram of the abnormal vehicle and the image distribution diagram of the current vehicle is less than the difference value, no alarm is performed.
그리고, 이렇게 알람이 될 경우에, 알람을 차량과 번호판의 유형과, 관리영역 유형, 관리목적 유형, 관리시간대별로 등급화해서 처리하는 포맷을 구비하여 현재 알람을 해당하는 등급에 따라 수행한다.And, when it becomes an alarm in this way, it has a format for classifying and processing the alarm by type of vehicle and license plate, management area type, management purpose type, and management time period, and the current alarm is performed according to the corresponding grade.
다른 한편으로, 또 다른 실시예는 이러한 영상감시 시스템에서 주변환경 정보 등을 중앙관제센터로 제공할 경우에, 다양한 영상감시 시스템별로서 통신 기능을 담당하는 라이브러리를 생성하므로, 개발자를 위한 가이드를 제공할 수 있도록 한다.On the other hand, another embodiment provides a guide for developers because, when such a video monitoring system provides information about the surrounding environment to the central control center, a library responsible for communication functions is created for each video monitoring system. make it possible
이를 위해, 이러한 실시예는 영상감시 주변의 환경정보가 수집될 경우에, 다수의 상이한 영상감시 시스템 유형별로 고유한 통신데이터 특성을 오픈된 공통플랫폼 하에서 통합적으로 구성한 통신기능용 라이브러리를 미리 등록한다.To this end, in this embodiment, when environmental information around video surveillance is collected, a library for communication functions that is integrated with communication data characteristics unique to a plurality of different types of video surveillance system under an open common platform is registered in advance.
그리고 나서, 다수의 상이한 영상감시 시스템 유형 중에서 관리설정정보에 따라 어느 하나를 설정한 경우에, 상기 통신기능용 라이브러리에 의해서 해당하는 영상감시 시스템 유형의 어플리케이션과 컴포넌트를 생성한다.Then, when any one of a plurality of different types of video surveillance system is set according to the management setting information, an application and component of the corresponding video surveillance system type are generated by the library for the communication function.
그래서, 이러한 어플리케이션과 컴포넌트에 의해 상기 영상감시 주변의 환경정보를 수집한다.So, environment information around the video surveillance is collected by these applications and components.
이러한 경우, 상기 라이브러리는 예를 들어 개략적으로 아래와 같이 이루어진다.In this case, the library consists, for example, schematically as follows.
먼저, 상기 라이브러리는 영상감시 시스템과 관련된 다양한 센서와 액추에이터를 제어하는 1 이상의 컴퓨터 프로그램(예 : 자바 스크립트, 자바)을 이용하도록 구성된다.First, the library is configured to use one or more computer programs (eg, JavaScript, Java) for controlling various sensors and actuators related to an image monitoring system.
그리고, 라이브러리는 이러한 제어용 메소드를 기술한 클래스를 조합한다.And, the library combines the classes that describe these control methods.
이때, 메소드는 상이한 영상감시 시스템별로의 통신데이터 특성에 따라 제어하도록 구성된다.At this time, the method is configured to control according to the characteristics of communication data for each different video surveillance system.
그리고, 또한 이러한 라이브러리는 표준 라이브러리와 사용자 정의 라이브러리로 이루어진다.And, also, these libraries consist of a standard library and a user-defined library.
추가적으로, 이러한 경우에 설비 개발자를 위한 가이드를 전체적으로 제공하기도 한다.Additionally, in such cases, a guide is provided for the facility developer as a whole.
구체적으로는, 영상감시 영역의 주변 환경정보가 수집될 경우에, 영상감시 시스템 유형별로 고유한 데이터 특성과, 어플리케이션, 제어 동작환경, 서비스를 오픈된 공통플랫폼 하에서 통합적으로 구성한 개발가이드 라이브러리를 미리 등록한다.Specifically, when the surrounding environment information of the video monitoring area is collected, the development guide library that integrates the unique data characteristics, applications, control operation environment, and services for each type of video monitoring system under an open common platform is registered in advance. do.
그리고 나서, 영상감시 시스템 유형 중에서 관리설정정보에 따라 어느 하나를 설정한 경우에, 상기 개발가이드 라이브러리에 의해서 해당하는 영상감시 시스템 유형의 어플리케이션과 컴포넌트를 생성한다.Then, when any one of the video surveillance system types is set according to the management setting information, applications and components of the corresponding video surveillance system type are generated by the development guide library.
그래서, 이렇게 생성된 어플리케이션과 컴포넌트를 추가적으로 사용해서 상기 영상감시 영역의 주변 환경정보를 수집한다.Thus, the generated application and component are additionally used to collect the surrounding environment information of the video surveillance area.
또한, 이러한 실시예에서는 oneM2M 표준에 따른 프로토콜과 아키텍처를 제공한다.In addition, this embodiment provides a protocol and architecture according to the oneM2M standard.
구체적으로는, 영상감시 영역의 주변 환경정보가 수집될 경우에, 해당하는 영상감시 장치를 센서노드로서 관리할 oneM2M 표준에 따른 프로토콜과, 상기 프로토콜 관리파일을 구성한 프로토콜 라이브러리를 미리 등록한다.Specifically, when the surrounding environment information of the video monitoring area is collected, the protocol according to the oneM2M standard for managing the video monitoring device as a sensor node and the protocol library constituting the protocol management file are registered in advance.
그리고, 이러한 프로토콜 라이브러리는 오픈된 공통플랫폼 하에서 영상감시 시스템 유형별로 고유한 통신데이터 특성별로 통합적으로 구성한다.In addition, these protocol libraries are integrally configured by communication data characteristics unique to each type of video surveillance system under an open common platform.
그리고 나서, 영상감시 시스템 유형 중에서 관리설정정보에 따라 어느 하나를 설정한 경우에, 상기 프로토콜 라이브러리에 의해서 어플리케이션과 컴포넌트를 생성한다.Then, when any one of the video surveillance system types is set according to the management setting information, an application and a component are generated by the protocol library.
그래서, 이러한 어플리케이션과 컴포넌트로도 상기 영상감시 영역의 주변 환경정보를 수집한다.Therefore, even with these applications and components, information about the surrounding environment of the video surveillance area is collected.
이에 더하여, 이러한 실시예에서는 영상감시 시스템에서 실시간 모니터링과 제어, 다른 관리자와 공유 기능을 수행할 수 있도록 한다.In addition, in this embodiment, it is possible to perform real-time monitoring and control, and sharing with other administrators in the video surveillance system.
이를 위해, 영상감시 영역의 주변 환경정보가 수집될 경우에, 영상감시 시스템별로 고유한 실시간 모니터링과 제어용 어플리케이션 제작특성과, 다른 관리자와의 공유용 편집기, 상기 편집기를 통해 제어할 영상감시 시스템을 연결하는 도구를 미리 등록한다.To this end, when the surrounding environment information of the video monitoring area is collected, the unique real-time monitoring and control application production characteristics for each video monitoring system, an editor for sharing with other managers, and the video monitoring system to be controlled through the editor are connected. Register the tool in advance.
그리고, 이렇게 연결된 영상감시 시스템으로부터 수집된 정보를 관리자 앱 서비스로 표현하는 컴포넌트와, 상기 컴포넌트를 제작 및 오픈 API로 등록하여 사용하는 기능도 미리 등록한다.In addition, a component for expressing information collected from the video surveillance system connected in this way as a manager app service, and a function to create and use the component as an open API are also registered in advance.
그리고 나서, 이러한 등록된 결과를 오픈플랫폼 하에서 해당하는 서비스 앱으로 구성해서 실행파일로 생성한다.Then, these registered results are created as an executable file by composing the corresponding service app under the open platform.
그래서, 이러한 실행파일에 의해서 영상감시 시스템을 실시간 모니터링과 제어하므로, 상기 영상감시 영역의 주변 환경정보를 수집한다.Therefore, since the video monitoring system is monitored and controlled in real time by such an executable file, information about the surrounding environment of the video monitoring area is collected.
한편으로, 이러한 실시예에서는 이러한 다양한 기능들에 더해서 저성능 영상감시 시스템을 위한 경량 프로토콜을 제공하기도 한다.On the other hand, this embodiment also provides a lightweight protocol for a low-performance video surveillance system in addition to these various functions.
구체적으로는 아래와 같이 이루어진다.Specifically, it is done as follows.
먼저, 영상감시 영역의 주변 환경정보가 수집될 경우에, 영상감시 시스템의 데이터전송사양을 미리 설정된 기준 데이터전송사양과 비교한다.First, when the surrounding environment information of the video monitoring area is collected, the data transmission specification of the video monitoring system is compared with a preset reference data transmission specification.
상기 비교 결과, 영상감시 시스템의 데이터전송사양이 상기 기준 데이터전송사양보다 이상인 경우에 현재 상태를 유지하고, 반면에 미만인 경우에는 암호화를 위한 버퍼를 할당하여 초기화한다.As a result of the comparison, if the data transmission specification of the video surveillance system is greater than or equal to the reference data transmission specification, the current state is maintained. On the other hand, if it is less than the data transmission specification, an encryption buffer is allocated and initialized.
다음, 미리 설정된 마스터 키를 통해 암호화 키를 생성한다.Next, an encryption key is generated through a preset master key.
그리고, 영상감시 영역의 주변 환경정보를 읽는다.Then, the surrounding environment information of the video monitoring area is read.
그리고 나서, 주변 환경정보의 길이와, 다수의 상이한 영상감시 시스템별로 대응하여 미리 설정된 암호화 데이터 길이 중에서 해당 암호와 데이터 길이를 비교한다.Then, the length of the surrounding environment information and the corresponding encryption and data length are compared among the predetermined encrypted data lengths corresponding to a plurality of different video surveillance systems.
상기 비교 결과, 상기 주변 환경정보의 길이가 해당하는 암호화 데이터 길이보다 작은 경우 암호화 하지 않고 전송하며, 큰 경우에는 프레임을 검출한다.As a result of the comparison, if the length of the surrounding environment information is smaller than the corresponding encrypted data length, it is transmitted without encryption, and if it is larger, the frame is detected.
그리고, 확장 헤더는 확장 비트를 읽어 유무를 확인한다.And, the extension header reads the extension bit to check whether there is.
상기 확인 결과, 확장 비트가 있는 경우에 페이로드 시작점 오프셋을 확장 길이만큼 이동시킨다.As a result of the check, if there is an extension bit, the payload start point offset is moved by the extension length.
반면, 상기 프레임과, 암호용 키, 페이로드 오프셋 정보를 파라미터로 전달받아 프레임의 페이로드 시작부분을 미리 설정된 암호화 포맷으로 부분 암호화해서 저성능 영상감시 시스템을 위한 경량 프로토콜로서 제공한다.On the other hand, the frame, encryption key, and payload offset information are transmitted as parameters, and the start part of the payload of the frame is partially encrypted in a preset encryption format to provide it as a lightweight protocol for a low-performance video surveillance system.
그리고, 이러한 경우에 이러한 시스템 환경하에서 보안관리를 위해 아래의 구성을 더 구비한다.And, in this case, the following configuration is further provided for security management in such a system environment.
구체적으로는, 영상감시 영역의 주변 환경정보를 수집하기 위해서, 미리 상이한 어플리케이션별로 해시트리를 기준으로 하위 해시값을 부여하고, 상기 해시트리의 상위 해시값을 등록한다.Specifically, in order to collect the surrounding environment information of the video monitoring area, a lower hash value is given in advance based on a hash tree for each different application, and an upper hash value of the hash tree is registered.
그리고, 또한 현재 주변 환경정보가 수집되는데 사용하는 어플리케이션별로 해시값을 연결해서 해시노드를 형성한 경우에 보안이 된 것으로 확인하는 포맷을 등록한다.In addition, when a hash node is formed by connecting a hash value for each application used to collect the current surrounding environment information, a format is registered to confirm that it is secure.
이러한 상태에서, 상기 영상감시 영역의 주변 환경정보가 수집될 경우에, 이러한 포맷에 의해서 관련된 어플리케이션별로 해시값을 연결하여 해시노드를 형성한 경우에 한해서 보안이 된 것으로 확인한다.In this state, when the surrounding environment information of the video monitoring area is collected, it is confirmed that security is achieved only when a hash node is formed by connecting a hash value for each related application according to this format.
또한, 영상감시 영역의 주변 환경정보가 수집될 경우에 추가적으로 어플리케이션 사용을 감지해서 상기 감지 결과, 어플리케이션 사용이 된 경우에 화이트 리스트 및 블랙 리스트에 기반한 사용자 선택 모드에 따라 해당 어플리케이션의 시그니처 정보를 검색한다.In addition, when the surrounding environment information of the video monitoring area is collected, the application is additionally detected, and when the detection result, when the application is used, the signature information of the corresponding application is searched according to the user selection mode based on the white list and the black list. .
상기 검색 결과, 해당하는 어플리케이션 시그니처 정보가 있는 경우 자신의 어플리케이션 사용을 허용하고, 반면에 해당 어플리케이션 시그니처 정보가 없는 경우에는 자신의 어플리케이션 사용을 차단한다.As a result of the search, if there is the corresponding application signature information, use of the own application is allowed, whereas if there is no corresponding application signature information, the use of the own application is blocked.
100 : 카메라
200 : 중앙관제센터
101 : 카메라 모듈 102 : DSP부
103 : 인공 지능부 104 : 제어부
105 : 통신부
201 : I/F부 202 : 메인 제어부
203 : 데이터베이스100 : camera
200: central control center
101: camera module 102: DSP unit
103: artificial intelligence unit 104: control unit
105: communication department
201: I/F unit 202: main control unit
203 : database
Claims (10)
상기 차량과 번호판의 유형과, 영상구조특징 및 영상깊이정보가 추출될 때에, 상기 영상감시영역으로부터의 환경정보를 수집하는 제 2 단계;
상기 차량과 번호판의 유형과, 영상구조특징 및 영상깊이정보, 영상감시영역의 환경정보에 의해서 아래의 차량번호판 3차원 학습모델에 따라 차량과, 번호판을 3차원 객체화하는 제 3 단계; 및
상기 차량번호판 3차원 학습모델은,
a) 차량번호판을 인식할 경우에, 다수의 상이한 차량 유형과 번호판 유형별로 주변환경 유형에 따라 차량과, 번호판을 영상구조특징 및 영상깊이로 분류하여 3차원 객체화하고,
상기 차량과, 번호판의 상이한 3차원 객체별로 대응하여 영상평면 상에 타원의 방정식을 생성하여 차량과, 번호판 정보를 추출하는 학습 모델을 정의하고,
b) 다수의 상이한 차량과 번호판 및, 주변환경 유형별로 차량과, 번호판의 영상구조특징 및 영상깊이 데이터셋을 추출하고,
c) 상기 추출된 데이터셋을 다수의 상이한 영상감시 장소와, 시간대, 주변환경 유형을 반영하여 속성화하며,
d) 상기 속성화된 결과를 기초로 한 다수의 상이한 학습 모델별로 차량과, 번호판의 영상구조특징 및 영상깊이의 속성을 결정하고,
e) 상기 결정된 결과를 정규화해서,
f) 상기 정규화된 결과를 기초로 해서 상이한 학습 모델별로 차량과, 번호판의 영상구조특징 및 영상깊이를 설정하여, 다수의 상이한 차량과, 번호판 3차원 객체별로 해당하는 3차원 객체화를 위한 독립 및 종속 변수로서 설정하고,
g) 상기 설정된 결과를 학습 및 훈련 데이터로 생성하여,
h) 상기 생성된 결과로부터 딥러닝 기반의 차량번호판 3차원 학습모델을 생성하고,
상기 3차원 객체화된 차량과, 번호판에 의해 차량번호를 추출해서 인식하는 제 4 단계; 를 포함하고,
상기 제 1 단계는,
상기 스테레오 영상에서 다수의 차량(멀티 표적)을 찾아낼 경우에는, 스테레오 영상을 누적해서 배경 파트를 생성하는 제 1-1 단계;
상기 배경 파트를 기준으로 미리 설정된 차이값보다 초과하는 화소를 산출하는 제 1-2 단계;
상기 차이값이 임계치 이상인 화소영역을 전경 파트로 획득하는 제 1-3 단계;
상기 전경 파트의 노이즈를 모폴로지 필터를 통해 삭제하는 제 1-4 단계;
상기 노이즈가 제거된 전경 파트에서 다수의 상이한 객체별로 부분 윤곽을 영상분포도에 의해서 추출하는 제 1-5 단계;
상기 추출된 객체의 부분 윤곽에서, 미리 설정된 최소 크기 이하의 영역을 인접한 영역과 결합하여 객체의 서브 바디를 생성하는 제 1-6 단계;
상기 생성된 객체의 서브 바디를 미리 설정된 차량의 서브 바디와 비교해서, 현재 차량의 서브 바디만을 전부 일괄추출하는 제 1-7 단계;
상기 차량의 서브 바디가 추출된 경우에, 차량의 서브 바디로부터 차량의 전체 크기와 위치를 상이한 차량의 서브 바디별로 추정하는 미리 설정된 포맷에 의해서 현재 차량의 전체 크기와 위치를 추정하는 제 1-8 단계; 및
상기 추정된 차량 전체에서 미리 설정된 차량과 번호판 유형별로의 차량과, 번호판 영상구조특징을 이용하여 현재 차량과 번호판의 유형과, 차량과 번호판의 영상구조특징을 각각의 차량별로서 통합적으로 추출하는 제 1-9 단계;를 포함하고,
상기 제 1-8 단계는,
상기 영상 분포도에 의해 차량의 전체 크기와 위치가 추정될 경우에, 미리 설정된 이상 차량 영상분포도로부터 현재 차량의 영상분포도를 비교해서, 미리 설정된 차이값보다 이상인 경우에 알람하고 미만인 경우에는 알람하지 않고,
상기 제 1-8 단계는,
상기 알람이 될 경우에, 알람을 차량과 번호판의 유형과, 관리영역 유형, 관리목적 유형, 관리시간대별로 등급화해서 처리하는 포맷을 구비하여 현재 알람을 해당하는 등급에 따라 수행하는 것; 을 특징으로 하는 인공지능 알고리즘을 이용한 차량번호판 인식 방법.When a stereo image of a vehicle passing through an image monitoring area is input, a first step of extracting the type of vehicle and license plate, image structure characteristics, and image depth information from the corresponding stereo image;
a second step of collecting environmental information from the image monitoring area when the vehicle and license plate types, image structure features, and image depth information are extracted;
A third step of making the vehicle and the license plate into a three-dimensional object according to the following three-dimensional learning model of the license plate by the type of the vehicle and the license plate, image structure features and image depth information, and environmental information of the image monitoring area; and
The license plate three-dimensional learning model,
a) In the case of recognizing a license plate, a three-dimensional object is made by classifying the vehicle and license plate into image structural features and image depth according to a number of different vehicle types and license plate types, according to the type of the surrounding environment,
Define a learning model for extracting vehicle and license plate information by generating an elliptical equation on the image plane in correspondence with the vehicle and each different three-dimensional object of the license plate,
b) extracting image structure features and image depth datasets of vehicles and license plates for a number of different vehicles and license plates and types of surrounding environments;
c) attribute the extracted data set by reflecting a number of different video surveillance locations, time zones, and types of surrounding environments;
d) determining the properties of the image structure features and image depth of the vehicle and the license plate for each of a plurality of different learning models based on the attribution result,
e) normalizing the determined result,
f) Based on the normalized result, by setting the image structure features and image depth of the vehicle and the license plate for each different learning model, independent and dependent for a number of different vehicles and 3D objectization corresponding to each 3D object of the license plate set as a variable,
g) by generating the set result as learning and training data,
h) generate a license plate 3D learning model based on deep learning from the generated result,
a fourth step of extracting and recognizing the vehicle number by the three-dimensional objectized vehicle and the license plate; including,
The first step is
a step 1-1 of generating a background part by accumulating stereo images when a plurality of vehicles (multi-targets) are found in the stereo image;
a 1-2 step of calculating pixels exceeding a preset difference value based on the background part;
Steps 1-3 of obtaining a pixel region having the difference value equal to or greater than a threshold as a foreground part;
Steps 1-4 of removing the noise of the foreground part through a morphology filter;
Steps 1-5 of extracting partial contours for each of a plurality of different objects from the noise-removed foreground part using an image distribution diagram;
1-6 steps of creating a sub-body of the object by combining an area smaller than a preset minimum size in the extracted partial contour of the object with an adjacent area;
Steps 1-7 of comparing the sub-body of the created object with a preset sub-body of the vehicle and collectively extracting only the sub-body of the current vehicle;
When the sub-body of the vehicle is extracted, the first to eighth steps for estimating the overall size and position of the current vehicle by a preset format for estimating the overall size and position of the vehicle for each sub-body of different vehicles from the sub-body of the vehicle step; and
A method of integrally extracting the type of the current vehicle and license plate, and the image structure feature of the vehicle and the license plate for each vehicle by using the vehicle by vehicle and license plate type preset in the entire estimated vehicle, and the license plate image structure feature Steps 1-9; including;
Steps 1-8 are,
When the overall size and location of the vehicle are estimated by the image distribution map, the image distribution map of the current vehicle is compared from the preset abnormal vehicle image distribution map, and if it is greater than the preset difference value, an alarm is issued, and when it is less than the image distribution map, no alarm,
Steps 1-8 are,
When the alarm becomes the type, the type of vehicle and license plate, the type of management area, the type of management purpose, and a format for grading and processing by management time zone, performing the current alarm according to the corresponding grade; A vehicle license plate recognition method using an artificial intelligence algorithm, characterized in that
상기 제 2 단계는,
상기 영상감시영역 주변의 환경정보가 수집될 경우에, 다수의 상이한 영상감시 시스템 유형별로 고유한 통신데이터 특성을 오픈된 공통플랫폼 하에서 통합적으로 구성한 통신기능용 라이브러리를 미리 등록하는 제 2-1 단계;
상기 다수의 상이한 영상감시 시스템 유형 중에서 관리설정정보에 따라 어느 하나를 설정한 경우에, 상기 통신기능용 라이브러리에 의해서 해당하는 영상감시 시스템 유형의 어플리케이션과 컴포넌트를 생성하는 제 2-2 단계; 및
상기 생성된 어플리케이션과 컴포넌트에 의해 상기 영상감시영역 주변의 환경정보를 수집하는 제 2-3 단계; 를 포함하는 것을 특징으로 하는 인공지능 알고리즘을 이용한 차량번호판 인식 방법.The method according to claim 1,
The second step is
a 2-1 step of registering, in advance, a library for communication functions that integrates communication data characteristics unique to a plurality of different types of video monitoring systems under an open common platform when environmental information around the video monitoring area is collected;
a second-2 step of generating an application and a component of the corresponding video surveillance system type by the library for communication function when any one of the plurality of different video surveillance system types is set according to management setting information; and
a step 2-3 of collecting environmental information around the video surveillance area by the generated application and component; A vehicle license plate recognition method using an artificial intelligence algorithm, characterized in that it comprises a.
상기 제 2 단계는,
상기 영상감시 영역의 주변 환경정보가 수집될 경우에, 영상감시 시스템 유형별로 고유한 데이터 특성과, 어플리케이션, 제어 동작환경, 서비스를 오픈된 공통플랫폼 하에서 통합적으로 구성한 개발가이드 라이브러리를 미리 등록하는 제 2-1‘ 단계; 및
상기 영상감시 시스템 유형 중에서 관리설정정보에 따라 어느 하나를 설정한 경우에, 상기 개발가이드 라이브러리에 의해서 해당하는 영상감시 시스템 유형의 어플리케이션과 컴포넌트를 생성하는 제 2-2’ 단계; 를 더 포함하고,
상기 제 2-3 단계는,
상기 제 2-2‘ 단계에 의해 생성된 어플리케이션과 컴포넌트를 추가적으로 사용해서 상기 영상감시 영역의 주변 환경정보를 수집하는 것; 을 특징으로 하는 인공지능 알고리즘을 이용한 차량번호판 인식 방법.6. The method of claim 5,
The second step is
When the surrounding environment information of the video monitoring area is collected, the development guide library that integrates the unique data characteristics for each type of video monitoring system, applications, control operation environment, and services under an open common platform is registered in advance. -Stage 1; and
a step 2-2' of generating an application and component of the corresponding video surveillance system type by the development guide library when any one of the video surveillance system types is set according to management setting information; further comprising,
Step 2-3 is
collecting information about the surrounding environment of the video surveillance area by additionally using the application and component generated in the step 2-2'; A vehicle license plate recognition method using an artificial intelligence algorithm, characterized in that
상기 제 2 단계는,
상기 영상감시 영역의 주변 환경정보가 수집될 경우에, 해당하는 영상감시 장치를 센서노드로서 관리할 oneM2M 표준에 따른 프로토콜과, 상기 프로토콜 관리파일을 구성한 프로토콜 라이브러리를 미리 등록하고,
상기 프로토콜 라이브러리는 오픈된 공통플랫폼 하에서 영상감시 시스템 유형별로 고유한 통신데이터 특성별로 통합적으로 구성하는 제 2-1’‘ 단계; 및
상기 영상감시 시스템 유형 중에서 관리설정정보에 따라 어느 하나를 설정한 경우에, 상기 프로토콜 라이브러리에 의해서 어플리케이션과 컴포넌트를 생성하는 제 2-2’‘ 단계; 를 더 포함하고,
상기 제 2-3 단계는,
상기 제 2-2’‘ 단계에 의해 생성된 어플리케이션과 컴포넌트로도 상기 영상감시 영역의 주변 환경정보를 수집하는 것; 을 특징으로 하는 인공지능 알고리즘을 이용한 차량번호판 인식 방법.7. The method of claim 6,
The second step is
When the surrounding environment information of the video monitoring area is collected, a protocol according to the oneM2M standard for managing the video monitoring device as a sensor node, and a protocol library constituting the protocol management file are registered in advance;
A step 2-1'' of integrating the protocol library by communication data characteristics unique to each type of video surveillance system under an open common platform; and
a 2-2'' step of generating an application and a component by the protocol library when any one of the video surveillance system types is set according to management setting information; further comprising,
Step 2-3 is
collecting the surrounding environment information of the video surveillance area even with the applications and components generated in the step 2-2''; A vehicle license plate recognition method using an artificial intelligence algorithm, characterized in that
상기 제 2 단계는,
상기 영상감시 영역의 주변 환경정보가 수집될 경우에, 영상감시 시스템별로 고유한 실시간 모니터링과 제어용 어플리케이션 제작특성과, 다른 관리자와의 공유용 편집기, 상기 편집기를 통해 제어할 영상감시 시스템을 연결하는 도구를 미리 등록하고,
상기 연결된 영상감시 시스템으로부터 수집된 정보를 관리자 앱 서비스로 표현하는 컴포넌트와, 상기 컴포넌트를 제작 및 오픈 API로 등록하여 사용하는 기능도 미리 등록하는 제 2-1’‘’ 단계; 및
상기 등록된 결과를 오픈플랫폼 하에서 해당하는 서비스 앱으로 구성해서 실행파일로 생성하는 제 2-2‘’‘ 단계; 를 더 포함하고,
상기 제 2-3 단계는,
상기 생성된 실행파일에 의해서 영상감시 시스템을 실시간 모니터링과 제어하므로, 상기 영상감시 영역의 주변 환경정보를 수집하는 것; 을 특징으로 하는 인공지능 알고리즘을 이용한 차량번호판 인식 방법.8. The method of claim 7,
The second step is
When the surrounding environment information of the video monitoring area is collected, a tool for connecting the unique real-time monitoring and control application production characteristics for each video monitoring system, an editor for sharing with other managers, and a video monitoring system to be controlled through the editor pre-register,
a 2-1''' step of pre-registering a component for expressing information collected from the connected video surveillance system as a manager app service, and a function for creating and using the component as an open API; and
a 2-2''' step of composing the registered result into a corresponding service app under an open platform and generating an executable file; further comprising,
Step 2-3 is
to collect the surrounding environment information of the video monitoring area by real-time monitoring and control of the video monitoring system by the generated executable file; A vehicle license plate recognition method using an artificial intelligence algorithm, characterized in that
상기 제 2 단계는,
A) 상기 영상감시 영역의 주변 환경정보가 수집될 경우에, 영상감시 시스템의 데이터전송사양을 미리 설정된 기준 데이터전송사양과 비교해서,
B) 상기 비교 결과, 영상감시 시스템의 데이터전송사양이 상기 기준 데이터전송사양보다 이상인 경우에 현재 상태를 유지하고, 반면에 미만인 경우에는 암호화를 위한 버퍼를 할당하여 초기화하고,
C) 미리 설정된 마스터 키를 통해 암호화 키를 생성하며,
D) 상기 영상감시 영역의 주변 환경정보를 읽고,
E) 상기 주변 환경정보의 길이와, 다수의 상이한 영상감시 시스템별로 대응하여 미리 설정된 암호화 데이터 길이 중에서 해당 암호와 데이터 길이를 비교하고,
F) 상기 비교 결과, 상기 주변 환경정보의 길이가 해당하는 암호화 데이터 길이보다 작은 경우 암호화 하지 않고 전송하며, 큰 경우에는 프레임을 검출하고,
G) 확장 헤더는 확장 비트를 읽어 유무를 확인하고,
H) 상기 확인 결과, 확장 비트가 있는 경우에 페이로드 시작점 오프셋을 확장 길이만큼 이동시키고,
I) 상기 프레임과, 암호용 키, 페이로드 오프셋 정보를 파라미터로 전달받아 프레임의 페이로드 시작부분을 미리 설정된 암호화 포맷으로 부분 암호화해서 저성능 영상감시 시스템을 위한 경량 프로토콜로서 제공하는 것; 을 특징으로 하는 인공지능 알고리즘을 이용한 차량번호판 인식 방법.9. The method according to any one of claims 5 to 8,
The second step is
A) When the surrounding environment information of the video monitoring area is collected, the data transmission specification of the video monitoring system is compared with a preset reference data transmission specification,
B) As a result of the comparison, if the data transmission specification of the video surveillance system is higher than the reference data transmission specification, the current state is maintained, whereas if it is less than the data transmission specification, a buffer for encryption is allocated and initialized,
C) Generates an encryption key through a preset master key,
D) read the surrounding environment information of the video monitoring area,
E) comparing the length of the surrounding environment information and the corresponding encryption and data length among the predetermined encrypted data lengths corresponding to a plurality of different video surveillance systems,
F) As a result of the comparison, if the length of the surrounding environment information is smaller than the corresponding encrypted data length, it is transmitted without encryption, and if it is large, the frame is detected,
G) The extension header reads the extension bit to check whether there is,
H) As a result of the check, if there is an extension bit, the payload start offset is moved by the extension length,
I) receiving the frame, encryption key, and payload offset information as parameters, partially encrypting the start part of the frame's payload in a preset encryption format, and providing it as a lightweight protocol for a low-performance video surveillance system; A vehicle license plate recognition method using an artificial intelligence algorithm, characterized in that
상기 제 2 단계는,
a) 상기 영상감시 영역의 주변 환경정보를 수집하기 위해서, 미리 상이한 어플리케이션별로 해시트리를 기준으로 하위 해시값을 부여하고, 상기 해시트리의 상위 해시값을 등록해서,
현재 주변 환경정보가 수집되는데 사용하는 어플리케이션별로 해시값을 연결해서 해시노드를 형성한 경우에 보안이 된 것으로 확인하는 포맷을 등록하고,
b) 상기 영상감시 영역의 주변 환경정보가 수집될 경우에, 상기 포맷에 의해서 관련된 어플리케이션별로 해시값을 연결하여 해시노드를 형성한 경우에 한해서 보안이 된 것으로 확인하고,
c) 상기 영상감시 영역의 주변 환경정보가 수집될 경우에 추가적으로 어플리케이션 사용을 감지해서 상기 감지 결과, 어플리케이션 사용이 된 경우에 화이트 리스트 및 블랙 리스트에 기반한 사용자 선택 모드에 따라 해당 어플리케이션의 시그니처 정보를 검색하고,
d) 상기 검색 결과, 해당하는 어플리케이션 시그니처 정보가 있는 경우 자신의 어플리케이션 사용을 허용하고, 반면에 해당 어플리케이션 시그니처 정보가 없는 경우에는 자신의 어플리케이션 사용을 차단하는 것; 을 특징으로 하는 인공지능 알고리즘을 이용한 차량번호판 인식 방법.10. The method of claim 9,
The second step is
a) In order to collect the surrounding environment information of the video monitoring area, a lower hash value is given in advance based on the hash tree for each different application, and the upper hash value of the hash tree is registered,
Registers a format that confirms that it is secure when a hash node is formed by connecting a hash value for each application used to collect the current surrounding environment information,
b) When the surrounding environment information of the video monitoring area is collected, it is confirmed that security is secured only when a hash node is formed by connecting a hash value for each related application according to the format,
c) When the surrounding environment information of the video monitoring area is collected, the application is additionally detected, and, as a result of the detection, when the application is used, the signature information of the corresponding application is searched according to the user selection mode based on the white list and the black list. and,
d) as a result of the search, allowing the use of one's own application when there is corresponding application signature information, while blocking the use of one's own application when there is no corresponding application signature information; A vehicle license plate recognition method using an artificial intelligence algorithm, characterized in that
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210041301A KR102272279B1 (en) | 2021-03-30 | 2021-03-30 | Method for recognizing vehicle license plate |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210041301A KR102272279B1 (en) | 2021-03-30 | 2021-03-30 | Method for recognizing vehicle license plate |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102272279B1 true KR102272279B1 (en) | 2021-07-02 |
Family
ID=76896935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210041301A KR102272279B1 (en) | 2021-03-30 | 2021-03-30 | Method for recognizing vehicle license plate |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102272279B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102480582B1 (en) | 2021-12-15 | 2022-12-23 | 주식회사 펜타게이트 | Generating system of virtual license plate for number recognition learning and method of generating virtual license plate for number recognition learning using the same |
KR102509313B1 (en) | 2022-11-23 | 2023-03-14 | (주)정도기술 | License plate recognition method and license plate recognition system |
WO2023120743A1 (en) * | 2021-12-20 | 2023-06-29 | 한국전자기술연구원 | Context-specific training method for point cloud-based three-dimensional object recognition model |
KR102574540B1 (en) * | 2022-11-22 | 2023-09-07 | (주)와토시스 | Method and system for extracting privacy area in image |
KR102584182B1 (en) | 2023-02-17 | 2023-10-05 | 주식회사 보임 | High-speed distributed vehicle number recognition system using cloud computing technology |
WO2023234455A1 (en) * | 2022-05-31 | 2023-12-07 | 동명대학교산학협력단 | Method for recognizing and tracking underwater object using real-time image processing of sonar image |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101904120B1 (en) * | 2017-05-22 | 2018-10-04 | 동의대학교 산학협력단 | VIDEO PROCESSING Device and Method For Depth Video by Eclipse Surface Modeling |
KR20190094133A (en) * | 2019-04-16 | 2019-08-12 | 엘지전자 주식회사 | An artificial intelligence apparatus for recognizing object and method for the same |
KR102131716B1 (en) * | 2020-03-27 | 2020-07-08 | 정병석 | Method for image monotoring employing car number recognition technology |
-
2021
- 2021-03-30 KR KR1020210041301A patent/KR102272279B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101904120B1 (en) * | 2017-05-22 | 2018-10-04 | 동의대학교 산학협력단 | VIDEO PROCESSING Device and Method For Depth Video by Eclipse Surface Modeling |
KR20190094133A (en) * | 2019-04-16 | 2019-08-12 | 엘지전자 주식회사 | An artificial intelligence apparatus for recognizing object and method for the same |
KR102131716B1 (en) * | 2020-03-27 | 2020-07-08 | 정병석 | Method for image monotoring employing car number recognition technology |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102480582B1 (en) | 2021-12-15 | 2022-12-23 | 주식회사 펜타게이트 | Generating system of virtual license plate for number recognition learning and method of generating virtual license plate for number recognition learning using the same |
WO2023120743A1 (en) * | 2021-12-20 | 2023-06-29 | 한국전자기술연구원 | Context-specific training method for point cloud-based three-dimensional object recognition model |
WO2023234455A1 (en) * | 2022-05-31 | 2023-12-07 | 동명대학교산학협력단 | Method for recognizing and tracking underwater object using real-time image processing of sonar image |
KR102574540B1 (en) * | 2022-11-22 | 2023-09-07 | (주)와토시스 | Method and system for extracting privacy area in image |
KR102509313B1 (en) | 2022-11-23 | 2023-03-14 | (주)정도기술 | License plate recognition method and license plate recognition system |
KR102584182B1 (en) | 2023-02-17 | 2023-10-05 | 주식회사 보임 | High-speed distributed vehicle number recognition system using cloud computing technology |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102272279B1 (en) | Method for recognizing vehicle license plate | |
KR102272295B1 (en) | Method for improving recognition ratio of vehicle license plate employing depth information of image | |
KR102282800B1 (en) | Method for trackig multi target employing ridar and camera | |
CN110738857B (en) | Vehicle violation evidence obtaining method, device and equipment | |
KR101971878B1 (en) | Video surveillance system and method using deep-learning based car number recognition technology in multi-lane environment | |
KR102122859B1 (en) | Method for tracking multi target in traffic image-monitoring-system | |
US20060200307A1 (en) | Vehicle identification and tracking system | |
CN113496213B (en) | Method, device, system and storage medium for determining target perception data | |
KR102434154B1 (en) | Method for tracking multi target in traffic image-monitoring-system | |
KR101688218B1 (en) | System for managing traffic flow and incidents using image detection in real time based on object recognition and method for processing thereof | |
CN110222596B (en) | Driver behavior analysis anti-cheating method based on vision | |
KR102122850B1 (en) | Solution for analysis road and recognition vehicle license plate employing deep-learning | |
KR101626377B1 (en) | A system for detecting car being violated parking and stopping of based on big date using CCTV camera and black box vehicle | |
CN112351190A (en) | Digital twin monitoring system and method | |
KR101648701B1 (en) | Apparatus for recognizing vehicle number and method thereof | |
CN109637147A (en) | Vehicle electronics, the server, method collected evidence | |
WO2018193412A1 (en) | Platform for the management and validation of contents of video images, pictures or similars, generated by different devices | |
KR20200086015A (en) | Situation linkage type image analysis device | |
Chandrasekaran et al. | Computer vision based parking optimization system | |
KR102222109B1 (en) | Integrated management system of parking enforcement image through deep learning | |
CN111064924B (en) | Video monitoring method and system based on artificial intelligence | |
KR102317311B1 (en) | System for analyzing information using video, and method thereof | |
KR20220072316A (en) | Image Analysis Apparatus for Detecting Multi-object Events and Driving Method Thereof | |
CN113850112A (en) | Road condition identification method and system based on twin neural network | |
KR20210117856A (en) | Traffic information combined analysis assistance system based on license plate number recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |