KR102157989B1 - 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법 및 시스템 - Google Patents
신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법 및 시스템 Download PDFInfo
- Publication number
- KR102157989B1 KR102157989B1 KR1020200079199A KR20200079199A KR102157989B1 KR 102157989 B1 KR102157989 B1 KR 102157989B1 KR 1020200079199 A KR1020200079199 A KR 1020200079199A KR 20200079199 A KR20200079199 A KR 20200079199A KR 102157989 B1 KR102157989 B1 KR 102157989B1
- Authority
- KR
- South Korea
- Prior art keywords
- output
- vehicle
- feature map
- license plate
- processor
- Prior art date
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 title claims abstract description 19
- 210000002569 neuron Anatomy 0.000 claims description 38
- 210000004205 output neuron Anatomy 0.000 claims description 28
- 238000005516 engineering process Methods 0.000 claims description 18
- 210000002364 input neuron Anatomy 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 14
- 238000012544 monitoring process Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 6
- 230000014509 gene expression Effects 0.000 claims description 6
- 239000013585 weight reducing agent Substances 0.000 claims description 6
- 230000001105 regulatory effect Effects 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 16
- 238000011176 pooling Methods 0.000 description 15
- 239000000284 extract Substances 0.000 description 5
- 230000003252 repetitive effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 239000013078 crystal Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G06K2209/15—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법이 개시된다. 차량의 번호판의 문자를 인식하기 위해 프로세서, 메모리, 및 통신 모듈을 포함하는 상기 차량 번호 인식기에 의해 수행되는 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법은 상기 차량이 주정차가 금지된 도로에 있을 때, 상기 프로세서는 보조 카메라에 의해 상기 차량이 위치하는 지역의 이미지와, 상기 촬영된 지역의 이미지에서 추출된 관심 영역의 좌표를 수신하는 단계, 상기 프로세서는 상기 추출된 관심 영역의 좌표에 따라 카메라의 팬, 틸트, 및 줌 값들을 조정하여 상기 카메라로부터 상기 관심 영역에서 촬영된 차량의 번호판 영역을 포함하는 이미지를 수신하는 단계, 상기 프로세서는 상기 차량의 번호판 영역에서 분류된 문자 영역을 인식하는 단계, 상기 프로세서는 분류된 문자 영역을 포함하는 이미지를 수신하는 단계, 상기 프로세서는 상기 수신된 이미지에 대해 제1컨볼루션 연산을 수행하여 제1출력 피처 맵을 출력하는 단계, 상기 프로세서는 상기 출력된 제1출력 피처 맵에 대해 샘플링을 적용하여 제2출력 피처 맵을 출력하는 단계, 상기 프로세서는 상기 제2출력 피처 맵에 대해 제2컨볼루션 연산을 수행하여 제3출력 피처 맵을 출력하는 단계, 상기 프로세서는 상기 출력된 제3출력 피처 맵에 대해 샘플링을 적용하여 제4출력 피처 맵을 출력하는 단계, 상기 프로세서는 상기 출력된 제4출력 피처 맵과, 상기 문자의 특징을 수치로 표현한 것으로 정의되며, 상기 문자 영역을 일정 영역들로 나누고 각 영역에 포함된 문자의 픽셀 개수이거나, 상기 문자의 높이를 따라 여러 개로 그려진 수평 선들에 위치하는 흰 픽셀들, 또는 검은 픽셀들의 합이거나, 폭에 따라 여러 개로 그려진 수직 선들에 위치하는 흰 픽셀들, 또는 검은 픽셀들의 합으로 정의될 수 있는 미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어(fully connected layer)를 이용하여 상기 분류된 문자 영역에서 문자를 인식하는 단계, 및 상기 프로세서는 상기 도로에 불법으로 주정차된 상기 차량을 감시하기 위한 클라이언트와 통신이 가능한 모니터링 운영 서버로 상기 차량의 번호판 정보, 상기 차량의 촬영 시간, 상기 차량의 촬영 위치, 또는 상기 차량의 이미지 정보를 전송하는 단계를 포함한다.
Description
본 발명은 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법 및 시스템에 관한 것으로, 상세하게는 자동차 번호판 문자 인식의 성능을 높을 수 있는 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법 및 시스템에 관한 것이다.
도로와 같이 주차가 금지된 구역에서 주차할 경우, 교통의 흐름에 방해가 될 수 있다. 또한, 불법으로 주정차하는 차량에 의해 사람들의 안전이 위협받을 우려가 있다. 따라서 이러한 불법으로 주정차하는 차량을 단속하기 위해 차량의 번호판 인식이 요구된다.
차량의 번호판의 인식 방법은 다음과 같다. 첫 번째로 차량의 영상을 획득한다. 두 번째로 획득된 영상에서 번호판 영역을 추출한다. 마지막으로, 추출된 번호판 영역에서 문자 인식을 통해 차량의 번호판이 인식된다.
하지만, 차량과 카메라의 촬영 각도, 또는 위치에 따라 차량의 번호판이 제대로 인식되지 않을 수 있다.
상기와 같은 문제점을 개선하기 위한 새로운 번호판 인식 기술이 요구된다.
본 발명이 이루고자 하는 기술적인 과제는 차량의 번호판 영역에서 인식된 문자 영역에서 추출된 피처맵들을 CNN(Convolutional Neural Network) 알고리즘에 같이 적용하는 차량 번호판 인식 기술이 이용된 불법 주정차 단속 방법 및 시스템을 제공하는 것이다.
본 발명의 실시 예에 따른 차량의 번호판의 문자를 인식하기 위해 프로세서, 메모리, 및 통신 모듈을 포함하는 차량 번호 인식기에 의해 수행되는 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법은 상기 프로세서는 분류된 영역을 포함하는 이미지를 수신하는 단계, 상기 프로세서는 상기 수신된 이미지에 대해 제1컨볼루션 연산을 수행하여 제1출력 피처 맵을 출력하는 단계, 상기 프로세서는 상기 출력된 제1출력 피처 맵에 대해 샘플링을 적용하여 제2출력 피처 맵을 출력하는 단계, 상기 프로세서는 상기 제2출력 피처 맵에 대해 제2컨볼루션 연산을 수행하여 제3출력 피처 맵을 출력하는 단계, 상기 프로세서는 상기 출력된 제3출력 피처 맵에 대해 샘플링을 적용하여 제4출력 피처 맵을 출력하는 단계, 및 상기 프로세서는 상기 출력된 제4출력 피처 맵과, 미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어(fully connected layer)를 이용하여 상기 분류된 문자 영역에서 문자를 인식하는 단계를 포함한다.
상기 프로세서는 상기 문자 영역에 해당할 수 있는 데이터들에 대해 CNN 알고리즘 중 컨볼루션 연산들과 샘플링 연산들을 수행하여 출력된 제5출력 피처 맵과, 제2미리 설정된 피처 맵을 완전히 연결하는 제2풀리 커넥티드 레이어를 적용하여 도출된 결과 값들에 대해 상기 도출된 결과 값들의 차이와 임계값을 비교하여 혼동 가능성이 있는 문자들끼리 서로 분류하는 단계, 상기 프로세서는 상기 분류된 문자들에 따라 상기 제2미리 설정된 피처 맵을 재설정하여 제3미리 설정된 피처 맵으로 정의하는 단계, 및 상기 프로세서는 상기 혼동 가능성이 있는 문자들 중 어느 하나에 대해 상기 CNN 알고리즘을 적용하여 출력된 제6출력 피처 맵과, 상기 제3미리 설정된 피처 맵을 완전히 연결하는 제3풀리 커넥티드 레이어를 적용하여 문자를 인식하는 단계를 포함한다.
상기 제2풀리 커넥티드 레이어에 입력되는 상기 제5출력 피처 맵의 개수와 상기 제3풀리 커넥티드 레이어에 입력되는 상기 제6출력 피처 맵의 개수는 서로 다르며, 상기 제2풀리 커넥티드 레이어에 입력되는 상기 제2미리 설정된 피처맵의 개수와 상기 제3풀리 커넥티드 레이어에 입력되는 상기 제3미리 설정된 피처맵의 개수는 서로 다르다.
상기 풀리 커넥티드 레이어는 입력 레이어(input layer), 은닉 레이어(hidden layer), 및 출력 레이어(output layer)를 포함한다.
상기 은닉 레이어는 복수의 은닉 뉴런들(neurons)을 포함한다.
상기 미리 설정된 피처 맵의 특징들의 개수가 m(m은 2이상의 자연수)개이고, 상기 출력된 제4출력 피처의 특징들의 개수가 n개(n은 2이상의 자연수)일 때, 상기 복수의 은닉 뉴런들 중 j번째(j는 자연수) 은닉 뉴런의 입력 값()은 다음의 수학식으로 표현된다.
[수학식]
[수학식]
상기 는 상기 a번째 특징에 대한 j번째 가중치를, 상기 는 상기 미리 설정된 피처 맵의 특징들 중 a번째 특징을, 상기 는 상기 c번째 결과 값에 대한 j번째 가중치를, 상기 는 상기 출력된 제4출력 피처의 특징들 중 c번째 결과 값을, 상기 는 j번째 오프셋(offset)을, 상기 함수 f()는 시그모이드(sigmoid) 함수를 나타낸다.
상기 출력 레이어는 복수의 출력 뉴런들을 포함한다.
[수학식]
[수학식]
상기 는 상기 j번째 은닉 뉴런의 출력 값에 대한 k번째 가중치를, 상기 는 상기 j번째 은닉 뉴런의 출력 값을, 상기 는 k번째 오프셋을, 상기 함수 f()는 시그모이드(sigmoid) 함수를 나타낸다.
[수학식]
[수학식]
상기 는 상수로, 기존의 가중치를 줄이기 위해 가중치 감소 비율을, 상기는 가중치를 어느 정도로 업데이트할 것인지 결정하는 학습율을, 상기 는 복수의 출력 뉴런들 중 k번째 뉴런의 에러를 나타낸다. 상기 f'(zk)는 를 나타낸다.
본 발명의 실시 예에 따른 불법 주정차 단속 시스템은 차량의 번호판을 촬영하는 카메라, 및 상기 차량의 번호판을 촬영하고 촬영된 차량 번호판 이미지에서 차량의 번호판을 인식하는 차량 번호 인식기를 포함한다.
상기 차량 번호 인식기는 모니터링 운영 서버로 상기 인식된 차량의 번호를 송신하는 통신 모듈, 신경망을 이용한 차량 번호판 인식 기술에 관한 명령들을 저장하는 메모리, 및 상기 명령들을 실행하는 프로세서를 포함한다.
상기 명령들은 상기 카메라에 의해 촬영된 번호판에서 처리된 분류된 문자 영역을 포함하는 이미지를 수신하며, 상기 수신된 이미지에 대해 제1컨볼루션 연산을 수행하여 제1출력 피처 맵을 출력하며, 상기 출력된 제1출력 피처 맵에 대해 샘플링을 적용하여 제2출력 피처 맵을 출력하며, 상기 제2출력 피처 맵에 대해 제2컨볼루션 연산을 수행하여 제3출력 피처 맵을 출력하며, 상기 출력된 제3출력 피처 맵에 대해 샘플링을 적용하여 제4출력 피처 맵을 출력하며, 상기 출력된 제4출력 피처 맵과, 미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어를 이용하여 상기 분류된 문자 영역에서 문자를 인식하도록 구현된다.
본 발명의 실시 예에 따른 불법 주정차 단속 시스템은 불법 주정차 단속 시스템, 및 네트워크를 통해 상기 불법 주정차 단속 시스템과 통신하기 위한 모니터링 운영 서버를 포함한다.
상기 불법 주정차 단속 시스템은 차량의 번호판을 촬영하는 카메라, 및 상기 차량의 번호판을 촬영하고 촬영된 차량 번호판 이미지에서 차량의 번호판을 인식하는 차량 번호 인식기를 포함한다.
상기 차량 번호 인식기는 모니터링 운영 서버로 상기 인식된 차량의 번호를 송신하는 통신 모듈, 신경망을 이용한 차량 번호판 인식 기술에 관한 명령들을 저장하는 메모리, 및 상기 명령들을 실행하는 프로세서를 포함한다.
상기 명령들은 상기 카메라에 의해 촬영된 번호판에서 처리된 분류된 문자 영역을 포함하는 이미지를 수신하며, 상기 수신된 이미지에 대해 제1컨볼루션 연산을 수행하여 제1출력 피처 맵을 출력하며, 상기 출력된 제1출력 피처 맵에 대해 샘플링을 적용하여 제2출력 피처 맵을 출력하며, 상기 제2출력 피처 맵에 대해 제2컨볼루션 연산을 수행하여 제3출력 피처 맵을 출력하며, 상기 출력된 제3출력 피처 맵에 대해 샘플링을 적용하여 제4출력 피처 맵을 출력하며, 상기 출력된 제4출력 피처 맵과, 미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어를 이용하여 상기 분류된 문자 영역에서 문자를 인식하도록 구현된다.
본 발명의 실시 예에 따른 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법 및 시스템은 차량의 번호판 영역에서 인식된 문자 영역에서 추출된 피처맵들을 CNN(Convolutional Neural Network) 알고리즘에 같이 적용하여 차량 번호판을 인식함으로써 보다 정확하게 차량 번호판을 인식할 수 있어 불법 주정차 단속의 효율성을 높일 수 있다는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 일 실시 예에 따른 불법 주정차 단속 시스템의 블록도를 나타낸다.
도 2는 도 1에 도시된 카메라에 의해 촬영된 영상을 나타낸다.
도 3은 도 2에서 차량 영역을 포함하는 이미지를 나타낸다.
도 4는 도 1에 도시된 불법 주정차 단속 시스템을 포함하는 불법 주정차 통합 단속 시스템의 블록도를 나타낸다.
도 5는 도 1에 도시된 불법 주정차 단속 시스템에 의해 수행되는 차량 번호판 인식 동작을 설명하기 위한 흐름도를 나타낸다.
도 6은 도 1에 도시된 차량 번호 인식기의 동작을 설명하기 위해 차량 번호 인식기의 프로세서에 의해 처리된 이미지들을 나타낸다.
도 7은 도 6에 도시된 차량 번호 인식기의 동작을 설명하기 위해 차량 번호 인식기의 프로세서에 의해 처리된 다른 이미지들을 나타낸다.
도 8은 도 1에 도시된 프로세서에 의해 처리되는 CNN 알고리즘의 블록도를 나타낸다.
도 9는 도 8에 도시된 입력 피처 맵과 출력 피처 맵 사이의 관계를 설명하기 위한 블록도를 나타낸다.
도 10은 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 일 실시 예를 나타낸다.
도 11은 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 다른 실시 예를 나타낸다.
도 12는 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 또 다른 실시 예를 나타낸다.
도 13은 도 10에 도시된 신경망 알고리즘의 학습에 따른 과적합 왜곡의 그래프를 나타낸다.
도 14는 도 13에 도시된 과적합 왜곡의 문제점을 해소하기 위한 그래프를 나타낸다.
도 15는 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 또 다른 실시 예를 나타낸다.
도 16은 혼동가능성이 있는 숫자들의 차이를 나타내는 이미지들이다.
도 1은 본 발명의 일 실시 예에 따른 불법 주정차 단속 시스템의 블록도를 나타낸다.
도 2는 도 1에 도시된 카메라에 의해 촬영된 영상을 나타낸다.
도 3은 도 2에서 차량 영역을 포함하는 이미지를 나타낸다.
도 4는 도 1에 도시된 불법 주정차 단속 시스템을 포함하는 불법 주정차 통합 단속 시스템의 블록도를 나타낸다.
도 5는 도 1에 도시된 불법 주정차 단속 시스템에 의해 수행되는 차량 번호판 인식 동작을 설명하기 위한 흐름도를 나타낸다.
도 6은 도 1에 도시된 차량 번호 인식기의 동작을 설명하기 위해 차량 번호 인식기의 프로세서에 의해 처리된 이미지들을 나타낸다.
도 7은 도 6에 도시된 차량 번호 인식기의 동작을 설명하기 위해 차량 번호 인식기의 프로세서에 의해 처리된 다른 이미지들을 나타낸다.
도 8은 도 1에 도시된 프로세서에 의해 처리되는 CNN 알고리즘의 블록도를 나타낸다.
도 9는 도 8에 도시된 입력 피처 맵과 출력 피처 맵 사이의 관계를 설명하기 위한 블록도를 나타낸다.
도 10은 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 일 실시 예를 나타낸다.
도 11은 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 다른 실시 예를 나타낸다.
도 12는 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 또 다른 실시 예를 나타낸다.
도 13은 도 10에 도시된 신경망 알고리즘의 학습에 따른 과적합 왜곡의 그래프를 나타낸다.
도 14는 도 13에 도시된 과적합 왜곡의 문제점을 해소하기 위한 그래프를 나타낸다.
도 15는 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 또 다른 실시 예를 나타낸다.
도 16은 혼동가능성이 있는 숫자들의 차이를 나타내는 이미지들이다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.
도 1은 본 발명의 일 실시 예에 따른 불법 주정차 단속 시스템의 블록도를 나타낸다.
도 1을 참고하면, 불법 주정차 단속 시스템(100)은 도로에 불법으로 주정차된 차량을 감시한다. 불법 주정차 단속 시스템(100)은 차량의 번호판 영역에서 인식된 문자 영역에서 추출된 피처맵들을 CNN 알고리즘에 같이 적용한 번호 인식 기술이 적용된 시스템이다. 불법 주정차 단속 시스템(100)은 차량의 번호판 영역에서 인식된 문자 영역에서 추출된 피처맵들을 CNN 알고리즘에 같이 적용함으로써 차량의 번호판 인식률을 높일 수 있고, 이에 불법 주정차 차량의 단속 효율성이 증대되는 시스템이다.
불법 주정차 단속 시스템(100)은 카메라(110), 보조 카메라(121, 123), 및 차량 번호 인식기(300)를 포함할 수 있다. 또한, 실시 예에 따라 불법 주정차 단속 시스템(100)은 LED 전광판(130), 또는 스피커(미도시)를 더 포함할 수 있다. LED 전광판(130)는 주차 정보에 관한 정보가 표시될 수 있다. 예컨대, LED 전광판(130)는 '주차금지'라는 단어가 표시될 수 있다. 상기 스피커는 차량의 주정차를 금지한다는 음성을 출력한다.
카메라(110)와 보조 카메라(121, 123)는 지지대(101)의 끝 부분에 구현된 다른 지지대의 끝에 구현될 수 있다. 차량 번호 인식기(300)는 지지대(101)의 아랫부분에 위치한 별도의 박스 내부에 구현될 수 있다. 카메라(110), 보조 카메라(121, 123), LED 전광판(130), 및 차량 번호 인식기(300)는 유선, 또는 무선으로 서로 연결된다.
차량(103)이 주정차가 금지된 도로에 있을 때, 보조 카메라(121, 123)는 차량(103)이 위치하는 지역을 촬영한다.
도 2는 도 1에 도시된 카메라에 의해 촬영된 영상을 나타낸다. 도 2에서 녹색 부분은 관심 영역(Region of Interests)을 나타낸다.
도 1과 도 2를 참고하면, 보조 카메라(121, 123)는 촬영된 이미지에서 관심 영역을 추출한다. 보조 카메라(121, 123)는 추출된 관심 영역의 좌표와 촬영된 영상을 차량 번호 인식기(300)로 전송한다.
도 3은 도 2에서 차량 영역을 포함하는 이미지를 나타낸다. 즉, 도 3은 도 2의 영상에서 도출된 관심 영역을 포함하는 이미지를 나타낸다.
도 1 내지 도 3을 참고하면, 차량 번호 인식기(300)는 추출된 관심 영역의 좌표에 따라 카메라(110)의 팬(Pan), 틸트(Tilt), 또는 줌(Zoom) 값들을 조정한다. 조정된 값들에 따라 카메라(110)에 의해 관심 영역에서 차량(103)의 번호판 이미지가 취득된다.
차량 번호 인식기(300)는 카메라(110)에 의해 촬영된 차량(103)의 번호판 이미지를 수신하여 차량(103)의 번호를 식별한다. 차량 번호 인식기(300)는 프로세서(310), 메모리(320), 및 통신 모듈(330)을 포함한다. 프로세서(310)는 메모리(320)에 저장된 차량 번호 인식 기술에 관한 명령들을 실행한다. 프로세서(310)는 카메라(110)에 의해 촬영된 차량(103)의 번호판 이미지를 수신하고, 수신된 차량 번호판 이미지에 대해 차량의 번호판 영역에서 인식된 문자 영역에서 추출된 피처맵들을 CNN 알고리즘에 같이 적용하여 차량의 번호를 인식한다. 차량의 번호판 영역에서 인식된 문자 영역에서 추출된 피처맵들을 CNN 알고리즘에 같이 적용한 차량 번호판 인식 기술은 뒤에서 자세히 설명될 것이다.
실시 예에 따라 불법 주정차 단속 시스템(100)은 AMP(340)와 AVR(Automatic Voltage Regulator; 350)를 더 포함할 수 있다. AMP(340)와 AVR(350)는 차량 번호 인식기(300)와 서로 연결된다. AMP(340)는 상기 스피커를 통해 출력되는 음성을 증폭한다. AVR(350)는 불법 주정차 단속 시스템(100)이 안정적으로 전원을 공급받도록 한다.
도 4는 도 1에 도시된 불법 주정차 단속 시스템을 포함하는 불법 주정차 통합 단속 시스템의 블록도를 나타낸다.
도 1과 도 4를 참고하면, 불법 주정차 통합 단속 시스템(400)은 적어도 1개 이상의 불법 주정차 단속 시스템(100-1, 100-2, 또는 100-M; M은 자연수)과, 모니터링 운영 서버(410)를 포함한다.
적어도 1개 이상의 불법 주정차 단속 시스템(100-1, 100-2, 또는 100-M)과, 모니터링 운영 서버(410)는 유선, 또는 무선의 네트워크(401)를 통해 서로 통신할 수 있다.
복수의 불법 주정차 단속 시스템들(100-1 내지 100-M)은 서로 다른 위치에 설치될 수 있다. 모니터링 운영 서버(410)는 서로 다른 위치에 설치된 복수의 불법 주정차 단속 시스템들(100-1 내지 100-M)로부터 차량(103)의 번호판 정보, 촬영 시간, 촬영 위치, 또는 차량(103)의 이미지 정보를 수신하거나, 복수의 불법 주정차 단속 시스템들(100-1 내지 100-M) 각각을 제어할 수 있다. 복수의 불법 주정차 단속 시스템들(100-1 내지 100-M) 각각을 제어한다함은 복수의 불법 주정차 단속 시스템들(100-1 내지 100-M) 각각에 포함된 카메라의 위치를 제어하거나, 차량 번호 인식기(300)의 전원, 또는 동작을 제어할 수 있다. 예컨대, 모니터링 운영 서버(410)는 불법 주정차 단속 단속 시스템(100-1)의 전원을 켜도록 불법 주정차 단속 시스템(100-1)을 제어할 수 있다.
모니터링 운영 서버(410)는 적어도 1개 이상의 클라이언트(430)와 서로 연결되어 통신이 가능하다. 적어도 1개 이상의 클라이언트(430)는 서로 다른 불법 주정차 단속 시스템들(100-1~100-M)을 실시간으로 모니터링할 수 있다.
실시 예에 따라 불법 주정차 통합 단속 시스템(400)은 불법주정차 위반의 범침금 발행을 위한 외부연계서버(420)를 더 포함할 수 있다.
도 5는 도 1에 도시된 불법 주정차 단속 시스템에 의해 수행되는 차량 번호판 인식 동작을 설명하기 위한 흐름도를 나타낸다. 도 6은 도 1에 도시된 차량 번호 인식기의 동작을 설명하기 위해 차량 번호 인식기의 프로세서에 의해 처리된 이미지들을 나타낸다. 또한, 상기 프로세서의 동작은 도 1에 도시된 차량 번호 인식기에 포함된 메모리에 저장된 명령들을 의미한다.
도 1 내지 도 6을 참고하면, 카메라(110)는 차량의 번호판을 촬영한다(S4001).
프로세서(310)는 카메라(110)에 의해 촬영된 차량 번호판 이미지를 이진화한다(S4003). 상기 차량 번호판 이미지를 이진화하는 구체적인 알고리즘은 다음과 같다.
프로세서(310)는 차량 번호판 이미지에 DoG(Difference of Gaussian) 필터를 적용하여 텍스트 획 후보들의 수평 경계점들을 추출하고 수평 획 경계점 지도(Horizontal Stroke Boundary Map)을 생성한다. 도 6의 (b)는 수평 획 경계점 지도의 이미지를 나타낸다. 프로세서(310)는 수평 경계점 연결선의 수직방향 누적을 통해 텍스트 획 사이의 픽셀을 그룹핑하여 세그멘트(segment) 이미지를 생성한다. 도 6의 (c)는 세그먼트 이미지를 나타낸다. 프로세서(310)는 상기 세그멘트 이미지에서 각각의 텍스트가 서로 다른 색깔을 갖도록 컬러 이미지를 생성한다. 도 6의 (d)는 상기 컬러 이미지를 나타낸다. 실시 예에 따라 상기 컬러 이미지 생성 동작은 생략될 수 있다. 프로세서(310)는 상기 컬러 이미지를 흑백 이미지로 변환한다. 도 6의 (a)는 흑백 이미지를 나타낸다.
도 5를 참고하면, 프로세서(310)는 문자 덩어리 분석(character blob analysis)을 수행한다. 프로세서(310)는 픽셀 덩어리들을 각각 인덱싱하여 픽셀 덩어리들의 위치 정보와 사이즈 정보를 계산하고, 인덱싱된 픽셀 덩어리들을 해석하여 번호판 후보 문자들을 추출한다(S4004).
프로세서(310)는 상기 분석 결과에 따라 차량의 번호판 영역을 추출하고 잘라낸다(S4005). 프로세서(310)는 상기 잘라낸 번호판 영역의 선명도를 추정한다(S4006). 프로세서(310)는 선명도를 추정하고, 번호판 크기의 정규화와 기울기를 보정한다(S4007). 프로세서(310)는 선명도를 계산하고, 계산된 선명도가 일정값보다 큰지 판단한다(S4008). 프로세서(310)는 상기 계산된 선명도가 일정값보다 클 때, 선명도를 감소시킨다(S4009). 프로세서(310)는 상기 계산된 선명도가 일정값보다 작을 때, 상기 차량의 번호판 영역의 이미지를 향상시킨다(S4010).
프로세서(310)는 차량의 번호판 영역이 포함된 이미지에서 번호판 타입을 선택한다(S4011). 상기 번호판 타입은 싱글 라인(single line) 번호판, 또는 더블 라인(double line) 번호판으로 나눠질 수 있다. 또한, 상기 번호판 타입은 지명명이 포함되는지 여부로 분류될 수 있다. 프로세서(310)는 분류된 번호판 영역에서 문자 영역을 분류한다(S4012).
도 7은 도 6에 도시된 차량 번호 인식기의 동작을 설명하기 위해 차량 번호 인식기의 프로세서에 의해 처리된 다른 이미지들을 나타낸다. 구체적으로 도 7은 잘못된 문자 영역의 분류를 나타내는 이미지들이다. 분류된 번호판 영역에서 문자 영역의 분류 동작은 중요하다. 분류 동작이 잘못되면, 잘못된 문자로 인식될 수 있다.
프로세서(310)는 분류된 문자 영역에서 미리 설정된 피처 맵을 추출한다(S4013). 상기 미리 설정된 피처 맵은 문자의 특징을 수치로 표현한 것으로 정의된다. 상기 미리 설정된 피처 맵은 ANN 구조 신경망 알고리즘에서 입력으로 이용된다. 예컨대, 상기 미리 설정된 피처 맵은 문자 영역을 일정 영역들로 나누고 각 영역에 포함된 문자의 픽셀 개수로 정의될 수 있다. 또한, 상기 미리 설정된 피처 맵은 문자의 높이를 따라 여러 개로 그려진 수평 선들에 위치하는 흰 픽셀들, 또는 검은 픽셀들의 합으로 정의될 수 있다. 또한, 상기 미리 설정된 피처 맵은 폭에 따라 여러 개로 그려진 수직 선들에 위치하는 흰 픽셀들, 또는 검은 픽셀들의 합으로 정의될 수 있다.
프로세서(310)는 분류된 문자 영역에서 CNN 알고리즘을 수행하여 CNN 피처 맵을 출력한다(S4014).
프로세서(310)는 분류된 문자 영역에서 CNN 알고리즘을 수행하여 CNN 피처 맵을 출력한다(S4014).
프로세서(310)는 차량의 번호판 영역에서 인식된 문자 영역에서 추출된 피처맵들을 CNN 알고리즘에 같이 적용하여 차량 번호판을 인식한다(S4015). 즉, 프로세서(310)는 미리 설정된 피처 맵과 CNN 알고리즘을 통해 출력된 CNN 피처 맵을 입력으로 CNN 알고리즘을 적용하여 차량 번호판을 인식한다.
프로세서(310)는 문자열을 인식하고, 문자들의 종류 및 배치 규칙에 따라 오인식 여부를 판단하고, 최종 번호판 문자열 인식 결과를 출력한다(S4016).
차량의 번호판 영역에서 인식된 문자 영역에서 추출된 피처맵들을 CNN 알고리즘에 같이 적용하는 것에 대해서는 뒤에서 자세히 설명될 것이다.
도 8은 도 1에 도시된 프로세서에 의해 처리되는 CNN 알고리즘의 블록도를 나타낸다.
도 1, 도 5, 및 도 8을 참고하면, CNN(Convolutional Neural Network)는 딥 러닝(deep learning) 알고리즘으로, 이미지를 분석하는데 주로 이용된다.
CNN 알고리즘은 제1컨볼루션 레이어(convolution layer), 제1맥스 풀링 레이어(max pooling layer), 제2컨볼루션 레이어(convolution layer), 제2맥스 풀링 레이어(max pooling layer), 및 풀리 커넥티드 레이어(fully connected layer)를 포함한다.
프로세서(310)는 제1컨볼루션 레이어의 동작을 수행한다. 제1컨볼루션 레이어에서 동작은 아래와 같다.
프로세서(310)는 하나의 인식된 문자 영역을 포함하는 이미지를 수신한다. 상기 하나의 인식된 문자 영역을 포함하는 이미지에는 하나의 숫자, 하나의 영문자, 또는 하나의 한글이 포함된다. 상기 이미지는 0, 또는 1을 가지는 픽셀값들로 구성된다. 상기 이미지는 (가로 사이즈, 세로 사이즈, 채널의 수)로 표현된다. 이미지가 이진화될 때, 채널의 수는 1이다. 예컨대, 도 6에 도시된 이미지는 (28, 28, 1)로 표현될 수 있다.
프로세서(310)는 상기 수신된 이미지와 제1필터에 대해 컨볼루션 연산을 수행하여 제1컨볼루션 결과 값들을 출력한다. 상기 수신된 이미지는 입력 피처 맵(input feature map)으로 호칭될 수 있다. 상기 제1컨볼루션 결과 값들은 제1출력 피처 맵(output feature map)으로 호칭될 수 있다. 상기 제1필터는 매트릭스 형태로 구현되며, 상기 수신된 이미지에서 에지(edge)를 검출하거나 상기 수신된 이미지를 선명화하는데 이용된다. 각각의 목적에 따라 상기 매트릭스에 이용되는 정수는 다양할 수 있다. 상기 제1필터는 커널(kernel)이라고 호칭될 수 있다. 상기 제1필터는 (필터의 가로 사이즈, 필터의 세로 사이즈, 필터 채널의 수) x (필터의 개수)로 표현될 수 있다. 예컨대, 도 6에 도시된 제1필터는 (5, 5, 1) x 16으로 표현될 수 있다.
상기 컨볼루션 연산은 상기 수신된 이미지와 상기 제1필터의 컨볼루션을 의미한다. 이 때, 상기 제1필터에 가중치(weight)가 곱해질 수 있다. 컨볼루션 연산의 결과인 제1출력 피처 맵은 (가로 크기, 세로 크기, 필터의 개수)로 표현될 수 있다.
도 8에 도시된 상기 수신된 이미지인 입력 피처 맵이 (28, 28, 1)이고, 제1필터가 (5, 5, 1) x 16일 때, 제1출력 피처 맵은 (24, 24, 16)으로 표현될 수 있다.
도 9는 도 8에 도시된 입력 피처 맵과 출력 피처 맵 사이의 관계를 설명하기 위한 블록도를 나타낸다.
도 1, 및 도 5 내지 도 9을 참고하면, 입력 피처 맵이 (l-1)이고, 출력 피처 맵이 (l)이고, 필터 뱅크 w을 이용한 컨볼루션 연산은 다음의 수학식과 같다.
[수학식 1]
상기 는 k번째 피처 맵의 c번째 필터의 u행, v열에 위치한 뉴런의 가중치를, 상기는 입력 피처 맵(l-1)의 c 피처 맵의 (i+u)행, (j+v)열에 있는 뉴런의 출력을, 상기는 l층의 k번째 피처 맵의 바이어스를, 상기는 출력 피처 맵(l)의 k번째 출력 피처 맵에서 i행, j열에 위치한 뉴런의 출력을 의미한다. 상기 fc는 입력 피처 맵의 채널 개수, 상기 k는 필터 뱅크의 인덱스를, 상기 c는 입력 피처 맵의 인덱스를. 상기 u와 v는 필터의 가로, 세로 인덱스를 의미한다.
예컨대, 상기 제1맥스 풀링 레이어의 출력인 제2출력 피처 맵(12, 12, 16)이 입력 피처 맵(l-1)이고, 제2컨볼루션 레이어의 출력인 제3출력 피처 맵(10, 10, 24)이 출력 피처 맵(l)일 수 있다. 이 때, 제3필터((3, 3, 16) x 24)의 뱅크는 w일 수 있다.
도 8을 참고하면, 프로세서(310)는 제1맥스 풀링 레이어의 동작을 수행한다. 제1맥스 풀링 레이어에서 동작은 제1컨볼루션 레이어의 결과값인 제1출력 피처 맵에 제2필터를 적용하여 제2출력 피처 맵을 출력하는 것을 의미한다. 제2필터는 (필터의 가로 사이즈, 필터의 세로 사이즈)로 표현될 수 있다. 예컨대, 도 8에 도시된 제2필터는 (2, 2)로 표현될 수 있다.
도 8에 도시된 제1출력 피처 맵이 (24, 24, 16)이고, 제2필터가 (2, 2)일 때, 제2출력 피처 맵은 (12, 12, 16)으로 표현될 수 있다.
제1맥스 풀링 레이어에서의 연산은 아래의 수학식과 같이 표현될 수 있다.
[수학식 2]
여기서, 상기 m과 상기 n은 각각 필터의 가로와 세로의 크기를 나타내며, 상기 s와 상기 t는 입력 피처 맵의 샘플링 영역 인덱스를 나타낸다.
프로세서(310)는 제2컨볼루션 레이어의 동작을 수행한다. 제2컨볼루션 레이어에서 동작은 제1컨볼루션 레이어에서의 동작과 유사하다. 즉, 프로세서(310)는 제1맥스 풀링 레이어의 출력인 제2출력 피처 맵과 제3필터를 컨볼루션하여 제3출력 피처 맵을 출력한다. 상기 제3필터는 상기 제1필터와 다른 필터일 수 있다. 도 6에 도시된 상기 수신된 이미지인 제2출력 피처 맵이 (12, 12, 16)이고, 제3필터가 (3, 3, 16) x 24일 때, 제3출력 피처 맵은 (10, 10, 24)으로 표현될 수 있다.
프로세서(310)는 제2맥스 풀링 레이어의 동작을 수행한다. 제2맥스 풀링 레이어에서 동작은 아래와 같다. 제2맥스 풀링 레이어에서 동작은 제1맥스 풀링 레이어에서의 동작과 유사하다. 즉, 프로세서(310)는 제2컨볼루션 레이어의 출력인 제3출력 피처 맵에 제4필터를 적용하여 제4출력 피처 맵을 출력한다. 상기 제4필터는 상기 제2필터와 다른 필터일 수 있다. 도 6에 도시된 제3출력 피처 맵이 (10, 10, 24)이고, 제4필터가 (2, 2)일 때, 제4출력 피처 맵은 (5, 5, 24)으로 표현될 수 있다.
프로세서(310)는 풀리 커넥티드 레이어의 동작을 수행한다. 풀리 커넥티드 레이어에서 동작은 아래와 같다. 풀리 커넥티드 레이어는 복수의 풀리 커넥티드 레이어들을 포함한다. 제1풀리 커넉티드 레이어와 제2풀리 커넥티드 레이어 각각은 (입력 뉴런의 개수, 출력 뉴런의 개수)로 표현된다. 제1풀리 커넥티드 레이어에서 입력 뉴런의 개수는 600개이며, 제1풀리 커넥티드 레이어에서 출력 뉴런의 개수는 200개일 수 있다. 제1풀리 커넥티드 레이어의 입력 뉴런은 제4출력 피처 맵(5, 5, 24)에서 도출된다. 제1풀리 커넥티드 레이어의 j번째 출력 뉴런()은 다음의 수학식과 같이 표현될 수 있다.
[수학식 3]
또한, 제2풀리 커넥티드 레이어에서 입력 뉴런의 개수는 제1풀리 커넥티드 레이어의 출력 뉴런의 개수인 200개이며, 제2풀리 커넥티드 레이어의 출력 뉴런의 개수인 10개일 수 있다. 제2풀리 커넥티트 레이어의 k번째 뉴런의 가중 합의 입력값 z와 출력 값은 O은 아래의 수학식과 같이 표현될 수 있다.
[수학식 4]
프로세서(310)는 복수의 서로 다른 이미지들을 수신하여 CNN 알고리즘인 제1컨볼루션 레이어, 제1맥스 풀링 레이어, 제2컨볼루션 레이어, 제2맥스 풀링 레이어, 및 풀리 커넥티드 레이어의 동작들을 반복하여 CNN 알고리즘을 학습시킨다. 학습에 따라 풀리 커넥티드 레이어의 가중치와 컨볼루션 레이어들의 필터 가중치가 업데이트된다.
도 10은 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 일 실시 예를 나타낸다. 도 11은 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 다른 실시 예를 나타낸다. 도 12는 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 또 다른 실시 예를 나타낸다.
도 1, 및 도 10 내지 도 12를 참고하면, 프로세서(310)는 하나의 인식된 문자 영역을 포함하는 이미지를 수신한다. 프로세서(310)는 상기 수신된 이미지에 대해 제1컨볼루션 연산을 수행하여 제1출력 피처 맵을 출력한다.
프로세서(310)는 상기 제1출력 피처 맵에 대해 샘플링을 적용하여 제2출력 피처 맵을 출력한다. 즉, 프로세서(310)는 제1맥스 풀링 레이어의 동작을 수행한다.
프로세서(310)는 상기 출력된 제2출력 피처 맵에 대해 제2컨볼루션 연산을 수행하여 제3출력 피처 맵을 출력한다.
프로세서(310)는 상기 출력된 제3출력 피처 맵에 대해 샘플링을 적용하여 제4출력 피처 맵을 출력한다. 즉, 프로세서(310)는 제2맥스 풀링 레이어의 동작을 수행한다.
프로세서(310)는 상기 출력된 제4출력 피처 맵과, 미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어(fully connected layer)를 이용하여 상기 하나의 인식된 문자 영역에서 문자를 인식한다.
상기 풀리 커넥티드 레이어는 입력 레이어(input layer), 은닉 레이어(hidden layer), 및 출력 레이어(output layer)를 포함한다.
상기 은닉 레이어와 상기 출력 레이어는 복수의 은닉 뉴런들(neurons)을 포함한다. 상기 은닉 레이어는 (은닉 레이어의 입력 뉴런의 개수, 은닉 레이어의 출력 뉴런의 개수)로 표현될 수 있다. 상기 출력 레이어는 (출력 레이어의 입력 뉴런의 개수, 출력 레이어의 출력 뉴런의 개수)로 표현될 수 있다. 예컨대, 도 9에 도시된 은닉 레이어의 (840, 60)는 은닉 레이어의 입력 뉴런의 개수가 840개이고, 은닉 레이어의 출력 뉴런의 개수가 60개임을 의미한다. 또한, 도 9에 도시된 출력 레이어의 (60, 10)는 출력 레이어의 입력 뉴런의 개수가 60개이며, 출력 레이어의 출력 뉴런의 개수가 10개임을 의미한다.
상기 미리 설정된 피처 맵의 특징들의 개수가 m(m은 2이상의 자연수)개이고, 상기 출력된 제4출력 피처의 특징들의 개수가 n개(n은 2이상의 자연수)일 때, 상기 복수의 은닉 뉴런들 중 j번째(j는 자연수) 은닉 뉴런의 입력 값()은 다음의 수학식으로 표현된다.
[수학식 5]
[수학식 6]
상기 는 상기 a번째 특징에 대한 j번째 가중치를, 상기 는 상기 미리 설정된 피처 맵의 특징들 중 a번째 특징을, 상기 는 상기 c번째 결과 값에 대한 j번째 가중치를, 상기 는 상기 출력된 제4출력 피처의 특징들 중 c번째 결과 값을, 상기 는 j번째 오프셋(offset)을, 상기 함수 f()는 시그모이드(sigmoid) 함수를 나타낸다.
상기 미리 설정된 피처 맵의 특징들끼리만 서로 연결되며, 상기 출력된 제4출력 피처의 특징들끼리만 서로 연결된다.
[수학식 7]
[수학식 8]
[수학식 9]
[수학식 10]
상기 E는 10개의 뉴런들의 전체 에러를 나타낸다.
프로세서(310)는 출력된 제4출력 피처 맵과, 미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어(fully connected layer)에서도 전체 에러(E)를 줄이기 위해 가중치(W)를 업데이트한다.
j번째 은닉 뉴런의 출력 값에 대한 k번째 가중치의 오차와, 상기 i번째 입력 뉴런의 출력 값에 대한 j번째 가중치의 오차는 에러 역전파(error backpropagation) 알고리즘으로 계산될 수 있다.
[수학식 11]
[수학식 12]
상기 는 상기 j번째 은닉 뉴런의 출력 값에 대한 k번째 가중치의 오차를, 상기 는 상기 i번째 입력 뉴런의 출력 값에 대한 j번째 가중치의 오차를 나타낸다. 상기 은 학습율을 나타낸다. 상기 f'(zk)는 를 나타낸다.
프로세서(310)는 은닉 레이어와 출력 레이어에서 가중치들의 오차를 계산하고, 아래의 수학식을 이용하여 기존의 가중치들을 업데이트한다.
[수학식 13]
차량의 번호판 영역에서 인식된 문자 영역에서 추출된 피처맵들을 CNN 알고리즘에 같이 적용한 불법 주정차 통합 단속 시스템(400)은 차량의 번호판 영역에서 인식된 문자 영역에서 추출된 피처맵들을 CNN 알고리즘에 같이 적용하여 차량 번호판을 인식함으로써 CNN 알고리즘만을 이용하여 차량 번호판을 인식하는 것보다 정확하게 차량 번호판을 인식할 수 있다는 장점이 있다.
도 13은 도 10에 도시된 신경망 알고리즘의 학습에 따른 과적합 왜곡의 그래프를 나타낸다.
도 13을 참고하면, 가중치들을 업데이트하기 위해 반복적으로 신경망 알고리즘을 학습시킬 때, 도 13에 도시된 바와 같이 결정면이 왜곡될 수 있다. 특히, 결정면의 근처의 샘플들의 분류 능력이 떨어질 수 있다. 가중치들을 과도하게 업데이트하여 분류 능력이 떨어지는 현상을 오버-피팅(over-fitting) 또는 과적합이라 한다.
도 14는 도 13에 도시된 과적합 왜곡의 문제점을 해소하기 위한 그래프를 나타낸다. 도 14의 X축은 반복 학습의 횟수를 의미하며, Y축은 정확도를 나타낸다.
도 1과 도 14를 참고하면, 반복 학습의 횟수가 증가할수록 객체 분류의 정확도가 증가하지 않는다. 반복 학습의 횟수가 과다하게 수행될 때, 오버-피팅의 문제가 발생할 수 있다. 반복 학습의 횟수가 너무 적게 수행될 때, 정확도가 떨어지는 언더-피팅(under-fitting)의 문제가 발생할 수 있다.
오버-피팅의 문제를 해결하기 위해 프로세서(310)는 아래와 같은 수학식들을 적용한다.
[수학식 14]
상기 는 상기 i번째 입력 뉴런의 출력 값에 대한 j번째 가중치의 오차를 , 상기 는 상수로, 기존의 가중치를 줄이기 위해 가중치 감소 비율을, 상기는 가중치를 어느 정도로 업데이트할 것인지 결정하는 학습율을 나타낸다. 상기 는 상기 i번째 입력 뉴런의 출력 값에 대한 j번째 가중치를 나타낸다.
[수학식 15]
상기 는 상기 j번째 은닉 뉴런의 출력 값에 대한 k번째 가중치의 오차를, 상기 는 상수로, 기존의 가중치를 줄이기 위해 가중치 감소 비율을, 상기는 가중치를 어느 정도로 업데이트할 것인지 결정하는 학습율을, 상기 는 복수의 출력 뉴런들 중 k번째 뉴런의 에러를 나타낸다. 상기 는 상기 j번째 은닉 뉴런의 출력 값에 대한 k번째 가중치를 나타낸다.
상기 수학식 14와 수학식 15는 상기 수학식 11과 수학식 12와는 다르다. 상기 수학식 14와 수학식 15를 이용하여 가중치를 업데이트할 때, 큰 가중치에 대해 가중치를 어느 정도 감소시킴으로써 오버-피팅의 문제를 해결할 수 있다.
도 15는 도 1에 도시된 프로세서에 의해 처리되는 신경망 알고리즘의 블록도의 또 다른 실시 예를 나타낸다.
도 1과 도 15를 참고하면, 프로세서(310)는 상기 출력된 제4출력 피처 맵과 상기 미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어를 이용하여 출력된 결과 값들의 차이와 임계값을 비교하여 상기 출력된 결과 값들을 통해 기대되는 문자가 아닌 다른 문자로 인식하는 혼동 가능성이 있는지를 판단한다. 도 15에서 도시된 분류기에 의해 혼동 가능성이 판단된다. 예컨대, 숫자 3과 8은 주변 빛의 영향이나, 카메라의 촬영 각도 때문에 혼동 가능성이 있을 수 있다. 숫자 3을 포함하는 이미지에서 인식을 통해 기대되는 문자는 3이지만, 다른 문자 8로 인식될 수 있다. 반대로, 기대되는 문자가 8일 때, 다른 문자 3으로 인식될 수도 있다.
숫자 3을 포함하는 이미지에 대해 상기 출력 피처 맵과 상기 미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어를 적용하여 도출된 결과 값들은 숫자 3일 확률이 0.7, 숫자 8일 확률이 0.6일 수 있다. 상기 도출된 결과 값들(예컨대, 0.7과 0.6)의 차이(0.1)는 상기 임계값(예컨대, 0.2)보다 작을 때, 다른 문자로의 혼동 가능성이 있다고 판단될 수 있다. 따라서 상기 풀리 커넥티드 레이어를 적용하여 도출된 결과 값들을 통해 기대되는 숫자 3이 아닌 다른 숫자 8로의 혼동 가능성이 있다고 판단될 수 있다.
프로세서(310)는 상기 출력된 결과 값들을 통해 상기 기대되는 문자가 아닌 다른 문자로 인식하는 혼동 가능성이 있다고 판단될 때, 상기 미리 설정된 피처 맵을 재설정하여 제2미리 설정된 피처 맵으로 정의한다. 이 때, 상기 미리 설정된 피처 맵은 제1미리 설정된 피처 맵으로 호칭될 수 있다.
상기 재설정은 혼동 가능성이 있는 문자들을 명확히 구별하기 위해 미리 설정된 피처 맵의 개수를 증가시키는 것을 의미한다. 혼동 가능성이 있는 문자들(예컨대, 3과 8)에서 서로 구별 문자의 특징(예컨대, 대칭성, 또는 선의 연결 여부)을 나타낼 수 있는 피처 맵(예컨대, 문자 가운데를 기준으로 왼쪽 어느 하나의 픽셀과 오른쪽 하나의 픽셀이 서로 대응하는지 여부, 또는 검은 픽셀이 계속 연결되는지 여부)이 추가될 수 있다.
상기 제1미리 설정된 피처 맵과 상기 제2미리 설정된 피처 맵은 ANN 구조 신경망에서 입력으로 이용된다. 예컨대, 상기 제1, 2미리 설정된 피처 맵은 문자 영역을 일정 영역들로 나누고 각 영역에 포함된 문자의 픽셀 개수로 정의될 수 있다. 또한, 상기 제1, 2미리 설정된 피처 맵은 문자의 높이를 따라 여러 개로 그려진 수평 선들에 위치하는 흰 픽셀들, 또는 검은 픽셀들의 합으로 정의될 수 있다. 또한, 상기 제1, 2미리 설정된 피처 맵 폭에 따라 여러 개로 그려진 수직 선들에 위치하는 흰 픽셀들, 또는 검은 픽셀들의 합으로 정의될 수 있다. 다만, 상기 제2미리 설정된 피처 맵은 상기 제1미리 설정된 피처 맵과 달리 혼동 가능성이 있는 문자들을 명확히 구분하기 위해 설정된다는 점에서 다르다.
도 16은 혼동가능성이 있는 숫자들의 차이를 나타내는 이미지들이다.
도 16을 참고하면, 숫자 8은 빨간 선을 중심으로 대칭이며, 숫자 3은 빨간 선을 중심으로 대칭이지 않다. 상기 제2미리 설정된 피처 맵은 이러한 숫자의 대칭성을 판단할 수 있도록 설정될 수 있다.
또한, 도 16을 참고하면, 숫자 8의 왼쪽 사각형 부분은 검은색 픽셀들이 연결되어 있으나, 숫자 3의 왼쪽 사각형 부분은 검은색 픽셀들이 서로 연결되어 있지 않다. 실시 예에 따라 상기 제2미리 설정된 피처 맵은 이러한 픽셀의 연결성을 판단할 수 있도록 설정될 수 있다.
프로세서(310)는 상기 분류된 문자 영역을 포함하는 이미지에 대해 상기 CNN 알고리즘을 재적용하여 출력된 제5출력 피처 맵과, 상기 제2미리 설정된 피처 맵을 완전히 연결하는 제2풀리 커넥티드 레이어를 적용하여 문자를 인식한다. 상기 출력된 제4출력 피처 맵과 상기 제1미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어는 제1풀리 커넥티드 레이어로 호칭될 수 있다.
상기 혼동 가능성이 있는 문자들을 명확히 인식하기 위해 상기 제2풀리 커넥티드 레이어를 적용하는 동작을 수행한다. 상기 적용된 CNN 알고리즘은 상기 제4출력 피처 맵의 출력 과정에서 이용된 가중치들과 같다.
상기 제1풀리 커넥티드 레이어에 입력되는 상기 제4출력 피처 맵의 개수와 상기 제2풀리 커넥티드 레이어에 입력되는 상기 제5출력 피처 맵의 개수는 서로 다르다. 예컨대, 상기 제4출력 피처 맵의 개수가 상기 제5출력 피처 맵의 개수보다 많을 수 있다. 상기 제4출력 피처 맵의 개수가 n개일 때, 상기 제5출력 피처 맵의 개수는 q(q는 n보다 작은 자연수)개일 수 있다.
상기 제1풀리 커넥티드 레이어에 입력되는 상기 제1미리 설정된 피처 맵의 개수와 상기 제2풀리 커넥티드 레이어에 입력되는 상기 제2미리 설정된 피처 맵의 개수는 서로 다르다. 예컨대, 상기 제1미리 설정된 피처 맵의 개수가 상기 제2미리 설정된 피처 맵의 개수보다 적을 수 있다. 상기 제1미리 설정된 피처 맵의 개수가 m개일 때, 상기 제2미리 설정된 피처 맵의 개수는 p(p는 m보다 큰 자연수)개일 수 있다. 상기 제2미리 설정된 피처 맵의 개수를 상기 제1미리 설정된 피처 맵의 개수보다 많게 함으로써 혼동 가능성이 있는 문자들을 명확히 구분할 수 있다. 즉, 상기 제2미리 설정된 피처 맵의 개수를 증가시킴으로써 상기 제1미리 설정된 피처 맵보다 문자의 특징을 보다 많이 추출할 수 있다.
상기 제4출력 피처 맵의 개수와 상기 제1미리 설정된 피처 맵의 개수의 합과 상기 제5출력 피처 맵의 개수와 상기 제2미리 설정된 피처 맵의 개수는 같다.
상기 제1풀리 커넥티드 레이어의 은닉 레이어와 출력 레이어에서 가중치들과 상기 제2풀리 커넥티드 레이어의 은닉 레이어와 출력 레이어에서 가중치들은 같다.
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
100: 불법 주정차 단속 시스템;
110: 카메라;
121, 123: 보조 카메라;
130: LED 전광판;
300: 차량 번호 인식기;
400: 불법 주정차 통합 단속 시스템;
410: 모니터링 운영 서버;
430: 클라이언트;
110: 카메라;
121, 123: 보조 카메라;
130: LED 전광판;
300: 차량 번호 인식기;
400: 불법 주정차 통합 단속 시스템;
410: 모니터링 운영 서버;
430: 클라이언트;
Claims (5)
- 차량의 번호판의 문자를 인식하기 위해 프로세서, 메모리, 및 통신 모듈을 포함하는 차량 번호 인식기에 의해 수행되는 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법은,
상기 차량이 주정차가 금지된 도로에 있을 때, 상기 프로세서는 보조 카메라에 의해 상기 차량이 위치하는 지역의 이미지와, 상기 촬영된 지역의 이미지에서 추출된 관심 영역의 좌표를 수신하는 단계;
상기 프로세서는 상기 추출된 관심 영역의 좌표에 따라 카메라의 팬, 틸트, 및 줌 값들을 조정하여 상기 카메라로부터 상기 관심 영역에서 촬영된 차량의 번호판 영역을 포함하는 이미지를 수신하는 단계;
상기 프로세서는 상기 차량의 번호판 영역에서 분류된 문자 영역을 인식하는 단계;
상기 프로세서는 분류된 문자 영역을 포함하는 이미지를 수신하는 단계;
상기 프로세서는 상기 수신된 이미지에 대해 제1컨볼루션 연산을 수행하여 제1출력 피처 맵을 출력하는 단계;
상기 프로세서는 상기 출력된 제1출력 피처 맵에 대해 샘플링을 적용하여 제2출력 피처 맵을 출력하는 단계;
상기 프로세서는 상기 제2출력 피처 맵에 대해 제2컨볼루션 연산을 수행하여 제3출력 피처 맵을 출력하는 단계;
상기 프로세서는 상기 출력된 제3출력 피처 맵에 대해 샘플링을 적용하여 제4출력 피처 맵을 출력하는 단계;
상기 프로세서는 상기 출력된 제4출력 피처 맵과, 상기 문자의 특징을 수치로 표현한 것으로 정의되며, 상기 문자 영역을 일정 영역들로 나누고 각 영역에 포함된 문자의 픽셀 개수이거나, 상기 문자의 높이를 따라 여러 개로 그려진 수평 선들에 위치하는 흰 픽셀들, 또는 검은 픽셀들의 합이거나, 폭에 따라 여러 개로 그려진 수직 선들에 위치하는 흰 픽셀들, 또는 검은 픽셀들의 합으로 정의될 수 있는 미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어(fully connected layer)를 이용하여 상기 분류된 문자 영역에서 문자를 인식하는 단계; 및
상기 프로세서는 상기 도로에 불법으로 주정차된 상기 차량을 감시하기 위한 클라이언트와 통신이 가능한 모니터링 운영 서버로 상기 차량의 번호판 정보, 상기 차량의 촬영 시간, 상기 차량의 촬영 위치, 또는 상기 차량의 이미지 정보를 전송하는 단계를 포함하는 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법. - 제1항에 있어서, 상기 풀리 커넥티드 레이어는,
입력 레이어(input layer), 은닉 레이어(hidden layer), 및 출력 레이어(output layer)를 포함하며,
상기 은닉 레이어는 복수의 은닉 뉴런들(neurons)을 포함하며,
상기 미리 설정된 피처 맵의 특징들의 개수가 m(m은 2이상의 자연수)개이고, 상기 출력된 제4출력 피처의 특징들의 개수가 n개(n은 2이상의 자연수)일 때,
상기 복수의 은닉 뉴런들 중 j번째(j는 자연수) 은닉 뉴런의 입력 값()은 다음의 수학식으로 표현되며,
[수학식]
상기 복수의 은닉 뉴런들 중 j번째(j는 자연수) 은닉 뉴런의 출력 값()은 다음의 수학식으로 표현되며,
[수학식]
상기 는 상기 a번째 특징에 대한 j번째 가중치를, 상기 는 상기 미리 설정된 피처 맵의 특징들 중 a번째 특징을, 상기 는 상기 c번째 결과 값에 대한 j번째 가중치를, 상기 는 상기 출력된 제4출력 피처의 특징들 중 c번째 결과 값을, 상기 는 j번째 오프셋(offset)을, 상기 함수 f()는 시그모이드(sigmoid) 함수를 나타내는 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법. - 제2항에 있어서,
상기 출력 레이어는 복수의 출력 뉴런들을 포함하며,
상기 복수의 출력 뉴런들 중 k번째(k는 자연수) 출력 뉴런의 입력 값()은 다음의 수학식으로 표현되며,
[수학식]
상기 복수의 출력 뉴런들 중 k번째(k는 자연수) 출력 뉴런의 출력 값()은 다음의 수학식으로 표현되며,
[수학식]
상기 는 상기 j번째 은닉 뉴런의 출력 값에 대한 k번째 가중치를, 상기 는 상기 j번째 은닉 뉴런의 출력 값을, 상기 는 k번째 오프셋을, 상기 함수 f()는 시그모이드(sigmoid) 함수를 나타내는 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법. - 제3항에 있어서,
상기 i번째 입력 뉴런의 출력 값에 대한 j번째 가중치의 오차인 상기 는 다음의 수학식으로 표현되며,
[수학식]
상기 는 상수로, 기존의 가중치를 줄이기 위해 가중치 감소 비율을, 상기는 가중치를 어느 정도로 업데이트할 것인지 결정하는 학습율을 나타내며,
상기 j번째 은닉 뉴런의 출력 값에 대한 k번째 가중치의 오차인 상기 는 다음의 수학식으로 표현되며,
[수학식]
상기 는 상수로, 기존의 가중치를 줄이기 위해 가중치 감소 비율을, 상기는 가중치를 어느 정도로 업데이트할 것인지 결정하는 학습율을, 상기 는 복수의 출력 뉴런들 중 k번째 뉴런의 에러를, 상기 f'(zk)는 를 나타내는 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법. - 차량이 주정차가 금지된 도로에 있을 때, 상기 차량이 위치하는 지역의 이미지와, 상기 촬영된 지역의 이미지에서 추출된 관심 영역의 좌표를 전송하는 보조 카메라;
상기 추출된 관심 영역의 좌표에 따라 팬, 틸트, 및 줌 값들을 조정하여 상기 관심 영역에서 차량의 번호판 영역을 포함하는 이미지를 촬영하여 전송하는 카메라; 및
상기 보조 카메라로부터 상기 추출된 관심 영역의 좌표를 수신하고, 상기 추출된 관심 영역의 좌표에 따라 상기 카메라를 조정하는 차량 번호 인식기를 포함하며,
상기 차량 번호 인식기는,
신경망을 이용한 차량 번호판 인식 기술에 관한 명령들을 저장하는 메모리; 및
상기 명령들을 실행하는 프로세서를 포함하며,
상기 명령들은,
상기 카메라에 의해 촬영된 번호판에서 분류된 문자 영역을 포함하는 이미지를 수신하며, 상기 수신된 이미지에 대해 제1컨볼루션 연산을 수행하여 제1출력 피처 맵을 출력하며, 상기 출력된 제1출력 피처 맵에 대해 샘플링을 적용하여 제2출력 피처 맵을 출력하며, 상기 제2출력 피처 맵에 대해 제2컨볼루션 연산을 수행하여 제3출력 피처 맵을 출력하며, 상기 출력된 제3출력 피처 맵에 대해 샘플링을 적용하여 제4출력 피처 맵을 출력하며, 상기 출력된 제4출력 피처 맵과, 상기 문자의 특징을 수치로 표현한 것으로 정의되며, 상기 문자 영역을 일정 영역들로 나누고 각 영역에 포함된 문자의 픽셀 개수이거나, 상기 문자의 높이를 따라 여러 개로 그려진 수평 선들에 위치하는 흰 픽셀들, 또는 검은 픽셀들의 합이거나, 폭에 따라 여러 개로 그려진 수직 선들에 위치하는 흰 픽셀들, 또는 검은 픽셀들의 합으로 정의될 수 있는 미리 설정된 피처 맵을 완전히 연결하는 풀리 커넥티드 레이어를 이용하여 상기 분류된 문자 영역에서 문자를 인식하며, 상기 도로에 불법으로 주정차된 상기 차량을 감시하기 위한 클라이언트와 통신이 가능한 모니터링 운영 서버로 상기 차량의 번호판 정보, 상기 차량의 촬영 시간, 상기 차량의 촬영 위치, 또는 상기 차량의 이미지 정보를 전송하도록 구현되는 불법 주정차 단속 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200079199A KR102157989B1 (ko) | 2020-06-29 | 2020-06-29 | 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200079199A KR102157989B1 (ko) | 2020-06-29 | 2020-06-29 | 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법 및 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102157989B1 true KR102157989B1 (ko) | 2020-09-18 |
Family
ID=72670287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200079199A KR102157989B1 (ko) | 2020-06-29 | 2020-06-29 | 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102157989B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749701A (zh) * | 2021-01-22 | 2021-05-04 | 北京百度网讯科技有限公司 | 车牌污损分类模型的生成方法和车牌污损分类方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101986592B1 (ko) * | 2019-04-22 | 2019-06-10 | 주식회사 펜타게이트 | 앵커박스 및 cnn 특징 맵을 이용한 차량 번호 인식 장치 및 방법 |
KR101999985B1 (ko) | 2016-03-10 | 2019-07-15 | 주식회사한맥아이피에스 | 차량 번호판 인식 방법과 시스템 |
US20200034647A1 (en) * | 2018-07-27 | 2020-01-30 | JENOPTIK Traffic Solutions UK Ltd | Method and apparatus for recognizing a license plate of a vehicle |
KR102116797B1 (ko) * | 2018-06-14 | 2020-05-29 | 주식회사 메인시스 | 주차장 출입 시스템 및 그 제어 방법 |
KR102122560B1 (ko) * | 2018-11-22 | 2020-06-12 | 삼성생명보험주식회사 | 글자 인식 모델의 업데이트 방법 |
US20200193232A1 (en) * | 2016-12-23 | 2020-06-18 | Shenzhen Institute Of Advanced Technology | License plate recognition method, device thereof, and user equipment |
-
2020
- 2020-06-29 KR KR1020200079199A patent/KR102157989B1/ko active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101999985B1 (ko) | 2016-03-10 | 2019-07-15 | 주식회사한맥아이피에스 | 차량 번호판 인식 방법과 시스템 |
US20200193232A1 (en) * | 2016-12-23 | 2020-06-18 | Shenzhen Institute Of Advanced Technology | License plate recognition method, device thereof, and user equipment |
KR102116797B1 (ko) * | 2018-06-14 | 2020-05-29 | 주식회사 메인시스 | 주차장 출입 시스템 및 그 제어 방법 |
US20200034647A1 (en) * | 2018-07-27 | 2020-01-30 | JENOPTIK Traffic Solutions UK Ltd | Method and apparatus for recognizing a license plate of a vehicle |
KR102122560B1 (ko) * | 2018-11-22 | 2020-06-12 | 삼성생명보험주식회사 | 글자 인식 모델의 업데이트 방법 |
KR101986592B1 (ko) * | 2019-04-22 | 2019-06-10 | 주식회사 펜타게이트 | 앵커박스 및 cnn 특징 맵을 이용한 차량 번호 인식 장치 및 방법 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749701A (zh) * | 2021-01-22 | 2021-05-04 | 北京百度网讯科技有限公司 | 车牌污损分类模型的生成方法和车牌污损分类方法 |
CN112749701B (zh) * | 2021-01-22 | 2024-02-09 | 北京百度网讯科技有限公司 | 车牌污损分类模型的生成方法和车牌污损分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102030628B1 (ko) | Cnn 기반 차량 번호판 인식 방법 및 시스템 | |
CN110298338B (zh) | 一种文档图像分类方法及装置 | |
Björklund et al. | Robust license plate recognition using neural networks trained on synthetic images | |
KR101970442B1 (ko) | Fast R-CNN 기반 차량검출을 이용한 불법 주정차 단속 시스템 | |
CN109740478B (zh) | 车辆检测及识别方法、装置、计算机设备及可读存储介质 | |
KR101179497B1 (ko) | 얼굴 검출 방법 및 장치 | |
KR102194890B1 (ko) | 신경망을 이용한 차량 번호판 인식 기술이 적용된 무인 단속 및 도로 방범 방법 및 시스템 | |
JP4723582B2 (ja) | 交通標識検出方法 | |
Alefs et al. | Road sign detection from edge orientation histograms | |
US10445602B2 (en) | Apparatus and method for recognizing traffic signs | |
KR102161949B1 (ko) | 신경망을 이용한 차량 번호판 인식 기술이 적용된 통합 주차 관리 방법 및 시스템 | |
CN111985403B (zh) | 一种基于人脸姿态估计和视线偏离的分心驾驶检测方法 | |
CN112686248B (zh) | 证件增减类别检测方法、装置、可读存储介质和终端 | |
CN111931683B (zh) | 图像识别方法、装置及计算机可读存储介质 | |
CN111242046B (zh) | 一种基于图像检索的地面交通标志识别方法 | |
KR102161948B1 (ko) | 신경망을 이용한 차량 번호판 인식 기술이 적용된 주차 유도 시스템 및 이의 주차 차량 위치 정보 제공 방법 | |
KR102157990B1 (ko) | 신경망을 이용한 차량 번호판 인식 방법 및 시스템 | |
KR102157989B1 (ko) | 신경망을 이용한 차량 번호판 인식 기술이 적용된 불법 주정차 단속 방법 및 시스템 | |
CN109670455A (zh) | 计算机视觉车道线检测系统及其检测方法 | |
Yazdian et al. | Automatic Ontario license plate recognition using local normalization and intelligent character classification | |
Oh et al. | Traffic light recognition based on one-dimensional convolutional neural network | |
Jain et al. | Number plate detection using drone surveillance | |
Horak | Fatigue features based on eye tracking for driver inattention system | |
KR102326185B1 (ko) | 딥러닝을 이용한 얼굴 매칭 방법 및 장치 | |
Ağgül et al. | Development of a Counterfeit Vehicle License Plate Detection System by Using Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |