KR101965294B1 - Method, apparatus and system for detecting light car - Google Patents

Method, apparatus and system for detecting light car Download PDF

Info

Publication number
KR101965294B1
KR101965294B1 KR1020180142615A KR20180142615A KR101965294B1 KR 101965294 B1 KR101965294 B1 KR 101965294B1 KR 1020180142615 A KR1020180142615 A KR 1020180142615A KR 20180142615 A KR20180142615 A KR 20180142615A KR 101965294 B1 KR101965294 B1 KR 101965294B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
light
input
input image
Prior art date
Application number
KR1020180142615A
Other languages
Korean (ko)
Inventor
전명진
김중근
윤영일
조상재
박서빈
Original Assignee
아마노코리아 주식회사
모바일파킹 유한회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아마노코리아 주식회사, 모바일파킹 유한회사 filed Critical 아마노코리아 주식회사
Priority to KR1020180142615A priority Critical patent/KR101965294B1/en
Application granted granted Critical
Publication of KR101965294B1 publication Critical patent/KR101965294B1/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • G07B15/02Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points taking into account a variable factor such as distance or time, e.g. for passenger transport, parking systems or car rental systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • G06K2209/23
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed are a method for determining a compact car, an apparatus thereof, and a system thereof. The apparatus for determining a compact car uses a deep learning algorithm to determine whether a photographed car is a compact car. The apparatus performs preprocessing for an input image of the photographed car to generate a preprocessed image in order to increase accuracy of the determination. By precisely determining whether a car is a compact car using the preprocessed image, a service for the compact car such as a compact car discount or the like can be automatically performed even if car driver information or car information are not provided from the outside.

Description

경차 판별을 위한 방법, 장치 및 시스템{METHOD, APPARATUS AND SYSTEM FOR DETECTING LIGHT CAR}[0001] METHOD, APPARATUS AND SYSTEM FOR DETECTING LIGHT CAR,

아래의 실시예들은 딥러닝 알고리즘을 사용하는 영상 인식을 위한 방법, 장치 및 시스템에 관한 것으로 보다 상세히는 경차 판별을 위한 방법, 장치 및 시스템이 개시된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following embodiments relate to a method, apparatus and system for image recognition using a deep-running algorithm, and more particularly to a method, apparatus and system for determining lightness.

주차장을 이용하는 차량에 대하여, 요금 할인과 같은 다양한 혜택이 적용되고 있다. 그러나, 이러한 요금 할인을 위해서, 대부분 사람의 육안 또는 별도의 쿠폰이나 할인권을 사용하여 할인 처리가 이루어지고 있다.Various benefits such as rate discounts are applied to vehicles that use parking lots. However, in order to discount such a rate, discount processing is performed using most people's eyes or a separate coupon or discount coupon.

시스템에 의한 자동적인 할인 처리를 위해서는 지방자치단체 또는 정부에서 차량 정보를 공유해 줄 필요가 있으나, 개인 정보 보호 등의 목적에 의해 차량 정보의 공유는 현실적으로 불가능한 실정이다.For automatic discount processing by the system, it is necessary for the local government or the government to share the vehicle information, but it is impossible to share the vehicle information for the purpose of protecting the personal information.

지속적인 인건비 증가로 인하여 주차장 운영관리비에 대한 부담이 가중되고 있는 현실에서, 시스템에 의해 자동으로 할인 처리를 할 수 있게 하는 기술 개발이 절실하게 요구되고 있다.In the reality that the burden on parking lot management and administration expenses is increasing due to the continuous increase of labor costs, it is urgently required to develop a technology that can automatically perform discount processing by the system.

주차장을 이용하는 차량들 중에서 경차의 비중은 10%~20% 정도이다. 경차는 가장 높은 비중을 차지하며, 경차에 대한 할인 처리가 자동으로 이루어진다면 인건비가 감소되는 등 주차장 운영에 있어서 큰 도움이 될 것이다.Of the vehicles using the parking lot, the share of light vehicles is around 10% ~ 20%. If a discount is automatically applied to a light car, the cost of labor will be reduced and it will be a great help in parking lot operation.

한국 공개 특허 제10-2008-0022719호, 2008년 3월 12일 공개 (명칭: 경차 판별 장치 및 그 방법)Korean Patent Laid-Open No. 10-2008-0022719, published on March 12, 2008 (name: light vehicle discrimination device and method thereof)

일 실시예는 딥러닝 알고리즘을 사용하여 경차 여부를 판별하는 방법, 장치 및 시스템을 제공한다.One embodiment provides a method, apparatus, and system for determining whether a light vehicle is a light vehicle using a deep running algorithm.

일 실시예는 전처리된 이미지를 딥러닝 알고리즘에 제공하여 경차 여부의 판별의 정확도를 향상시키는 방법, 장치 및 시스템을 제공한다.One embodiment provides a method, apparatus, and system for providing a pre-processed image to a deep-running algorithm to improve the accuracy of determining whether a light or dark is present.

일 측에 있어서, 차량이 촬영된 입력 이미지를 수신하는 통신부; 상기 입력 이미지에 대한 전처리를 수행하여 전처리된 이미지를 생성하고, 딥러닝 알고리즘에 전처리된 이미지를 입력하여 촬영된 상기 차량이 경차인지 여부를 나타내는 딥러닝 알고리즘의 결과를 생성하는 처리부를 포함하는 경차 판별 장치가 제공된다.A communication unit, at one side, for receiving an input image from which a vehicle is photographed; And a processor for generating a preprocessed image by performing preprocessing on the input image and generating a result of a deep learning algorithm indicating whether the taken vehicle is a light vehicle by inputting a preprocessed image in a deep learning algorithm Device is provided.

상기 경차 판별 장치는, 상기 차량을 촬영하여 상기 입력 이미지를 생성하는 촬영부를 더 포함할 수 있다.The light-vehicle discriminating apparatus may further include a photographing unit photographing the vehicle and generating the input image.

상기 처리부는 상기 입력 이미지에 대한 크롭을 수행하여 상기 이미지의 크기를 조정할 수 있다.The processing unit may adjust the size of the image by performing cropping on the input image.

상기 처리부는 상기 입력 이미지에 대한 히스토그램 이퀄라이제이션을 수행하여 상기 이미지의 픽셀들이 기정의된 범위 내의 값들을 가지도록 조정할 수 있다.The processing unit may perform histogram equalization on the input image to adjust the pixels of the image to have values within a predetermined range.

상기 처리부는 상기 입력 이미지에 대한 평균 값 빼기를 수행하여 상기 입력 이미지의 픽셀들의 값들의 평균을 조정할 수 있다.The processing unit may perform an average value subtraction on the input image to adjust an average of the values of the pixels of the input image.

상기 처리부는 상기 딥러닝 알고리즘에 상기 전처리된 이미지를 입력하여 경차 점수 및 비-경차 점수를 결정하고, 상기 경차 점수 및 상기 비-경차 점수를 사용하여 상기 차량이 경차일 확률을 계산할 수 있다.The processor may input the preprocessed image to the deep learning algorithm to determine a light vehicle score and a non-light vehicle score, and calculate a probability that the vehicle is a light vehicle using the light vehicle score and the non-light vehicle score.

상기 처리부는 상기 딥러닝 알고리즘의 기정의된 개수의 레이어들에 대한 입력 값들이 일정한 분포를 갖도록 상기 입력 값을 조정할 수 있다.The processor may adjust the input values so that input values for a predefined number of layers of the deep learning algorithm have a constant distribution.

상기 입력 값은 상기 입력 이미지의 픽셀들의 값들을 포함할 수 있다.The input value may include values of pixels of the input image.

상기 처리부는 상기 딥러닝 알고리즘의 첫 번째의 레이어에 바이어스가 존재하지 않는 선형 모델에 상기 입력 이미지에 대한 상기 전처리를 적용함으로써 상기 차량이 경차인지 여부에 대한 판단의 정확도를 향상시킬 수 있다.The processor can improve the accuracy of the determination as to whether the vehicle is a light vehicle by applying the preprocessing for the input image to a linear model where there is no bias in the first layer of the depth learning algorithm.

다른 일 측에 있어서, 차량이 촬영된 입력 이미지를 수신하는 단계; 상기 입력 이미지에 대한 전처리를 수행하여 전처리된 이미지를 생성하는 단계; 및 딥러닝 알고리즘에 전처리된 이미지를 입력하여 촬영된 상기 차량이 경차인지 여부를 나타내는 딥러닝 알고리즘의 결과를 생성하는 단계를 포함하는 경차 판별 방법이 제공된다.On another side, receiving a captured input image of a vehicle; Performing preprocessing on the input image to generate a preprocessed image; And generating a result of a deep learning algorithm indicating whether the taken vehicle is a light vehicle by inputting a preprocessed image into a deep learning algorithm.

상기 전처리된 이미지를 생성하는 단계는, 상기 입력 이미지에 대한 크롭을 수행하여 크롭된 이미지를 생성하는 단계; 상기 크롭된 이미지에 대한 히스토그램 이퀄라이제이션을 수행하여 히스토그램 이퀄라이제이션된 이미지를 생성하는 단계; 및 상기 히스토그램 이퀄라이제이션된 이미지에 대한 평균 값 빼기를 수행하여 평균 값 조정된 이미지를 생성하는 단계를 포함할 수 있다.Wherein the generating the preprocessed image comprises: generating a cropped image by performing cropping on the input image; Performing a histogram equalization on the cropped image to generate a histogram equalized image; And performing an average value subtraction on the histogram equalized image to generate an average value adjusted image.

상기 전처리된 이미지는 상기 평균 값 조정된 이미지일 수 있다.The preprocessed image may be the average value adjusted image.

상기 결과를 생성하는 단계는, 상기 딥러닝 알고리즘에 상기 전처리된 이미지를 입력하여 경차 점수 및 비-경차 점수를 결정하는 단계; 및 상기 경차 점수 및 상기 비-경차 점수를 사용하여 상기 차량이 경차일 확률을 계산하는 단계를 포함할 수 있다.Generating the result comprises: inputting the preprocessed image to the deep learning algorithm to determine a light vehicle score and a non-light vehicle score; And calculating the probability that the vehicle is a light vehicle using the light vehicle score and the non-light vehicle score.

상기 확률이 특정된 범위 내의 값이면, 상기 딥러닝 알고리즘에 상기 전처리된 이미지 및 촬영된 차랑이 경차인지 여부를 나타내는 경차 정보가 입력되어 딥러닝 알고리즘의 학습이 수행될 수 있다.If the probability is a value within a specified range, the depth learning algorithm may be performed by inputting the pre-processed image and the lightness information indicating whether the photographed image is a light vehicle or not.

상기 차량에 대해서 상기 차량이 경차인 경우에 제공되는 서비스가 적용된 경우 경차 정보는 상기 차량이 경차임을 나타낼 수 있고, 상기 차량에 대해서 상기 차량이 경차인 경우에 제공되는 서비스가 적용되지 않은 경우 상기 경차 정보는 상기 차량이 경차가 아님을 나타낼 수 있다.The light vehicle information may indicate that the vehicle is a light vehicle when the service provided when the vehicle is a light vehicle and the light vehicle information may indicate that the vehicle is a light vehicle, The information may indicate that the vehicle is not a light vehicle.

상기 딥러닝 알고리즘의 기정의된 개수의 레이어들에 대한 입력 값들이 일정한 분포를 갖도록 상기 입력 값이 조정될 수 있다.The input values may be adjusted such that the input values for the predefined number of layers of the deep learning algorithm have a constant distribution.

상기 입력 값은 상기 입력 이미지의 픽셀들의 값들을 포함할 수 있다.The input value may include values of pixels of the input image.

상기 딥러닝 알고리즘의 첫 번째의 레이어에 바이어스가 존재하지 않는 선형 모델에 상기 입력 이미지에 대한 상기 전처리를 적용함으로써 상기 차량이 경차인지 여부에 대한 판단의 정확도가 향상될 수 있다.The accuracy of the determination as to whether the vehicle is a light vehicle can be improved by applying the preprocessing for the input image to a linear model in which there is no bias in the first layer of the deep learning algorithm.

상기 차량이 촬영된 이미지에서 상기 차량의 크기, 상기 차량의 길이, 상기 차량의 높이 및 상기 차량의 형태 중 적어도 하나가 도출될 수 있다.At least one of the size of the vehicle, the length of the vehicle, the height of the vehicle and the shape of the vehicle can be derived from the captured image of the vehicle.

상기 차량의 길이, 상기 차량의 높이 및 상기 차량의 형태 중 적어도 하나가, 상기 딥러닝 알고리즘의 입력 값으로 사용될 수 있다.At least one of the length of the vehicle, the height of the vehicle, and the shape of the vehicle can be used as an input value of the deep learning algorithm.

상기 차량이 촬영된 이미지에서 상기 차량의 브랜드를 나타내는 마크, 상기 차량의 제조사를 나타내는 문자열 및 상기 차량의 차종을 나타내는 문자열 중 적어도 하나가 검출될 수 있다.At least one of a mark representing the brand of the vehicle, a character string representing the manufacturer of the vehicle, and a character string representing the vehicle type of the vehicle may be detected in the captured image of the vehicle.

상기 차량의 브랜드를 나타내는 마크, 상기 차량의 제조사를 나타내는 문자열 및 상기 차량의 차종을 나타내는 문자열 중 적어도 하나가, 상기 딥러닝 알고리즘의 입력 값으로 사용될 수 있다.At least one of a mark representing the brand of the vehicle, a character string representing the manufacturer of the vehicle, and a character string representing the vehicle type of the vehicle may be used as an input value of the deep learning algorithm.

또 다른 일 측에 있어서, 경차 판별 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체가 제공된다.On another aspect, there is provided a computer-readable recording medium containing a program for performing a light-discern discrimination method.

딥러닝 알고리즘을 사용하여 경차 여부를 판별하는 방법, 장치 및 시스템이 제공된다.A method, apparatus and system for determining whether a light vehicle is a light vehicle using a deep running algorithm are provided.

전처리된 이미지를 딥러닝 알고리즘에 제공하여 경차 여부의 판별의 정확도를 향상시키는 방법, 장치 및 시스템이 제공된다.A method, apparatus and system are provided for providing a preprocessed image to a deep-running algorithm to improve the accuracy of determining whether a light vehicle is a light vehicle.

도 1는 일 실시예에 따른 경차 판별 장치의 구조를 나타낸다.
도 2는 일 실시예에 따른 경차 판별 방법의 흐름도이다.
도 3은 일 예에 따른 영 중심(Zero Centered) 보정을 나타낸다.
도 4는 일 예에 따른 바이어스 값의 부재에 따른 입력 값의 정규화를 나타낸다.
도 5는 일 예에 따른 입력 이미지에 대한 전처리를 나타낸다.
도 6는 일 예에 따른 전처리의 효과를 나타낸다.
도 7은 일 예에 따른 경차 판별의 결과를 나타낸다.
FIG. 1 shows a structure of a light vehicle discriminating apparatus according to an embodiment.
2 is a flowchart of a method of discriminating a light vehicle according to an embodiment.
Figure 3 shows a zero centered correction according to an example.
FIG. 4 illustrates normalization of an input value according to an absence of a bias value according to an example.
5 shows a pre-processing for an input image according to an example.
6 shows the effect of the pretreatment according to an example.
Fig. 7 shows the result of the discrimination of the minor car according to an example.

후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.The following detailed description of exemplary embodiments refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments. These embodiments are described in sufficient detail to enable those skilled in the art to practice the embodiments. It should be understood that the various embodiments are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the location or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the embodiments. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the exemplary embodiments is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained.

도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.In the drawings, like reference numerals refer to the same or similar functions throughout the several views. The shape and size of the elements in the figures may be exaggerated for clarity.

실시예에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 실시예에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않으며, 추가적인 구성이 예시적 실시예들의 실시 또는 예시적 실시예들의 기술적 사상의 범위에 포함될 수 있음을 의미한다. 어떤 구성요소(component)가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기의 2개의 구성요소들이 서로 간에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 상기의 2개의 구성요소들의 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.The terms used in the examples are intended to illustrate the embodiments and are not intended to limit the invention. In the examples, the singular includes the plural unless otherwise stated in the specification. It is noted that the terms "comprises" and / or "comprising" used in the specification are intended to be inclusive in a manner similar to the components, steps, operations, and / And that additional configurations may be encompassed within the scope of the embodiments of the exemplary embodiments or the technical ideas of the exemplary embodiments. When it is mentioned that a component is "connected" or "connected" to another component, the two components may be directly connected or connected to each other, It is to be understood that other components may be present in the middle of the components.

제1 및 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기의 구성요소들은 상기의 용어들에 의해 한정되어서는 안 된다. 상기의 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하여 지칭하기 위해서 사용된다. 예를 들어, 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms first and second, etc. may be used to describe various components, but the components should not be limited by the terms above. The above terms are used to distinguish one component from another. For example, without departing from the scope of the right, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

또한, 실시예들에 나타나는 구성요소들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성요소가 분리된 하드웨어나 하나의 소프트웨어 구성 단위로만 이루어짐을 의미하지 않는다. 즉, 각 구성요소는 설명의 편의상 각각의 구성요소로 나열된 것이다. 예를 들면, 구성요소들 중 적어도 두 개의 구성요소들이 하나의 구성요소로 합쳐질 수 있다. 또한, 하나의 구성요소가 복수의 구성요소들로 나뉠 수 있다. 이러한 각 구성요소의 통합된 실시예 및 분리된 실시예 또한 본질에서 벗어나지 않는 한 권리범위에 포함된다.In addition, the elements shown in the embodiments are shown independently to represent different characteristic functions, and do not mean that each element is composed of separate hardware or a single software constituent unit. That is, each component is listed as each component for convenience of explanation. For example, at least two of the components may be combined into a single component. Also, one component can be divided into a plurality of components. The integrated embodiments and the separate embodiments of each of these components are also included in the scope of the right without departing from the essence.

또한, 일부의 구성요소는 본질적인 기능을 수행하는 필수적인 구성요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성요소일 수 있다. 실시예들은 실시예의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 예를 들면, 단지 성능 향상을 위해 사용되는 구성요소와 같은, 선택적 구성요소가 제외된 구조 또한 권리 범위에 포함된다.Also, some components are not essential components to perform essential functions, but may be optional components only to improve performance. Embodiments may be implemented only with components that are essential to implementing the essentials of the embodiments, and structures within which the optional components are excluded, such as, for example, components used only for performance enhancement, are also included in the scope of the right.

이하에서는, 기술분야에서 통상의 지식을 가진 자가 실시예들을 용이하게 실시할 수 있도록 하기 위하여, 첨부된 도면을 참조하여 실시예들을 상세히 설명하기로 한다. 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to facilitate embodiments of the present invention by those skilled in the art. In the following description of the embodiments, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear.

차량의 입차 시, 진입하는 차량의 전면 및 후면의 차량 번호판이 영상으로서 촬영되며, 촬영된 차량 번호판의 차량 번호가 인식되는데, 이 때 촬영된 영상을 경차 판별을 위한 프로세스에 입력함에 따라 차량이 경차인지 여부에 대한 결과가 판별될 수 있다. 차량이 경차인지 여부에 대한 정확한 판별을 위해서는, 촬영된 영상에 대한 전처리 작업이 요구된다.When entering the vehicle, the license plates on the front and rear sides of the entering vehicle are photographed as images, and the license plate number of the photographed license plates is recognized. At this time, as the photographed images are input to the process for discriminating the light cars, The result of whether or not it can be determined. In order to accurately determine whether the vehicle is a light vehicle, a preprocessing operation is required on the photographed image.

도 1는 일 실시예에 따른 경차 판별 장치의 구조를 나타낸다.FIG. 1 shows a structure of a light vehicle discriminating apparatus according to an embodiment.

경차 판별 장치(100)는 처리부(110), 통신부(120) 및 저장부(130)의 적어도 일부를 구성요소들로서 포함할 수 있다. 구성요소들은 하나 이상의 통신 버스 또는 신호 선을 통해 서로 간에 통신할 수 있다.The light discriminating apparatus 100 may include at least a part of the processing unit 110, the communication unit 120, and the storage unit 130 as components. The components may communicate with each other via one or more communication buses or signal lines.

도 1에서 경차 판별 장치(100)에 대하여 도시된 구성요소들은 단지 일 예일 수 있다. 도시된 구성요소들의 모두가 경차 판별 장치(100)에 대하여 필수적인 것은 아닐 수 있다. 경차 판별 장치(100)는 도 1에서 도시된 것에 비해 더 많거나 더 적은 구성요소들을 가질 수 있다. 또한, 도 1에서 도시된 2 개 이상의 구성요소들은 결합될 수 있다. 또한, 구성요소들은 도 1에서 도시된 것에 비해 다르게 구성(configure)되거나 배치될 수 있다. 각 구성요소는 하나 이상의 신호 프로세싱 및/또는 주문형 반도체(Application Specific Integrated Circuit; ASIC) 등을 비롯한 하드웨어로 구현되거나, 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 조합으로 구현될 수 있다.The components shown with respect to the minor discrimination device 100 in Fig. 1 may be only one example. All of the illustrated components may not be essential to the light discriminating apparatus 100. [ The light discriminating apparatus 100 may have more or fewer components than those shown in Fig. Further, two or more components shown in Fig. 1 may be combined. In addition, the components may be configured or arranged differently than shown in FIG. Each component may be implemented in hardware, including one or more signal processing and / or application specific integrated circuits (ASICs), or in software, or in a combination of hardware and software.

처리부(110)는 경차 판별 장치(100)의 동작을 위해 요구되는 작업을 처리할 수 있다. 처리부(110)는 실시예들에서 설명되는 처리부(110)의 동작 또는 단계의 코드를 실행(execute)할 수 있다.The processing unit 110 can process a job required for the operation of the light-dark discriminating apparatus 100. [ The processing unit 110 may execute the code of the operation or step of the processing unit 110 described in the embodiments.

처리부(110)는 경차 판별 장치(100)로 입력되거나, 경차 판별 장치(100)에서 출력되거나, 경차 판별 장치(100)에서 발생한 신호, 데이터 또는 정보의 생성 및 처리를 수행할 수 있고, 신호, 데이터 또는 정보에 관련된 검사, 비교 및 판단 등을 수행할 수 있다. 말하자면, 실시예에서 데이터 또는 정보의 생성 및 처리와 데이터 또는 정보에 관련된 검사, 비교 및 판단은 처리부(110)에 의해 수행될 수 있다.The processing unit 110 can generate and process signals, data, or information generated by the light discriminating apparatus 100, which are input to the light discriminating apparatus 100, outputted from the light discriminating apparatus 100, Compare, and judge related to data or information. In other words, in the embodiment, the generation and processing of data or information and the inspection, comparison and judgment related to data or information can be performed by the processing unit 110. [

예를 들면, 처리부(110)는 적어도 하나의 프로세서(processor)일 수 있다.For example, the processing unit 110 may be at least one processor.

프로세서는 하드웨어 프로세서일 수 있고, 중앙 처리 장치(Central Processing Unit; CPU)일 수 있다. 프로세서는 복수일 수 있다. 또는, 프로세서는 복수의 코어(core)들을 포함할 수 있으며, 복수의 프로세스들 및/또는 복수의 쓰레드들을 동시에 실행하는 멀티-테스킹(multi-tasking)을 제공할 수 있다. 복수의 프로세서들, 복수의 코어들, 복수의 프로세스들 및/또는 복수의 쓰레드들을 통해 실시예들의 단계들 중 적어도 일부는 복수의 대상들에 대해 병렬로 수행될 수 있다.The processor may be a hardware processor and may be a central processing unit (CPU). The processor may be plural. Alternatively, the processor may include a plurality of cores and may provide multi-tasking that simultaneously executes a plurality of processes and / or a plurality of threads. At least some of the steps of the embodiments may be performed in parallel for a plurality of objects through a plurality of processors, a plurality of cores, a plurality of processes, and / or a plurality of threads.

예를 들면, 처리부(110)는 실시예들에서 설명되는 경차 판별 장치(100)의 동작 또는 단계의 코드를 실행할 수 있다.For example, the processing unit 110 may execute the code of the operation or step of the light-discriminating apparatus 100 described in the embodiments.

예를 들면, 처리부(110)는 프로그램(program)을 구동(run)할 수 있다. 처리부(110)는 프로그램을 구성하는 코드(code)를 실행할 수 있다. 프로그램은 경차 판별 장치(100)의 운영 체제(Operating System; OS), 시스템 프로그램(system program), 어플리케이션(application) 및 앱(app)을 포함할 수 있다.For example, the processing unit 110 may run a program. The processing unit 110 can execute a code (code) constituting a program. The program may include an operating system (OS), a system program, an application, and an app of the light vehicle discrimination apparatus 100.

또한, 처리부(110)는 앞서 설명된 처리부(110)의 기능을 위해 경차 판별 장치(100)의 다른 구성요소들을 제어할 수 있다.In addition, the processing unit 110 may control other components of the light discriminating apparatus 100 for the function of the processing unit 110 described above.

통신부(120)는 경차 판별 장치(100)의 동작을 위해 사용되는 데이터 또는 정보를 수신할 수 있으며, 경차 판별 장치(100)의 동작을 위해 사용되는 데이터 또는 정보를 전송할 수 있다. The communication unit 120 may receive data or information used for the operation of the light discriminating apparatus 100 and may transmit data or information used for the operation of the light discriminating apparatus 100. [

통신부(120)는 경차 판별 장치(100)가 연결된 네트워크 내의 다른 장치로 데이터 또는 정보를 전송할 수 있고, 다른 장치로부터 데이터 또는 정보를 수신할 수 있다. 말하자면, 실시예에서 데이터 또는 정보의 전송 또는 수신은 통신부(120)에 의해 수행될 수 있다.The communication unit 120 may transmit data or information to another device in the network to which the light-vehicle discrimination device 100 is connected, and may receive data or information from another device. In other words, in the embodiment, the transmission or reception of data or information can be performed by the communication unit 120. [

예를 들면, 통신부(120)는 네트워킹 칩(chip), 네트워킹 인터페이스(interface) 또는 통신 포트(port)일 수 있다.For example, the communication unit 120 may be a networking chip, a networking interface, or a communication port.

저장부(130)는 경차 판별 장치(100)의 동작을 위해 사용되는 데이터 또는 정보를 저장할 수 있다. 실시예에서, 경차 판별 장치(100)가 갖는 데이터 또는 정보는 저장부(130) 내에 저장될 수 있다.The storage unit 130 may store data or information used for the operation of the light-scene discrimination apparatus 100. [ In the embodiment, the data or information of the light discrimination apparatus 100 may be stored in the storage unit 130. [

예를 들면, 저장부(130)는 메모리(memory)일 수 있다. 저장부(130)는 램(RAM) 및 플레시(flash) 메모리 등과 같은 내장형의 저장 매체를 포함할 수 있고, 메모리 카드 등과 같은 탈착가능한 저장 매체를 포함할 수 있다.For example, the storage unit 130 may be a memory. The storage unit 130 may include a built-in storage medium such as a RAM and a flash memory, and may include a removable storage medium such as a memory card or the like.

저장부(130)는 적어도 하나의 프로그램을 저장할 수 있다. 처리부(110)는 적어도 하나의 프로그램을 실행할 수 있다. 처리부(110)는 저장부(130)로부터 적어도 하나의 프로그램의 코드를 독출(read)할 수 있고, 독출된 코드를 실행할 수 있다.The storage unit 130 may store at least one program. The processing unit 110 may execute at least one program. The processing unit 110 can read the code of at least one program from the storage unit 130 and execute the readout code.

경차 판별 장치(100)의 처리부(110), 통신부(120) 및 저장부(130)의 동작, 기능 및 특징에 대해서 실시예들을 참조하여 아래에서 상세하게 설명된다.Operations, functions, and characteristics of the processing unit 110, the communication unit 120, and the storage unit 130 of the light vehicle discrimination apparatus 100 will be described in detail below with reference to embodiments.

경차 판별 장치(100)는 촬영부(140)를 더 포함할 수 있다. 촬영부(140)는 대상을 촬영함으로써 대상의 이미지를 생성할 수 있다.The light-scene discrimination apparatus 100 may further include a photographing unit 140. The photographing unit 140 can generate an image of the object by photographing the object.

도 2는 일 실시예에 따른 경차 판별 방법의 흐름도이다.2 is a flowchart of a method of discriminating a light vehicle according to an embodiment.

단계(210)에서, 촬영부(140)는 차량을 촬영하여 차량이 촬영된 입력 이미지를 생성할 수 있다.In step 210, the photographing unit 140 may photograph the vehicle to generate an input image from which the vehicle is photographed.

촬영부(140)는 카메라일 수 있다. 촬영부(140)는 주차장으로 진입하는 차량 또는 주차장으로부터 진출하는 차량을 촬영할 수 있다.The photographing unit 140 may be a camera. The photographing unit 140 can photograph a vehicle entering the parking lot or a vehicle advancing from the parking lot.

단계(220)에서, 통신부(120)는 입력 이미지를 수신할 수 있다.In step 220, the communication unit 120 may receive an input image.

단계(230)에서, 처리부(110)는 입력 이미지에 대한 전처리를 수행하여 전처리된 이미지를 생성할 수 있다.In step 230, the processing unit 110 may perform preprocessing on the input image to produce a preprocessed image.

단계(230)은 단계들(231, 232 및 233)의 적어도 일부를 포함할 수 있다.Step 230 may include at least a portion of steps 231, 232, and 233.

후술될 것과 같이, 처리부(210)는 전처리된 이미지를 생성함에 있어서, 크롭된 이미지, 히스토그램 이퀄라이제이션된 이미지 및/또는 평균 값 조정된 이미지를 생성할 수 있다.As will be described below, the processing unit 210 may generate a cropped image, a histogram equalized image, and / or an averaged-value adjusted image in generating the preprocessed image.

단계(231)에서, 처리부(110)는 입력 이미지에 대한 크롭(crop)을 수행하여 입력 이미지의 크기를 조정할 수 있다.In step 231, the processing unit 110 may crop the input image to adjust the size of the input image.

처리부(110)는 입력 이미지에 대한 크롭을 수행하여 크롭된 이미지를 생성할 수 있다.The processing unit 110 may perform cropping on an input image to generate a cropped image.

크롭된 이미지는 기정의된 크기를 가질 수 있다.The cropped image may have a predetermined size.

예를 들면, 크롭된 이미지의 픽셀들의 차원은 (224, 224, 3)일 수 있다. 차원에서, 첫 번째의 숫자는 이미지의 폭, 두 번째의 숫자는 이미지의 높이, 세 번째의 숫자는 채널의 개수를 나타낼 수 있다.For example, the dimension of the pixels of the cropped image may be (224, 224, 3). In the dimension, the first number is the width of the image, the second number is the height of the image, and the third number is the number of channels.

단계(232)에서, 처리부(110)는 입력 이미지에 대하여 히스토그램 이퀄라이제이션(Histogram Equalization; HE)을 적용하여 입력 이미지의 픽셀들이 기정의된 범위 내의 값들을 가지도록 조정할 수 있다. 기정의된 범위는 0부터 1일 수 있다.In step 232, the processing unit 110 may apply Histogram Equalization (HE) on the input image to adjust the pixels of the input image to have values within a predetermined range. The default range can be from 0 to 1.

처리부(110)는 입력 이미지에 대하여 히스토그램 이퀄라이제이션을 적용하여 입력 이미지의 픽셀들이 제1 기정의된 범위 내의 값들을 갖도록 변환한 후, 다시 입력 이미지의 픽셀들이 제2 기정의된 범위 내의 값들을 갖도록 보정할 수 있다. 제1 기정의된 범위는 0부터 255일 수 있다. 제2 기정의된 범위는 0부터 1일 수 있다. 예를 들면, 처리부(110)는 입력 이미지에 대하여 히스토그램 이퀄라이제이션을 적용하여 입력 이미지의 픽셀들이 0 내지 255의 값들을 갖도록 변환한 후, 다시 입력 이미지의 픽셀들이 0 내지 1의 값들을 갖도록 보정할 수 있다.The processing unit 110 applies histogram equalization to the input image to convert the pixels of the input image to have values within the first predetermined range and then to correct the pixels of the input image again to have values within the second predetermined range can do. The first defined range may be from 0 to 255. < RTI ID = 0.0 > The second predetermined range may be from 0 to 1. For example, the processing unit 110 can apply the histogram equalization to the input image to convert the pixels of the input image to have values of 0 to 255, and then correct the pixels of the input image to have values of 0 to 1 have.

또는, 처리부(110)는 크롭된 이미지에 대한 히스토그램 이퀄라이제이션을 수행하여 히스토그램 이퀄라이제이션된 이미지를 생성할 수 있다. 히스토그램 이퀄라이제이션된 이미지의 픽셀들은 기정의된 범위 내의 값들을 가질 수 있다.Alternatively, the processing unit 110 may perform histogram equalization on the cropped image to generate a histogram equalized image. The pixels of the histogram equalized image may have values within a predetermined range.

단계(233)에서, 처리부(110)는 입력 이미지에 대한 평균 값 빼기(Mean Subtraction; MS)를 수행하여 입력 이미지의 픽셀들의 값들의 평균을 조정할 수 있다.In step 233, the processing unit 110 may perform an average value subtraction (MS) on the input image to adjust an average of the values of the pixels of the input image.

또는, 처리부(110)는 히스토그램 이퀄라이제이션된 이미지에 대한 평균 값 빼기를 수행하여 평균 값 조정된 이미지를 생성할 수 있다.Alternatively, the processing unit 110 may perform an average value subtraction on the histogram equalized image to produce an average value adjusted image.

평균 값 조정된 이미지의 픽셀들의 값들은 히스토그램 이퀄라이제이션된 이미지의 픽셀들의 값들에 비해 기정의된 값에 더 가까울 수 있다. 기정의된 값은 0.5일 수 있다.The values of the pixels of the average value adjusted image may be closer to the predetermined value than the values of the pixels of the histogram equalized image. The default value may be 0.5.

전처리된 이미지는 입력 이미지에 1) 크롭, 2) 히스토그램 이퀄라이제이션 및 3) 평균 값 빼기 중 적어도 하나가 적용된 이미지일 수 있다. 또는, 전처리된 이미지는 전술된 평균 값 조정된 이미지일 수 있다.The preprocessed image may be an image to which at least one of 1) cropping, 2) histogram equalization and 3) mean value subtraction is applied to the input image. Alternatively, the preprocessed image may be the averaged-value adjusted image described above.

단계(240)에서, 처리부(110)는 딥러닝(Deep Learning) 알고리즘에 전처리된 이미지를 입력하여 딥러닝 알고리즘의 결과를 생성할 수 있다. 딥러닝 알고리즘의 결과는 촬영된 차량이 경차인지 여부를 나타낼 수 있다.At step 240, the processing unit 110 may input the preprocessed image to a Deep Learning algorithm to produce a result of the deep-running algorithm. The result of the deep-running algorithm may indicate whether the photographed vehicle is a light vehicle.

딥러닝 알고리즘은 브이지지 넷(VGG Net) 딥러닝 알고리즘 또는 알이에스넷34(ResNet34) 딥러닝 알고리즘일 수 있다.The deep running algorithm may be the VGG Net deep running algorithm or the ResNet 34 deep running algorithm.

예를 들면, 딥러닝 알고리즘은 딥러닝 알고리즘으로 입력된 이미지에 촬영된 차량이 경차인지 여부를 판단하는 경차 판별을 위한 알고리즘일 수 있다.For example, the deep-running algorithm may be an algorithm for discriminating a light that determines whether the photographed vehicle is a light vehicle in an image input by a deep-running algorithm.

단계(240)는 단계들(241 및 242)의 단계를 포함할 수 있다.Step 240 may include the steps of steps 241 and 242. [

단계(241)에서, 처리부(110)는 딥러닝 알고리즘에 전처리된 이미지를 입력하여 경차 점수 및 비-경차 점수를 결정할 수 있다.In step 241, the processing unit 110 may input the preprocessed image to the deep learning algorithm to determine the light and light non-light points.

단계(242)에서, 처리부(110)는 경차 점수 및 비-경차 점수를 사용하여 차량이 경차일 확률을 계산할 수 있다.In step 242, the processing unit 110 may calculate the probability that the vehicle is a light vehicle using the light vehicle score and the non-light vehicle score.

차량이 경차인 확률은 아래의 수식 1에 따라 계산될 수 있다.The probability that the vehicle is a light vehicle can be calculated according to Equation 1 below.

[수식 1][Equation 1]

1 / (1+e)(β-α) 1 / (1 + e) (? -?)

β는 비-경차 점수일 수 있다.beta may be a non-lightweight score.

α는 경차 점수일 수 있다.α may be a minor score.

전술된 경차 판별 방법은 경차 판별을 위한 딥러닝 알고리즘을 위한 학습에도 사용될 수 있다. 예를 들면, 전술된 단계(240)는 학습을 위한 단계로 대체될 수 있다. 단계(240)에서, 처리부(110)는 딥러닝 알고리즘에 전처리된 이미지 및 촬영된 차랑이 경차인지 여부를 나타내는 경차 정보를 입력하여 딥러닝 알고리즘의 학습을 수행할 수 있다.The above-described miniscule discrimination method can also be used for learning for a deep learning algorithm for discriminating a miniscule. For example, the above-described step 240 may be replaced with a step for learning. In step 240, the processing unit 110 may perform the learning of the deep learning algorithm by inputting the pre-processed image in the deep learning algorithm and the light intensity information indicating whether the photographed light train is a light vehicle.

또한, 이러한 학습은 선택적으로 수행될 수 있다. 예를 들면, 단계(242)에서 계산되 차량이 경차인 확률이 특정된 범위 내의 값 또는 특정된 범위 외의 값이면, 경차인지 여부가 명확하지 않은 것으로 간주되어, 처리부(110)는 딥러닝 알고리즘에 전처리된 이미지 및 촬영된 차랑이 경차인지 여부를 나타내는 경차 정보를 입력하여 딥러닝 알고리즘의 학습을 수행할 수 있다.In addition, such learning may be performed selectively. For example, if the probability that the vehicle is a light vehicle is a value within a specified range or a value outside a specified range, which is calculated in step 242, it is considered uncertain whether the light vehicle is a light vehicle, Learning of the deep learning algorithm can be performed by inputting the preprocessed image and the lightness information indicating whether the photographed image is a light vehicle or not.

이러한 경우, 경차 정보는 경차 판별 장치(100) 또는 경차 판별 장치(100)를 사용하는 주차장 등의 시스템의 운용자에 의해 입력되거나, 경차 판별 장치를 사용하는 시스템의 다른 정보에 의해 결정될 수 있다.In such a case, the lightness information may be inputted by an operator of the system such as a parking lot using the light discriminating apparatus 100 or the light discriminating apparatus 100, or may be determined by other information of the system using the light discriminating apparatus.

예를 들면, 경차 정보는 입력 이미지 또는 전처리된 이미지를 확인한 운용자에 의해 입력될 수 있다. 예를 들면, 딥러닝 알고리즘의 기존의 학습으로는 차량이 경차인지 여부가 명확하지 않은 경우 운용자의 개입이 이루어질 수 있다.For example, the lightness information may be input by an operator who identifies an input image or a preprocessed image. For example, the existing learning of the deep learning algorithm can involve operator intervention if it is not clear whether the vehicle is a light vehicle.

예를 들면, 경차 정보는 촬영된 차량에 대해서 시스템에 의해 차량이 경차인 경우에 제공되는 서비스가 적용되었는지 여부에 따라서 결정될 수 있다. 차량이 경차인 경우에 제공되는 서비스는 요금에 대한 경차 요금 할인일 수 있다. 여기에서, 요금은 주차료 또는 통행료일 수 있다.For example, the lightness information may be determined based on whether or not the service provided when the vehicle is a light vehicle by the system is applied to the photographed vehicle. The service provided when the vehicle is a light vehicle may be a light fare discount for the fare. Here, the charge may be a parking charge or a toll.

예를 들면, 촬영된 차량에 대해서 차량이 경차인 경우에 제공되는 서비스가 적용된 경우 경차 정보는 차량이 경차임을 나타낼 수 있다. 촬영된 차량에 대해서 차량이 경차인 경우에 제공되는 서비스가 적용되지 않은 경우 경차 정보는 차량이 경차가 아님을 나타낼 수 있다.For example, when a service provided when the vehicle is a miniature vehicle is applied to the photographed vehicle, the miniature car information may indicate that the car is a miniature car. If the service provided when the vehicle is a light vehicle is not applied to the photographed vehicle, the light vehicle information may indicate that the vehicle is not a light vehicle.

경차 판별 및 경차 판별을 위한 학습에 있어서, 전처리된 이미지 외의 다른 정보가 딥러닝 알고리즘에 입력될 수 있다. 이러한 다른 정보는 경차 판별의 정확도를 향상시킬 수 있다.In the learning for discriminating the light and the light, other information than the preprocessed image may be input to the deep learning algorithm. Such other information can improve the accuracy of the minor difference discrimination.

1) 처리부(110)는 차량이 촬영된 이미지에서 영상 처리 기술을 사용하여 차량의 크기, 차량의 길이, 차량의 높이 및 차량의 형태 등을 도출할 수 있다.1) The processing unit 110 can derive the size of the vehicle, the length of the vehicle, the height of the vehicle, and the shape of the vehicle by using the image processing technique in the captured image of the vehicle.

처리부(110)는 도출된 차량의 크기, 차량의 길이, 차량의 높이 및 차량의 형태 중 적어도 하나를 딥러닝 알고리즘의 학습을 위한 입력 값 및 차량이 경차인지 여부를 판별할 때의 딥러닝 알고리즘의 입력 값으로 사용할 수 있다.The processing unit 110 calculates at least one of the size of the derived vehicle, the length of the vehicle, the height of the vehicle and the shape of the vehicle as an input value for learning the deep learning algorithm and a deep learning algorithm for determining whether the vehicle is a light vehicle It can be used as an input value.

2) 처리부(110)는 차량이 촬영된 이미지로부터 차량의 브랜드를 나타내는 마크, 차량의 제조사를 나타내는 문자열 및 차량의 차종을 나타내는 문자열 등을 검출할 수 있다.2) The processing unit 110 can detect, from the photographed image of the vehicle, a mark indicating the brand of the vehicle, a character string indicating the manufacturer of the vehicle, and a character string indicating the vehicle type of the vehicle.

처리부(110)는 검출된 차량이 촬영된 이미지로부터 차량의 브랜드를 나타내는 마크, 차량의 제조사를 나타내는 문자열 및 차량의 차종을 나타내는 문자열 중 적어도 하나를 딥러닝 알고리즘의 학습을 위한 입력 값 및 차량이 경차인지 여부를 판별할 때의 딥러닝 알고리즘의 입력 값으로 사용할 수 있다.The processing unit 110 receives at least one of a mark representing the brand of the vehicle, a character string representing the manufacturer of the vehicle, and a character string representing the vehicle type of the vehicle from the captured image of the detected vehicle, an input value for learning of the deep learning algorithm, And can be used as an input value of the deep learning algorithm when it is determined whether or not it is.

3) 또한, 기타 촬영된 이미지로부터 검출된 수문자열 등이 딥러닝 알고리즘의 학습 및 학습된 딥러닝 알고리즘의 입력 값으로 사용될 수 있다.3) In addition, a number string or the like detected from other photographed images can be used as the learning value of the deep learning algorithm and the input value of the learned deep learning algorithm.

도 3은 일 예에 따른 영 중심(Zero Centered) 보정을 나타낸다.Figure 3 shows a zero centered correction according to an example.

도 3은 딥러닝 알고리즘의 입력 벡터의 값들의 분포를 나타낼 수 있다.FIG. 3 shows the distribution of the values of the input vector of the deep learning algorithm.

딥러닝 알고리즘을 사용하여 경차 여부를 판별하기 위해서는, 딥러닝 알고리즘의 입력 벡터의 값들의 평균이 0이 되도록 입력 벡터의 값들이 분포하는 것이 바람직할 수 있다.In order to determine whether a light vehicle is a light vehicle using the deep learning algorithm, it may be desirable that the values of the input vector are distributed such that the average of the input vector values of the deep learning algorithm is zero.

딥러닝 알고리즘을 사용하여 입력 이미지를 분석함에 있어서, 딥러닝 알고리즘에 대한 첫 번째의 입력 값들의 편차가 너무 크기 때문에, 입력 벡터들의 값들의 평균이 0이 되도록 보정하는 것이 불가능하거나 어려울 수 있다. 따라서, 입력 값들에 대한 보정이 요구된다.In analyzing an input image using a deep running algorithm, it may be impossible or difficult to correct so that the average of the values of the input vectors is zero, since the deviation of the first input values for the deep running algorithm is too large. Therefore, correction is required for the input values.

도 4는 일 예에 따른 바이어스 값의 부재에 따른 입력 값의 정규화를 나타낸다.FIG. 4 illustrates normalization of an input value according to an absence of a bias value according to an example.

딥러닝 알고리즘의 컨벌루션 레이어(convolution layer)에는 바이어스(bias)가 존재하지 않을 수 있다. 따라서, 입력 값(즉, 입력 이미지의 픽셀들의 값들) 정규화(normalize)되는 것이 중요할 수 있다.There may be no bias in the convolution layer of the deep-running algorithm. Thus, it may be important that the input values (i.e., the values of the pixels of the input image) are normalized.

그러나, 입력 이미지의 촬영이 이루어지는 시간 대 또는 현장 등의 요인에 따라서 입력 이미지의 픽셀들의 값들이 평균이 제각각으로 변할 수 있다. 따라서, 입력 이미지의 픽셀들의 값들을 기정의된 평균으로 정규화하는 것이 바람직하지 않을 수 있다.However, the values of the pixels of the input image may vary in average depending on factors such as the time at which the input image is taken or the field. Thus, it may not be desirable to normalize the values of the pixels of the input image to a predetermined average.

도 5는 일 예에 따른 입력 이미지에 대한 전처리를 나타낸다.5 shows a pre-processing for an input image according to an example.

ResNet34와 같은 딥러닝 알고리즘은 기정의된 개수의 레이어들을 가질 수 있다. 예를 들면, ResNet34의 레이어들은 34 개일 수 있다.Deep-running algorithms such as ResNet34 can have a predefined number of layers. For example, ResNet34 can have 34 layers.

처리부(110)는 이러한 딥러닝 알고리즘의 기정의된 개수의 레이어들에 대한 입력 값들이 일정한 분포를 갖도록 입력 값을 조정할 수 있다. 입력 값은 입력 이미지의 픽셀들의 값을 포함할 수 있다.The processing unit 110 may adjust the input values so that the input values for the predetermined number of layers of such a deep running algorithm have a uniform distribution. The input values may include values of pixels of the input image.

도 2를 참조하여 전술된 것과 같이, 입력 이미지는 (224, 224, 3)과 같은 기정의된 크기로 크롭될 수 있고, 크롭된 이미지의 픽셀들은 0 내지 255의 값들을 갖도록 변환될 수 있으며, 다시 0 내지 1의 값들을 갖도록 보정될 수 있다. 이러한 보정 후, 입력 이미지의 픽셀들의 값들이 일정한 분포를 갖도록 입력 이미지의 픽셀들의 값들에서 상기의 입력 이미지의 픽셀들의 값들의 평균이 감해질 수 있다.2, the input image may be cropped to a predetermined size, such as 224, 224, 3, and the pixels of the cropped image may be converted to have values of 0 to 255, It can be corrected to have values of 0 to 1 again. After this correction, the values of the pixels of the input image may be averaged at the values of the pixels of the input image such that the values of the pixels of the input image have a constant distribution.

이러한 히스토그램 이퀄라이제이션을 포함하는 전처리를 통해 이미지의 픽셀들의 평균이 일정하게 될 수 있으며, 평균이 일정하게 됨에 따라 정규화에 적합한 상태가 될 수 있다.Through the preprocessing including such histogram equalization, the average of the pixels of the image can be made constant and can become a state suitable for normalization as the average becomes constant.

말하자면, 처리부(110)는 딥러닝 알고리즘의 첫 번째의 레이어에 바이어스가 존재하지 않는 선형 모델(linear model)(즉, 컨벌루션 레이어)에 입력 이미지에 대한 히스토그램 이퀄라이제이션을 포함하는 전처리를 적용함으로써, 차량이 경차인지 여부에 대한 판단의 정확도를 향상시킬 수 있다.That is to say, the processing unit 110 applies a preprocessing including histogram equalization to the input image to a linear model (i.e., convolution layer) where no bias exists in the first layer of the deep-running algorithm, The accuracy of the determination as to whether the vehicle is a light vehicle can be improved.

도 6는 일 예에 따른 전처리의 효과를 나타낸다.6 shows the effect of the pretreatment according to an example.

도 6의 좌측에는 입력 이미지가, 우측에는 전처리된 이미지가 도시되었다.6 shows an input image on the left side and a preprocessed image on the right side.

도 6에서 나타난 것과 같이 전처리에 의해 어두운 이미지가 향상(enhance)될 수 있다. 또한, 전처리에 의해 이미지의 특징(feature)가 유지되면서, 이미지의 픽셀들의 값들의 평균이 일정하게 됨에 따라, 정규화에 적합하게 될 수 있다.As shown in FIG. 6, the dark image can be enhanced by the preprocessing. Also, as the feature of the image is maintained by the preprocessing, the average of the values of the pixels of the image becomes constant, which may be suitable for normalization.

도 7은 일 예에 따른 경차 판별의 결과를 나타낸다.Fig. 7 shows the result of the discrimination of the minor car according to an example.

도 7에서, "value"는 차량이 경차일 확률을 나타낼 수 있다. "value"의 값이 1에 가까울수록 차량이 경차일 가능성이 더 높을 수 있다.In Fig. 7, "value" may indicate the probability that the vehicle is a light vehicle. The closer the value of "value" is to 1, the more likely the vehicle is a light vehicle.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

100: 경차 판별 장치
110: 처리부
120: 통신부
130: 저장부
140: 촬영부
100: Light vehicle discrimination device
110:
120:
130:
140:

Claims (18)

차량이 촬영된 입력 이미지를 수신하는 통신부;
상기 입력 이미지에 대한 전처리를 수행하여 전처리된 이미지를 생성하고, 딥러닝 알고리즘에 전처리된 이미지를 입력하여 촬영된 상기 차량이 경차인지 여부를 나타내는 상기 딥러닝 알고리즘의 결과를 생성하는 처리부
를 포함하고,
상기 처리부는 상기 딥러닝 알고리즘에 상기 전처리된 이미지를 입력하여 경차 점수 및 비-경차 점수를 결정하고, 상기 경차 점수 및 상기 비-경차 점수를 사용하여 상기 차량이 경차일 확률을 계산하고,
상기 확률이 특정된 범위 내의 값이면, 상기 처리부는 상기 딥러닝 알고리즘에 상기 전처리된 이미지 및 상기 촬영된 차랑이 경차인지 여부를 나타내는 경차 정보를 입력하여 상기 딥러닝 알고리즘의 학습을 수행하고,
상기 차량에 대해서 상기 차량이 경차인 경우에 제공되는 서비스가 적용된 경우 상기 경차 정보는 상기 차량이 경차임을 나타내고, 상기 차량에 대해서 상기 차량이 경차인 경우에 제공되는 서비스가 적용되지 않은 경우 상기 경차 정보는 상기 차량이 경차가 아님을 나타내는 경차 판별 장치.
A communication unit for receiving an input image of a vehicle;
A preprocessing unit for performing preprocessing on the input image to generate a preprocessed image, inputting a preprocessed image to a deep-running algorithm, and generating a result of the deep-running algorithm indicating whether the photographed vehicle is a light vehicle
Lt; / RTI >
Wherein the processor inputs the preprocessed image to the deep learning algorithm to determine a light vehicle score and a non-light vehicle score, calculates a probability that the vehicle is a light vehicle using the light vehicle score and the non-light vehicle score,
If the probability is a value within a specified range, the processing unit performs learning of the deep learning algorithm by inputting the pre-processed image and the lightness information indicating whether the photographed image is a light vehicle in the deep learning algorithm,
When the service provided when the vehicle is a light vehicle is applied to the vehicle, the light-weight information indicates that the vehicle is a light vehicle, and when the service provided when the vehicle is a light vehicle is not applied to the vehicle, Wherein the vehicle is not a light vehicle.
제1항에 있어서,
상기 차량을 촬영하여 상기 입력 이미지를 생성하는 촬영부
를 더 포함하는 경차 판별 장치.
The method according to claim 1,
A photographing unit for photographing the vehicle and generating the input image,
Further comprising:
제1항에 있어서,
상기 처리부는 상기 입력 이미지에 대한 크롭을 수행하여 상기 이미지의 크기를 조정하는 경차 판별 장치.
The method according to claim 1,
Wherein the processing unit crops the input image and adjusts the size of the image.
제1항에 있어서,
상기 처리부는 상기 입력 이미지에 대한 히스토그램 이퀄라이제이션을 수행하여 상기 이미지의 픽셀들이 기정의된 범위 내의 값들을 가지도록 조정하는 경차 판별 장치.
The method according to claim 1,
Wherein the processing unit performs histogram equalization on the input image to adjust the pixels of the image to have values within a predetermined range.
제1항에 있어서,
상기 처리부는 상기 입력 이미지에 대한 평균 값 빼기를 수행하여 상기 입력 이미지의 픽셀들의 값들의 평균을 조정하는 경차 판별 장치.
The method according to claim 1,
Wherein the processor performs an average value subtraction on the input image to adjust an average of values of pixels of the input image.
삭제delete 제1항에 있어서,
상기 처리부는 상기 딥러닝 알고리즘의 기정의된 개수의 레이어들에 대한 입력 값들이 일정한 분포를 갖도록 상기 입력 값을 조정하고,
상기 입력 값은 상기 입력 이미지의 픽셀들의 값들을 포함하는 경차 판별 장치.
The method according to claim 1,
Wherein the processing unit adjusts the input values so that input values for a predefined number of layers of the deep learning algorithm have a constant distribution,
Wherein the input value includes values of pixels of the input image.
제1항에 있어서,
상기 처리부는 상기 딥러닝 알고리즘의 첫 번째의 레이어에 바이어스가 존재하지 않는 선형 모델에 상기 입력 이미지에 대한 상기 전처리를 적용함으로써 상기 차량이 경차인지 여부에 대한 판단의 정확도를 향상시키는 경차 판별 장치.
The method according to claim 1,
Wherein the processor enhances the accuracy of the determination as to whether the vehicle is a light vehicle by applying the pre-processing on the input image to a linear model in which there is no bias in the first layer of the deep-running algorithm.
차량이 촬영된 입력 이미지를 수신하는 단계;
상기 입력 이미지에 대한 전처리를 수행하여 전처리된 이미지를 생성하는 단계; 및
딥러닝 알고리즘에 전처리된 이미지를 입력하여 촬영된 상기 차량이 경차인지 여부를 나타내는 딥러닝 알고리즘의 결과를 생성하는 단계
를 포함하고,
상기 결과를 생성하는 단계는,
상기 딥러닝 알고리즘에 상기 전처리된 이미지를 입력하여 경차 점수 및 비-경차 점수를 결정하는 단계; 및
상기 경차 점수 및 상기 비-경차 점수를 사용하여 상기 차량이 경차일 확률을 계산하는 단계
를 포함하고,
상기 확률이 특정된 범위 내의 값이면, 상기 딥러닝 알고리즘에 상기 전처리된 이미지 및 상기 촬영된 차랑이 경차인지 여부를 나타내는 경차 정보가 입력되어 상기 딥러닝 알고리즘의 학습이 수행되고,
상기 차량에 대해서 상기 차량이 경차인 경우에 제공되는 서비스가 적용된 경우 상기 경차 정보는 상기 차량이 경차임을 나타내고, 상기 차량에 대해서 상기 차량이 경차인 경우에 제공되는 서비스가 적용되지 않은 경우 상기 경차 정보는 상기 차량이 경차가 아님을 나타내는 경차 판별 방법.
Receiving a captured input image of a vehicle;
Performing preprocessing on the input image to generate a preprocessed image; And
Generating a result of a deep-running algorithm indicating whether the taken vehicle is a light vehicle by inputting a preprocessed image to a deep-running algorithm
Lt; / RTI >
Wherein generating the result comprises:
Inputting the preprocessed image to the deep learning algorithm to determine a light vehicle score and a non-light vehicle score; And
Calculating a probability that the vehicle is a light vehicle using the light vehicle score and the non-light vehicle score
Lt; / RTI >
If the probability is a value within a specified range, then the depth learning algorithm is performed by inputting the preprocessed image and lightness information indicating whether the photographed image is a light vehicle,
When the service provided when the vehicle is a light vehicle is applied to the vehicle, the light-weight information indicates that the vehicle is a light vehicle, and when the service provided when the vehicle is a light vehicle is not applied to the vehicle, Wherein the vehicle is not a light vehicle.
제9항에 있어서,
상기 전처리된 이미지를 생성하는 단계는,
상기 입력 이미지에 대한 크롭을 수행하여 크롭된 이미지를 생성하는 단계;
상기 크롭된 이미지에 대한 히스토그램 이퀄라이제이션을 수행하여 히스토그램 이퀄라이제이션된 이미지를 생성하는 단계; 및
상기 히스토그램 이퀄라이제이션된 이미지에 대한 평균 값 빼기를 수행하여 평균 값 조정된 이미지를 생성하는 단계
를 포함하고,
상기 전처리된 이미지는 상기 평균 값 조정된 이미지인, 경차 판별 방법.
10. The method of claim 9,
Wherein the generating the preprocessed image comprises:
Performing cropping on the input image to generate a cropped image;
Performing a histogram equalization on the cropped image to generate a histogram equalized image; And
Performing an average value subtraction on the histogram equalized image to produce an average value adjusted image
Lt; / RTI >
Wherein the preprocessed image is the average value adjusted image.
삭제delete 삭제delete 삭제delete 제9항에 있어서,
상기 딥러닝 알고리즘의 기정의된 개수의 레이어들에 대한 입력 값들이 일정한 분포를 갖도록 상기 입력 값이 조정되고,
상기 입력 값은 상기 입력 이미지의 픽셀들의 값들을 포함하는 경차 판별 방법.
10. The method of claim 9,
Wherein the input values are adjusted such that input values for a predefined number of layers of the deep learning algorithm have a constant distribution,
Wherein the input value includes values of pixels of the input image.
제9항에 있어서,
상기 딥러닝 알고리즘의 첫 번째의 레이어에 바이어스가 존재하지 않는 선형 모델에 상기 입력 이미지에 대한 상기 전처리를 적용함으로써 상기 차량이 경차인지 여부에 대한 판단의 정확도가 향상되는 경차 판별 방법.
10. The method of claim 9,
Wherein the accuracy of the determination as to whether the vehicle is a light vehicle is improved by applying the preprocessing for the input image to a linear model in which no bias exists in the first layer of the deep learning algorithm.
제9항에 있어서,
상기 차량이 촬영된 이미지에서 상기 차량의 크기, 상기 차량의 길이, 상기 차량의 높이 및 상기 차량의 형태 중 적어도 하나가 도출되고, 상기 차량의 길이, 상기 차량의 높이 및 상기 차량의 형태 중 적어도 하나가, 상기 딥러닝 알고리즘의 입력 값으로 사용되는 경차 판별 방법.
10. The method of claim 9,
Wherein at least one of a size of the vehicle, a length of the vehicle, a height of the vehicle, and a shape of the vehicle is derived from the captured image of the vehicle, and at least one of the length of the vehicle, Is used as an input value of the depth learning algorithm.
제9항에 있어서,
상기 차량이 촬영된 이미지에서 상기 차량의 브랜드를 나타내는 마크, 상기 차량의 제조사를 나타내는 문자열 및 상기 차량의 차종을 나타내는 문자열 중 적어도 하나가 검출되고, 상기 차량의 브랜드를 나타내는 마크, 상기 차량의 제조사를 나타내는 문자열 및 상기 차량의 차종을 나타내는 문자열 중 적어도 하나가, 상기 딥러닝 알고리즘의 입력 값으로 사용되는 경차 판별 방법.
10. The method of claim 9,
Wherein at least one of a mark representing the brand of the vehicle, a character string representing the manufacturer of the vehicle, and a character string representing the vehicle type of the vehicle is detected in the captured image of the vehicle, a mark indicating the brand of the vehicle, Wherein at least one of a character string representing a car type and a character string representing a car type of the vehicle is used as an input value of the deep learning algorithm.
제9항, 제10항, 제14항, 제15항, 제16항 및 제17항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium embodying a program for carrying out the method according to any one of claims 9, 10, 14, 15, 16 and 17.
KR1020180142615A 2018-11-19 2018-11-19 Method, apparatus and system for detecting light car KR101965294B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180142615A KR101965294B1 (en) 2018-11-19 2018-11-19 Method, apparatus and system for detecting light car

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180142615A KR101965294B1 (en) 2018-11-19 2018-11-19 Method, apparatus and system for detecting light car

Publications (1)

Publication Number Publication Date
KR101965294B1 true KR101965294B1 (en) 2019-04-03

Family

ID=66165016

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180142615A KR101965294B1 (en) 2018-11-19 2018-11-19 Method, apparatus and system for detecting light car

Country Status (1)

Country Link
KR (1) KR101965294B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102296471B1 (en) * 2021-02-05 2021-09-01 주식회사 알씨 Artificial intelligence-based vehicle load failure detection system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080022719A (en) 2006-09-07 2008-03-12 엘지.필립스 엘시디 주식회사 Lcd and drive method thereof
KR101563543B1 (en) * 2015-04-23 2015-10-29 주식회사 넥스파시스템 Lpr system for recognition of compact car and two wheel vehicle
US9832402B2 (en) * 2015-10-29 2017-11-28 Sony Semiconductor Solutions Corporation Row and column noise correction with defective pixel processing
KR101812953B1 (en) * 2017-06-23 2017-12-29 주식회사 디앤에스 테크놀로지 Image detecting system and method for underbody of vehicle using recognizing a car type by identifying emblem image
KR101845769B1 (en) * 2017-03-21 2018-04-06 경남대학교 산학협력단 Car rear detection system using convolution neural network, and method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080022719A (en) 2006-09-07 2008-03-12 엘지.필립스 엘시디 주식회사 Lcd and drive method thereof
KR101563543B1 (en) * 2015-04-23 2015-10-29 주식회사 넥스파시스템 Lpr system for recognition of compact car and two wheel vehicle
US9832402B2 (en) * 2015-10-29 2017-11-28 Sony Semiconductor Solutions Corporation Row and column noise correction with defective pixel processing
KR101845769B1 (en) * 2017-03-21 2018-04-06 경남대학교 산학협력단 Car rear detection system using convolution neural network, and method thereof
KR101812953B1 (en) * 2017-06-23 2017-12-29 주식회사 디앤에스 테크놀로지 Image detecting system and method for underbody of vehicle using recognizing a car type by identifying emblem image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102296471B1 (en) * 2021-02-05 2021-09-01 주식회사 알씨 Artificial intelligence-based vehicle load failure detection system

Similar Documents

Publication Publication Date Title
CN112528878B (en) Method and device for detecting lane line, terminal equipment and readable storage medium
US11409303B2 (en) Image processing method for autonomous driving and apparatus thereof
US20200160040A1 (en) Three-dimensional living-body face detection method, face authentication recognition method, and apparatuses
US11163982B2 (en) Face verifying method and apparatus
CN109753928B (en) Method and device for identifying illegal buildings
US8385645B2 (en) Object detecting device, imaging apparatus, object detecting method, and program
US20190295261A1 (en) Method and apparatus with image segmentation
CN108388879A (en) Mesh object detection method, device and storage medium
KR20190097640A (en) Device and method for matching image
CN111598065B (en) Depth image acquisition method, living body identification method, apparatus, circuit, and medium
CN108389172B (en) Method and apparatus for generating information
US10853631B2 (en) Face verification method and apparatus, server and readable storage medium
CN110532746B (en) Face checking method, device, server and readable storage medium
KR101965294B1 (en) Method, apparatus and system for detecting light car
CN109829401A (en) Traffic sign recognition method and device based on double capture apparatus
CN112597995B (en) License plate detection model training method, device, equipment and medium
CN114170565A (en) Image comparison method and device based on unmanned aerial vehicle aerial photography and terminal equipment
CN112528944A (en) Image identification method and device, electronic equipment and storage medium
US20190392550A1 (en) Image processing using an artificial neural network
CN112883944B (en) Living body detection method, model training method, device, storage medium and equipment
CN112825145B (en) Human body orientation detection method and device, electronic equipment and computer storage medium
CN109961083B (en) Method and image processing entity for applying a convolutional neural network to an image
KR102330806B1 (en) Method and apparatus for measuring endolymphatic hydrops ratio of inner ear organ using artificial neural network
KR102223316B1 (en) Apparatus and method for determining status of vehicle LED lighting based on comparison of gradient vectors
CN112464922B (en) Human-vehicle weight recognition and model training method, device, equipment and storage medium thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant