KR102313804B1 - Electronic device for distinguishing front or rear of vehicle and method thereof - Google Patents

Electronic device for distinguishing front or rear of vehicle and method thereof Download PDF

Info

Publication number
KR102313804B1
KR102313804B1 KR1020210071292A KR20210071292A KR102313804B1 KR 102313804 B1 KR102313804 B1 KR 102313804B1 KR 1020210071292 A KR1020210071292 A KR 1020210071292A KR 20210071292 A KR20210071292 A KR 20210071292A KR 102313804 B1 KR102313804 B1 KR 102313804B1
Authority
KR
South Korea
Prior art keywords
image
vehicle
area
license plate
electronic device
Prior art date
Application number
KR1020210071292A
Other languages
Korean (ko)
Inventor
표성백
Original Assignee
(주)트루엔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)트루엔 filed Critical (주)트루엔
Priority to KR1020210071292A priority Critical patent/KR102313804B1/en
Application granted granted Critical
Publication of KR102313804B1 publication Critical patent/KR102313804B1/en

Links

Images

Classifications

    • G06K9/3258
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06K2209/15

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to an electronic device for distinguishing the front or rear side of a vehicle, which provides a data processing rate, and a method thereof. According to various embodiments of the present invention, the electronic device comprises: a camera module and a processor operatively connected to the camera module. The processor performs the following operations of: controlling a camera module to capture a video of a vehicle to acquire a first image including a vehicle image; using a license plate detection model stored in a memory to detect a first area including at least one license plate image in the first image; acquiring a second image corresponding to a second area extended from the first area by a predetermined area within the first image; using a discrimination model to determine whether the second image includes at least one feature object and determine whether the second image is a front image or a rear image of the vehicle on the basis of a determination result; and checking a driving direction of the vehicle included in the first image on the basis of whether the second image is the front image or the rear image.

Description

차량의 전방 또는 후방을 판별하기 위한 전자 장치 및 그 방법{ELECTRONIC DEVICE FOR DISTINGUISHING FRONT OR REAR OF VEHICLE AND METHOD THEREOF}ELECTRONIC DEVICE FOR DISTINGUISHING FRONT OR REAR OF VEHICLE AND METHOD THEREOF

본 문서에 개시된 다양한 실시예는 전자 장치에 관한 것이며, 예를 들어 차량을 촬영하고, 촬영된 이미지를 이용하여 차량의 주행 또는 주차 방향을 판단하는 전자 장치 및 그 방법에 관한 것이다.Various embodiments disclosed in this document relate to an electronic device, for example, to an electronic device and method for photographing a vehicle and determining a driving or parking direction of the vehicle by using the photographed image.

교통법규 위반 차량, 범죄자 추적 및 무인 주차 시스템과 같이 차량 인식이 필요한 다양한 분야에서 차량용 CCTV(closed-circuit television)가 이용된다. 근래 자율 주행 또는 지능형 교통 시스템에 관한 수요가 증가하면서 차량용 CCTV 및 이를 이용한 차량 인식용 장치의 활용도가 높아지고 있다.CCTV (closed-circuit television) for vehicles is used in various fields that require vehicle recognition, such as vehicles violating traffic laws, criminal tracking, and unmanned parking systems. Recently, as the demand for autonomous driving or intelligent transportation systems increases, the use of CCTVs for vehicles and devices for vehicle recognition using the same is increasing.

차량 역주행은 교통사고가 발생할 우려가 매우 높으며, 사고 발생 시 대형사고로 이어질 가능성이 굉장히 크다. 그러나 그 위험성에 비하여 단속은 크게 이루어지지 않는 실정이다. 종래 기술의 경우, 차량용 CCTV를 이용하여 도로를 촬영 중 도로 노면에 일정 간격을 두고 매립된 2개 이상의 루프 센서, 압전 센서 등을 이용하여 2이상의 센서가 차량을 감지한 순서에 기초하여 역주행 여부를 판단하거나, 적외선 센서를 이용하여 속도를 측정하여 역주행 여부를 판단한다. 이러한 방식의 경우 차량용 CCTV 이외의 장치가 필요하며, 부가적으로 매립 또는 매설하는 비용이 발생할 수 있다. 또한 종래 기술은 동영상 이미지를 촬영하여 동일한 오브젝트의 움직임에 기초하여 역주행 여부를 판단한다. 위와 같은 종래 기술들은 차량의 주행 시에만, 즉, 차량이 움직이는 경우에만 역주행 여부를 판별할 수 있으며, 제한 속도가 비교적 낮은 일방통행 도로에서 비상 후진의 경우 역주행으로 오인식될 가능성이 있다. 또한 최소 2 개의 프레임(frame) 이상의 이미지를 분석하여야 하므로 정지된 단일한 이미지로 역주행 여부를 판별하는 것에 비하여 데이터 처리율이 저하될 수 있다. 또한 주차 방향(예: 전면 주차 구역)을 제한하려는 경우 정지 상태의 차량에 대한 정방향 또는 역방향 여부는 종래 기술에 의하여 판단되기 어려울 수 있다.Reversing the vehicle has a very high risk of causing a traffic accident, and in the event of an accident, it is highly likely to lead to a major accident. However, compared to the risk, crackdown is not carried out significantly. In the case of the prior art, based on the order in which two or more sensors detect the vehicle using two or more loop sensors and piezoelectric sensors embedded in the road surface at regular intervals while shooting a road using a vehicle CCTV, it is determined whether the vehicle is running in reverse. It is determined whether the vehicle is running in reverse or not by measuring the speed using an infrared sensor. In this case, a device other than a vehicle CCTV is required, and additionally, the cost of burying or burying may occur. In addition, the prior art determines whether to run in reverse based on the movement of the same object by shooting a moving image. The above prior art techniques can determine whether the vehicle is traveling in the reverse direction only when the vehicle is running, that is, only when the vehicle is moving. In addition, since it is necessary to analyze images of at least two frames or more, the data processing rate may be lowered compared to determining whether to run in reverse with a single, still image. In addition, when limiting a parking direction (eg, a front parking area), it may be difficult to determine whether a vehicle in a stationary state is in a forward or reverse direction according to the prior art.

삭제delete

대한민국 등록특허 10-0661902Republic of Korea Patent Registration 10-0661902 대한민국 공개특허공보 10-2011-0086638Korean Patent Publication No. 10-2011-0086638

상술한 문제점을 해결하기 위하여 단일한 정지 화상 이미지만을 이용하여 역주행 또는 역방향 주차 여부를 확인할 수 있는 기술이 요구된다. 속도가 빠른 구간 등의 경우 제한된 화각 범위 내에서 역주행을 확인하기 위하여 높은 데이터 처리율이 요구된다. 처리율을 담보하기 위하여 정지 화상 이미지에서 분석하고자 하는 영역을 효과적으로 탐색하는 분류 기법이 요구된다. 또한 역주행 단속 후 고지 및 교통법규 위반에 관한 처리를 위하여 번호판 인식 기능이 요구된다. 위와 같은 기술적 요구사항은 임베디드 환경에서 구현될 수 있어야 한다. In order to solve the above-described problem, there is a need for a technology capable of confirming whether the vehicle is driving in the reverse direction or parking the vehicle in the reverse direction using only a single still image. In the case of a section with high speed, a high data processing rate is required to confirm reverse driving within a limited field of view range. In order to guarantee the throughput, a classification technique that effectively searches the area to be analyzed in the still image image is required. In addition, a license plate recognition function is required for notification and traffic regulation violations after reverse driving enforcement. The above technical requirements should be able to be implemented in the embedded environment.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는, 카메라 모듈, 및 상기 카메라 모듈과 작동적으로(operatively) 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 카메라 모듈을 제어하여 동영상을 촬영하여 차량 이미지가 포함된 제1이미지를 획득하는 동작, 상기 메모리에 저장된 번호판 검출 모델을 이용하여 상기 제1이미지 내에서 적어도 하나의 번호판 이미지를 포함하는 제1영역을 검출 하는 동작, 상기 제1이미지 내에서 상기 제1영역으로부터 일정 범위의 영역만큼 확장된 제2영역에 해당하는 제2이미지를 획득하는 동작, 판별 모델을 이용하여 상기 제2이미지에 적어도 하나의 특징 오브젝트가 포함되었는지 여부를 판단하고, 상기 판단에 기초하여 상기 제2이미지가 차량의 전면 이미지인지 후면 이미지인지 여부를 확인하는 동작 및 상기 전면 이미지인지 후면 이미지인지 여부에 기초하여 상기 제1이미지에 포함된 차량의 주행 방향을 확인하는 동작을 수행할 수 있다.An electronic device according to various embodiments disclosed in this document includes a camera module and a processor operatively connected to the camera module, wherein the processor controls the camera module to capture a moving picture to capture a vehicle image The operation of obtaining a first image including the operation of detecting a first area including at least one license plate image in the first image using the license plate detection model stored in the memory, the first image in the An operation of acquiring a second image corresponding to a second area extended by a certain range from the first area, determining whether at least one feature object is included in the second image using a discrimination model, and the determination An operation of determining whether the second image is a front image or a rear image of a vehicle based on can do.

다양한 실시예에 따르면, 단일한 정지 이미지만을 이용하여 역주행 또는 역방향 주차 여부를 확인하여, 높은 데이터 처리율을 기대할 수 있다. 다양한 실시예에 따르면, 차량의 주행 여부에 관계 없이 차량의 방향을 확인하고, 역주행 또는 역방향 여부를 확인할 수 있다.According to various embodiments, a high data processing rate can be expected by checking whether reverse driving or reverse parking using only a single still image. According to various embodiments, the direction of the vehicle may be checked regardless of whether the vehicle is traveling, and whether the vehicle is traveling in the reverse direction may be determined.

도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대하여는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은 다양한 실시예들에 따른 전자 장치가 차량을 촬영하여 주행방향을 확인하는 것을 나타낸 것이다.
도 2는 다양한 실시예에 따른 전자 장치의 블록도이다.
도 3은 다양한 실시예에 따른 제1이미지 및 제2이미지를 나타낸 것이다.
도 4는 다양한 실시예에 따른 전자 장치가 역주행 정보를 생성하는 동작 흐름도이다.
도 5는 판별 모델을 학습시키기 위한 차량 전면 이미지 데이터의 일 예이다.
도 6은 판별 모델을 학습시키기 위한 차량 후면 이미지 데이터의 일 예이다.
도 7은 다양한 실시예에 따른 제1영역에 기초하여 제2영역을 설정하는 것을 타나낸 것이다.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.
1 is a diagram illustrating that an electronic device checks a driving direction by photographing a vehicle according to various embodiments of the present disclosure;
2 is a block diagram of an electronic device according to various embodiments of the present disclosure;
3 illustrates a first image and a second image according to various embodiments.
4 is a flowchart illustrating an operation in which an electronic device generates reverse driving information according to various embodiments of the present disclosure;
5 is an example of vehicle front image data for training a discrimination model.
6 is an example of vehicle rear image data for training a discrimination model.
7 illustrates setting of the second area based on the first area according to various embodiments of the present disclosure.

도 1은 다양한 실시예들에 따른 전자 장치가 차량을 촬영하여 주행방향을 확인하는 것을 나타낸 것이다.1 is a diagram illustrating that an electronic device checks a driving direction by photographing a vehicle according to various embodiments of the present disclosure;

도 1을 참조하면, 전자 장치(101)는 적어도 하나의 차량(예: 제1차량(201), 제2차량(202))을 촬영할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 노면 도로, 주차장과 같은 차량이 이동, 주차 및/또는 정차할 수 있는 공간에 설치될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 차량이 이동 및/또는 주차할 수 있는 공간에 설치 되어, 하나 이상의 차량이 촬영된 이미지(예: 제1이미지)를 촬영할 수 있다. 차량이 촬영된 이미지는, 정지 화상 이미지 및/또는 복수의 정지 화상 이미지가 연속적으로 촬영된 동영상 이미지를 포함할 수 있다. 일 실시예에 따르면, 제1이미지는 단일한 정지된 화상 이미지일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 차량용 CCTV(closed circuit television)일 수 있다. 전자 장치(101)는 카메라 모듈을 이용하여, 전자 장치(101)가 설치된 주변 환경의 영상(예: 제1이미지)을 지속적 및/또는 일시적으로 촬영할 수 있다.Referring to FIG. 1 , the electronic device 101 may photograph at least one vehicle (eg, a first vehicle 201 and a second vehicle 202 ). According to an embodiment, the electronic device 101 may be installed in a space where a vehicle can move, park, and/or stop, such as a road surface or a parking lot. According to an embodiment, the electronic device 101 may be installed in a space in which a vehicle can move and/or park, and may capture an image (eg, a first image) in which one or more vehicles are photographed. The image captured by the vehicle may include a still image image and/or a moving image image in which a plurality of still image images are successively captured. According to an embodiment, the first image may be a single still image image. According to an embodiment, the electronic device 101 may be a closed circuit television (CCTV) for a vehicle. The electronic device 101 may continuously and/or temporarily capture an image (eg, a first image) of a surrounding environment in which the electronic device 101 is installed by using the camera module.

다양한 실시예에 따르면, 전자 장치(101)는 제1이미지를 이용하여 차량의 역주행 또는 역방향 여부를 판단할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 촬영된 적어도 하나의 차량(예: 제1차량(201) 또는 제2차량(202))이 역주행 중인지, 또는 역방향으로 주차하였는지 확인할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1이미지에 포함된 차량(예: 제1차량(201) 또는 제2차량(202))의 이미지가 차량의 전면 이미지인지 후면 이미지인지 여부를 확인할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 차량의 전면 이미지인지 후면 이미지인지 판단하는 판별 모델을 이용하여 제1이미지에 포함된 차량의 이미지의 전면 또는 후면 여부를 확인할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1이미지의 적어도 일부 영역(예: 제2영역)에 해당하는 이미지(예: 제2이미지)를 이용하여 차량의 전면 또는 후면 여부를 확인할 수 있다. 판별 모델은, 인공지능 알고리즘을 이용하여 생성된 모델일 수 있다. 판별 모델은, 딥러닝 기반의 알고리즘을 이용하여 학습된 모델일 수 있다. 예를 들면, 판별 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 차량의 전면 또는 후면 여부를 확인하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 판별 모델은 차량 전면 이미지 및 차량 후면 이미지를 포함하는 이미지 데이터 및 각 이미지 데이터와 대응하는 전면 또는 후면 여부에 관한 정보가 라벨링된 데이터를 입력 받아 학습된 모델일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 메모리에 판별 모델을 저장할 수 있다. 전자 장치(101)는 판별 모델을 이용하여 제1이미지의 적어도 일부 영역에 해당하는 이미지가 전면 이미지인지 후면 이미지인지 여부를 확인하고, 확인 결과에 기초하여 역주행 여부에 관한 역주행 정보를 생성할 수 있다. 역주행 정보는, 차량의 역주행 여부에 관한 데이터일 수 있다. 예를 들면, 역주행 정보는, 차량의 역주행 여부에 관한 정보를 포함하고, 차량의 번호판의 문자를 인식한 문자 데이터 및 제1이미지 가운데 적어도 하나를 포함할 수 있다. 전자 장치(101)는 역주행 정보를 생성하고 생성된 역주행 정보를 일시적으로 메모리에 저장할 수 있다.According to various embodiments, the electronic device 101 may determine whether the vehicle is traveling in the reverse direction or in the reverse direction by using the first image. According to an embodiment, the electronic device 101 may check whether at least one photographed vehicle (eg, the first vehicle 201 or the second vehicle 202) is traveling in the reverse direction or is parked in the reverse direction. According to an embodiment, the electronic device 101 determines whether the image of the vehicle (eg, the first vehicle 201 or the second vehicle 202 ) included in the first image is a front image or a rear image of the vehicle. can According to an embodiment, the electronic device 101 may determine whether the image of the vehicle included in the first image is the front or the rear by using a discrimination model that determines whether it is a front image or a rear image of the vehicle. According to an embodiment, the electronic device 101 may determine whether the vehicle is the front or the rear using an image (eg, a second image) corresponding to at least a partial region (eg, a second region) of the first image. . The discrimination model may be a model generated using an artificial intelligence algorithm. The discrimination model may be a model learned using a deep learning-based algorithm. For example, the discriminant model may be a model trained to determine whether the vehicle is front or rear based on a convolutional neural network (CNN) algorithm. According to an embodiment, the discrimination model may be a model learned by receiving image data including a vehicle front image and a vehicle rear image and data labeled with information on whether the front or rear side corresponding to each image data is input. According to an embodiment, the electronic device 101 may store the discriminant model in the memory. The electronic device 101 may determine whether an image corresponding to at least a partial region of the first image is a front image or a rear image by using the discrimination model, and generate reverse driving information regarding whether or not driving in the reverse direction based on the confirmation result. . The reverse driving information may be data regarding whether the vehicle is driving in the reverse direction. For example, the reverse running information may include information on whether the vehicle is running in the reverse direction, and may include at least one of text data and a first image for recognizing text on a license plate of the vehicle. The electronic device 101 may generate reverse driving information and temporarily store the generated reverse driving information in a memory.

다양한 실시예에 따르면, 전자 장치(101)는 제1이미지에서 제1영역을 검출할 수 있다. 제1영역은, 제1이미지 내에 포함된 영역 가운데 번호판 이미지를 포함하는 적어도 하나의 영역일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 메모리에 저장된 번호판 검출 모델을 이용하여 제1이미지에서 제1영역을 검출할 수 있다. 일 실시예에 따르면, 번호판 검출 모델은, 딥러닝 기반의 알고리즘을 이용하여 학습된 모델일 수 있다. 예를 들면, 번호판 검출 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 입력된 이미지 내에서 번호판 영역을 검출하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 번호판 검출 모델은 번호판 이미지 데이터를 이용하여 학습된 모델일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 검출된 번호판 영역의 크기 및/또는 위치에 대한 데이터를 생성할 수 있고, 생성된 데이터를 일시적으로 메모리에 저장할 수 있다.According to various embodiments, the electronic device 101 may detect the first region from the first image. The first region may be at least one region including a license plate image among regions included in the first image. According to an embodiment, the electronic device 101 may detect the first area in the first image by using the license plate detection model stored in the memory. According to one embodiment, the license plate detection model may be a model learned using a deep learning-based algorithm. For example, the license plate detection model may be a model trained to detect a license plate region within an input image based on a convolutional neural network (CNN) algorithm. According to one embodiment, the license plate detection model may be a model learned using the license plate image data. According to an embodiment, the electronic device 101 may generate data on the size and/or position of the detected license plate area, and temporarily store the generated data in a memory.

다양한 실시예에 따르면, 전자 장치(101)는 제2영역을 선택하고, 제2이미지를 획득할 수 있다. 제2이미지는, 판별 모델에 입력하고자 하는 이미지 데이터일 수 있다. 일 실시예에 따르면, 제2이미지는 제1이미지의 적어도 일부 영역(예: 제2영역)에 대응하는 이미지일 수 있다. 제1이미지는 복수의 차량을 포함한 이미지일 수 있고, 차량의 주변 환경이 동시에 촬영된 이미지일 수 있으므로, 제1이미지 전체보다 제1이미지의 적어도 일부 영역을 이용하여 차량의 전면 또는 후면 여부를 확인하는 것이 처리 속도 및 정확성 면에서 더 효율적일 수 있다. 제2영역은, 제1이미지 내에서 제2이미지가 차지하는 영역일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제2영역을 선택하고, 제2영역에 대응하는 제2이미지를 획득할 수 있다. 일 실시예에 따르면, 제2영역은 제1영역을 포함하는 영역일 수 있다. 일 실시예에 따르면, 제2영역은 제1영역의 크기에 기초하여 제1영역을 일정 범위만큼 확장한 영역일 수 있다. 일 실시예에 따르면, 제2영역은 제1영역의 크기 및/또는 위치에 기초하여 생성된 영역일 수 있다. 일 실시예에 따르면, 제2영역은 제1이미지 내에 포함된 각각의 차량(예: 제1차량(201), 제2차량(202)) 각각에 대하여 선택된 복수의 영역을 포함할 수 있다.According to various embodiments, the electronic device 101 may select the second area and acquire a second image. The second image may be image data to be input to the discrimination model. According to an embodiment, the second image may be an image corresponding to at least a partial region (eg, the second region) of the first image. The first image may be an image including a plurality of vehicles, and since the surrounding environment of the vehicle may be an image taken at the same time, it is checked whether the front or rear of the vehicle is by using at least a partial area of the first image rather than the entire first image. This may be more efficient in terms of processing speed and accuracy. The second area may be an area occupied by the second image in the first image. According to an embodiment, the electronic device 101 may select the second area and obtain a second image corresponding to the second area. According to an embodiment, the second area may be an area including the first area. According to an embodiment, the second area may be an area in which the first area is expanded by a predetermined range based on the size of the first area. According to an embodiment, the second area may be an area generated based on the size and/or location of the first area. According to an embodiment, the second area may include a plurality of areas selected for each vehicle (eg, the first vehicle 201 and the second vehicle 202) included in the first image.

다양한 실시예에 따르면, 전자 장치(101)는 제1이미지에 포함된 번호판 문자를 인식할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1영역 내에 포함된 문자 이미지를 처리하여 텍스트 데이터로 인식할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1영역을 검출하고, 검출된 제1영역 내의 문자를 인식할 수 있다. 예를 들면, 전자 장치(101)는 OCR(optical character recognition, 광학 문자 인식)을 수행하여 제1영역에 포함된 문자를 인식할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 문자를 인식하기 위하여 제1이미지 또는 제1이미지에 포함된 제1영역에 해당하는 이미지를 전처리 할 수 있다. 전처리는 예를 들면, 회색조(grey scale) 변환, 이미지 경계 필터링(image filtering), 이진화(binarization) 처리를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 메모리에 전처리를 위한 알고리즘 및/또는 인스트럭션을 저장할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 OCR 모델을 이용하여 문자를 인식할 수 있다. OCR 모델은 CNN(convolution neural network) 알고리즘을 기초로 입력된 이미지와 대응되는 문자 데이터를 출력하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 메모리에 OCR 모델을 저장할 수 있다. According to various embodiments, the electronic device 101 may recognize the license plate characters included in the first image. According to an embodiment, the electronic device 101 may process a text image included in the first area and recognize it as text data. According to an embodiment, the electronic device 101 may detect the first area and recognize a character in the detected first area. For example, the electronic device 101 may recognize a character included in the first region by performing optical character recognition (OCR). According to an embodiment, the electronic device 101 may pre-process the first image or an image corresponding to a first region included in the first image in order to recognize a character. The pre-processing may include, for example, gray scale transformation, image filtering, and binarization processing. According to an embodiment, the electronic device 101 may store an algorithm and/or instructions for preprocessing in a memory. According to an embodiment, the electronic device 101 may recognize a character using the OCR model. The OCR model may be a model trained to output text data corresponding to an input image based on a convolution neural network (CNN) algorithm. According to an embodiment, the electronic device 101 may store the OCR model in a memory.

전자 장치(101)는 외부 장치(102)(예: 서버)와 통신적으로(communicatively) 연결될 수 있다. 전자 장치(101)는 외부 장치(102)와 유선 통신 네트워크(103)를 통해 연결될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 외부 장치(102)로부터 명령 및/또는 데이터를 수신하거나, 외부 장치(102)로 명령 및/또는 데이터를 전송할 수 있다. 예를 들어, 외부 장치(102)는 전자 장치(101)가 촬영한 영상 데이터(예: 제1이미지) 전자 장치(101)가 인식한 문자 데이터 및/또는 역주행 여부에 관한 정보를 전자 장치(101)로부터 수신할 수 있다. 외부 장치(102)는 전자 장치(101)를 적어도 부분적으로 제어할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 카메라 모듈을 제어하여 적어도 하나의 오브젝트(예: 차량)를 포함하는 특정 영역(예: 번호판 영역)을 촬영할 수 있고, 상기 촬영된 영상을 인코딩하여 외부 장치(102)로 스트리밍 전송할 수 있다. 외부 장치(102)는 전자 장치(101)로부터 수신한 데이터를 외부 장치(102)에 포함된 저장소(예: 스토리지)에 저장할 수 있다.The electronic device 101 may be communicatively connected to the external device 102 (eg, a server). The electronic device 101 may be connected to the external device 102 through the wired communication network 103 . According to an embodiment, the electronic device 101 may receive a command and/or data from the external device 102 or transmit a command and/or data to the external device 102 . For example, the external device 102 transmits image data (eg, a first image) captured by the electronic device 101 , text data recognized by the electronic device 101 , and/or information on whether the vehicle is traveling in the reverse direction to the electronic device 101 . ) can be received from The external device 102 may at least partially control the electronic device 101 . According to an embodiment, the electronic device 101 may control the camera module to capture a specific area (eg, a license plate area) including at least one object (eg, a vehicle), and encode the captured image to Streaming can be sent to device 102 . The external device 102 may store data received from the electronic device 101 in a storage (eg, storage) included in the external device 102 .

도 2는 다양한 실시예에 따른 전자 장치의 블록도이다.2 is a block diagram of an electronic device according to various embodiments of the present disclosure;

도 2를 참조하면, 전자 장치(101)는 카메라 모듈(210), 메모리(220) 및/또는 프로세서(230)를 포함할 수 있다. 프로세서(230)는 카메라 모듈(210) 및/또는 메모리(220)와 전기적 또는 작동적(operatively)으로 연결될 수 있다. Referring to FIG. 2 , the electronic device 101 may include a camera module 210 , a memory 220 , and/or a processor 230 . The processor 230 may be electrically or operatively connected to the camera module 210 and/or the memory 220 .

다양한 실시예에 따르면, 카메라 모듈(210)은 정지 영상 및/또는 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(210)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들을 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(210)은 예를 들면, 전자 장치(101)가 설치된 도로 위, 주차장 내부와 같은 전자 장치(101)의 주위 환경으로부터 입사된 광을 전기적 신호로 변환하여 이미지 데이터(예: 제1이미지)를 생성할 수 있다.According to various embodiments, the camera module 210 may capture a still image and/or a video. According to an embodiment, the camera module 210 may include one or more lenses, image sensors, and image signal processors. According to an embodiment, the camera module 210 converts light incident from the surrounding environment of the electronic device 101 into an electrical signal, for example, on a road where the electronic device 101 is installed, in a parking lot, etc. (eg, the first image) can be created.

다양한 실시예에 따르면, 메모리(220)는 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(230))에 의하여 사용되는 다양한 데이터를 저장할 수 있다. 메모리(220)는 디지털 데이터들을 일시적 또는 영구적으로 저장하기 위한 것으로서 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(220)는 프로세서(230)에 의하여 수행될 수 있는 다양한 인스트럭션(instruction)을 저장할 수 있다. 이와 같은 인스트럭션들은 프로세서(230)에 의하여 인식되고 실행될 수 있는 논리 연산, 데이터 입출력 등의 제어 명령을 포함할 수 있다. 일 실시예에 따르면, 메모리(220)는 소프트웨어로서 프로그램을 저장할 수 있고, 프로그램은 하나 이상의 알고리즘으로 구현된 모델을 포함할 수 있다. 메모리(220)가 저장할 수 있는 데이터의 종류 및/또는 양에 대하여는 한정됨이 없을 것이나, 본 문서에서는 다양한 실시예들에 따른 차량을 인식하는 프로세서(230)의 동작과 관련된 메모리의 구성 및 기능에 대하여만 설명하기로 한다. According to various embodiments, the memory 220 may store various data used by at least one component (eg, the processor 230 ) of the electronic device 101 . The memory 220 is for temporarily or permanently storing digital data and may include a volatile memory or a non-volatile memory. The memory 220 may store various instructions that may be executed by the processor 230 . Such instructions may include control commands such as logical operations and data input/output that may be recognized and executed by the processor 230 . According to one embodiment, the memory 220 may store a program as software, and the program may include a model implemented with one or more algorithms. There will be no limitation on the type and/or amount of data that the memory 220 can store, but in this document, the configuration and function of the memory related to the operation of the processor 230 for recognizing a vehicle according to various embodiments are described. only to be explained.

일 실시예에 따르면, 메모리(220)는 번호판 검출 모델을 저장할 수 있다. 번호판 검출 모델은, 딥러닝 기반의 알고리즘을 이용하여 학습된 모델일 수 있다. 예를 들면, 번호판 검출 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 입력된 이미지 내에서 번호판 영역을 검출하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 번호판 검출 모델은 번호판 이미지 데이터를 이용하여 학습된 모델일 수 있다. 번호판 검출 모델은 메모리(220)에 저장되어 전자 장치(101)의 프로세서(230)로 하여금 정해진 연산을 수행하도록 하는 인스트럭션을 포함할 수 있다.According to one embodiment, the memory 220 may store the license plate detection model. The license plate detection model may be a model learned using a deep learning-based algorithm. For example, the license plate detection model may be a model trained to detect a license plate region within an input image based on a convolutional neural network (CNN) algorithm. According to one embodiment, the license plate detection model may be a model learned using the license plate image data. The license plate detection model may include an instruction stored in the memory 220 to cause the processor 230 of the electronic device 101 to perform a predetermined operation.

일 실시예에 따르면, 메모리(220)는 판별 모델을 저장할 수 있다. 판별 모델은, 인공지능 알고리즘을 이용하여 생성된 모델일 수 있다. 판별 모델은, 딥러닝 기반의 알고리즘을 이용하여 학습된 모델일 수 있다. 예를 들면, 판별 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 차량의 전면 또는 후면 여부를 확인하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 판별 모델은 차량 전면 이미지 및 차량 후면 이미지를 포함하는 이미지 데이터 및 각 이미지 데이터와 대응하는 전면 또는 후면 여부에 관한 정보가 라벨링된 데이터를 입력 받아 학습된 모델일 수 있다. 판별 모델은 메모리(220)에 저장되어 전자 장치(101)의 프로세서(230)로 하여금 정해진 연산을 수행하도록 하는 인스트럭션을 포함할 수 있다. 판별 모델은, CNN 알고리즘에 기초하여 학습된 모델로서, 복수의 convolution 레이어를 포함할 수 있다. 각각의 레이어는 복수개의 convolution 필터를 포함하고, 각각의 필터는 이미지의 특성값에 가중치를 부여할 수 있다. 일 실시예에 따르면, 판별 모델은, 미리 정의된 손실 함수(loss function)를 이용한 방식으로 학습된 모델일 수 있다.According to an embodiment, the memory 220 may store the discriminant model. The discrimination model may be a model generated using an artificial intelligence algorithm. The discrimination model may be a model learned using a deep learning-based algorithm. For example, the discriminant model may be a model trained to determine whether the vehicle is front or rear based on a convolutional neural network (CNN) algorithm. According to an embodiment, the discrimination model may be a model learned by receiving image data including a vehicle front image and a vehicle rear image and data labeled with information on whether the front or rear side corresponding to each image data is input. The discrimination model may include instructions stored in the memory 220 to cause the processor 230 of the electronic device 101 to perform a predetermined operation. The discriminant model is a model learned based on the CNN algorithm and may include a plurality of convolution layers. Each layer includes a plurality of convolution filters, and each filter may assign a weight to a characteristic value of an image. According to an embodiment, the discriminant model may be a model trained by using a predefined loss function.

일 실시예에 따르면, 메모리(220)는 OCR 모델을 저장할 수 있다. OCR 모델은 CNN(convolution neural network) 알고리즘을 기초로 입력된 이미지와 대응되는 문자 데이터를 출력하도록 학습된 모델일 수 있다. OCR 모델은 메모리(220)에 저장되어 전자 장치(101)의 프로세서(230)로 하여금 정해진 연산을 수행하도록 하는 인스트럭션을 포함할 수 있다.According to an embodiment, the memory 220 may store the OCR model. The OCR model may be a model trained to output text data corresponding to an input image based on a convolution neural network (CNN) algorithm. The OCR model may include an instruction stored in the memory 220 to cause the processor 230 of the electronic device 101 to perform a predetermined operation.

프로세서(230)는 메모리(220)에 저장된 프로그램을 실행하여 전자 장치(101)의 적어도 하나의 다른 구성 요소(예: 카메라 모듈(210))를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(230)는 다른 구성요소(예: 카메라 모듈(210))로부터 수신된 데이터를 휘발성 메모리(예: 메모리(220))에 저장하고, 휘발성 메모리에 저장된 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 일 실시예에 따르면, 프로세서(230)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델(예: 번호판 검출 모델, 판별 모델, OCR 모델)은 기계 학습(예: CNN 알고리즘에 기초한 딥러닝)을 통해 생성될 수 있다. 프로세서(230)가 수행할 수 있는 동작, 연산 및 데이터 처리의 종류 및/또는 양에 대하여는 한정됨이 없을 것이나, 본 문서에서는 다양한 실시예들에 따른 전자 장치(101)가 촬영한 이미지로부터 차량의 전면 또는 후면 여부를 인식하는 동작과 관련된 프로세서(230)의 구성 및 기능에 대하여만 설명하기로 한다.The processor 230 may control at least one other component (eg, the camera module 210) of the electronic device 101 by executing a program stored in the memory 220, and perform various data processing or operations. can According to an embodiment, as at least part of data processing or operation, the processor 230 stores data received from another component (eg, the camera module 210) in a volatile memory (eg, the memory 220) and , the data stored in the volatile memory may be processed, and the resulting data may be stored in the non-volatile memory. According to an embodiment, the processor 230 may include a hardware structure specialized for processing an artificial intelligence model. Artificial intelligence models (e.g. license plate detection models, discriminant models, OCR models) can be generated through machine learning (e.g. deep learning based on CNN algorithms). There will be no limitation on the type and/or amount of operations, calculations, and data processing that the processor 230 can perform, but in this document, the front of the vehicle is obtained from images captured by the electronic device 101 according to various embodiments. Alternatively, only the configuration and function of the processor 230 related to the operation of recognizing the back side will be described.

다양한 실시예에 따르면, 프로세서(230)는 카메라 모듈(210)을 제어하여 제1이미지를 획득할 수 있다. 프로세서(230)는 적어도 하나의 차량을 촬영할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 노면 도로, 주차장과 같은 차량이 이동, 주차 및/또는 정차할 수 있는 공간에 설치될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 차량이 이동 및/또는 주차할 수 있는 공간에 설치 되어, 하나 이상의 차량이 촬영된 이미지(예: 제1이미지)를 촬영할 수 있다. 차량이 촬영된 이미지는, 정지 화상 이미지 및/또는 복수의 정지 화상 이미지가 연속적으로 촬영된 동영상 이미지를 포함할 수 있다. 일 실시예에 따르면, 제1이미지는 단일한 정지된 화상 이미지일 수 있다. 일 실시예에 따르면, 프로세서(230)는 차량용 CCTV(closed circuit television)일 수 있다. 프로세서(230)는 카메라 모듈(210)을 이용하여, 전자 장치(101)가 설치된 주변 환경의 영상(예: 제1이미지)을 지속적 및/또는 일시적으로 촬영할 수 있다.According to various embodiments, the processor 230 may acquire the first image by controlling the camera module 210 . The processor 230 may photograph at least one vehicle. According to an embodiment, the electronic device 101 may be installed in a space where a vehicle can move, park, and/or stop, such as a road surface or a parking lot. According to an embodiment, the electronic device 101 may be installed in a space in which a vehicle can move and/or park, and may capture an image (eg, a first image) in which one or more vehicles are photographed. The image captured by the vehicle may include a still image image and/or a moving image image in which a plurality of still image images are successively captured. According to an embodiment, the first image may be a single still image image. According to an embodiment, the processor 230 may be a closed circuit television (CCTV) for a vehicle. The processor 230 may continuously and/or temporarily capture an image (eg, a first image) of a surrounding environment in which the electronic device 101 is installed by using the camera module 210 .

다양한 실시예에 따르면, 프로세서(230)는 제1영역을 검출할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제1이미지에서 제1영역을 검출할 수 있다. 제1영역은, 제1이미지 내에 포함된 영역 가운데 번호판 이미지를 포함하는 적어도 하나의 영역일 수 있다. 일 실시예에 따르면, 프로세서(230)는 메모리(220)에 저장된 번호판 검출 모델을 이용하여 제1이미지에서 제1영역을 검출할 수 있다. 일 실시예에 따르면, 번호판 검출 모델은, 딥러닝 기반의 알고리즘을 이용하여 학습된 모델일 수 있다. 예를 들면, 번호판 검출 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 입력된 이미지 내에서 번호판 영역(예: 제1영역)을 검출하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 번호판 검출 모델은 번호판 이미지 데이터를 이용하여 학습된 모델일 수 있다. 일 실시예에 따르면, 프로세서(230)는 검출된 제1영역의 크기 및/또는 위치에 대한 데이터를 생성할 수 있고, 생성된 데이터를 일시적으로 메모리(220)에 저장할 수 있다.According to various embodiments, the processor 230 may detect the first region. According to an embodiment, the processor 230 may detect the first region from the first image. The first region may be at least one region including a license plate image among regions included in the first image. According to an embodiment, the processor 230 may detect the first area in the first image using the license plate detection model stored in the memory 220 . According to one embodiment, the license plate detection model may be a model learned using a deep learning-based algorithm. For example, the license plate detection model may be a model trained to detect a license plate region (eg, a first region) in an input image based on a convolutional neural network (CNN) algorithm. According to one embodiment, the license plate detection model may be a model learned using the license plate image data. According to an embodiment, the processor 230 may generate data on the detected size and/or position of the first region, and temporarily store the generated data in the memory 220 .

다양한 실시예에 따르면, 프로세서(230)는 제2영역을 선택하고, 제2이미지를 획득할 수 있다. 제2이미지는, 판별 모델에 입력하기 위한 이미지 데이터일 수 있다. 일 실시예에 따르면, 제2이미지는 제1이미지의 적어도 일부 영역(예: 제2영역)에 대응하는 이미지일 수 있다. 제1이미지는 복수의 차량을 포함한 이미지일 수 있고, 차량의 주변 환경이 동시에 촬영된 이미지일 수 있으므로, 제1이미지 전체보다 제1이미지의 적어도 일부 영역을 이용하여 차량의 전면 또는 후면 여부를 확인하는 것이 처리 속도 및 정확성 면에서 더 효율적일 수 있다. 제2영역은, 제1이미지 내에서 제2이미지가 차지하는 영역일 수 있다. 일 실시예에 따르면, 프로세서(230)는 제2영역을 선택하고, 제2영역에 대응하는 제2이미지를 획득할 수 있다. 일 실시예에 따르면, 제2영역은 제1영역을 포함하는 영역일 수 있다. 일 실시예에 따르면, 제2영역은 제1영역의 크기에 기초하여 제1영역을 일정 범위만큼 확장한 영역일 수 있다. 일 실시예에 따르면, 제2영역은 제1영역의 크기 및/또는 위치에 기초하여 생성된 영역일 수 있다. 일 실시예에 따르면, 제2영역은 제1이미지 내에 포함된 하나 이상의 차량 각각에 대하여 선택된 하나 이상의 영역을 포함할 수 있다.According to various embodiments, the processor 230 may select the second region and acquire the second image. The second image may be image data to be input to the discrimination model. According to an embodiment, the second image may be an image corresponding to at least a partial region (eg, the second region) of the first image. The first image may be an image including a plurality of vehicles, and since the surrounding environment of the vehicle may be an image taken at the same time, it is checked whether the front or rear of the vehicle is by using at least a partial area of the first image rather than the entire first image. This may be more efficient in terms of processing speed and accuracy. The second area may be an area occupied by the second image in the first image. According to an embodiment, the processor 230 may select the second region and acquire a second image corresponding to the second region. According to an embodiment, the second area may be an area including the first area. According to an embodiment, the second area may be an area in which the first area is expanded by a predetermined range based on the size of the first area. According to an embodiment, the second area may be an area generated based on the size and/or location of the first area. According to an embodiment, the second region may include one or more regions selected for each of one or more vehicles included in the first image.

다양한 실시예에 따르면, 프로세서(230)는 차량의 전면 이미지인지 후면 이미지인지 판단하는 판별 모델을 이용하여 제1이미지에 포함된 차량의 이미지의 전면 또는 후면 여부를 확인할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제2이미지를 이용하여 차량의 전면 또는 후면 여부를 확인할 수 있다. 판별 모델은, 인공지능 알고리즘을 이용하여 생성된 모델일 수 있다. 판별 모델은, 딥러닝 기반의 알고리즘을 이용하여 학습된 모델일 수 있다. 예를 들면, 판별 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 차량의 전면 또는 후면 여부를 확인하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 판별 모델은 차량 전면 이미지 및 차량 후면 이미지를 포함하는 이미지 데이터 및 각 이미지 데이터와 대응하는 전면 또는 후면 여부에 관한 정보가 라벨링된 데이터를 입력 받아 학습된 모델일 수 있다. 일 실시예에 따르면, 프로세서(230)는 메모리(220)에 저장된 판별 모델을 이용하여 제1이미지의 적어도 일부 영역에 해당하는 이미지(예: 제2이미지)가 전면 이미지인지 후면 이미지인지 여부를 확인할 수 있다. 프로세서(230)는 판별 모델에 제2이미지를 입력하여 제2이미지가 차량 전면 이미지인지 차량 후면 이미지인지 확인할 수 있다. According to various embodiments, the processor 230 may determine whether the front or rear image of the vehicle included in the first image is the front or rear using the determination model for determining whether the image is the front or rear of the vehicle. According to an embodiment, the processor 230 may check whether the vehicle is front or rear using the second image. The discrimination model may be a model generated using an artificial intelligence algorithm. The discrimination model may be a model learned using a deep learning-based algorithm. For example, the discriminant model may be a model trained to determine whether the vehicle is front or rear based on a convolutional neural network (CNN) algorithm. According to an embodiment, the discrimination model may be a model learned by receiving image data including a vehicle front image and a vehicle rear image and data labeled with information on whether the front or rear side corresponding to each image data is input. According to an embodiment, the processor 230 determines whether an image (eg, a second image) corresponding to at least a partial region of the first image is a front image or a rear image using the discrimination model stored in the memory 220 . can The processor 230 may check whether the second image is a vehicle front image or a vehicle rear image by inputting the second image to the discrimination model.

다양한 실시예에 따르면, 프로세서(230)는 차량의 역주행 또는 역방향 여부를 판단할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제1이미지에 포함된 적어도 하나의 차량이 역주행 중인지, 또는 역방향으로 주차하였는지 확인할 수 있다. 프로세서(230)는 판별 모델을 이용하여 제1이미지의 적어도 일부 영역에 해당하는 이미지(예: 제2이미지)가 전면 이미지인지 후면 이미지인지 여부를 확인하고, 확인 결과에 기초하여 역주행 여부를 판단할 수 있다. 프로세서(230)는 제2이미지(230)의 전면 또는 후면 여부에 관한 결과에 기초하여 역주행 여부를 판단할 수 있다. 일 실시예에 따르면, 프로세서(230)는 도로의 진행 방향에 기초하여 역주행 여부를 판단할 수 있다. 예를 들면, 전자 장치(101)의 설치 위치 및/또는 방향에 따라 차량의 전면이 촬영되어야 순방향일 수 있고, 또는 차량의 후면이 촬영되어야 순방향일 수 있다. 메모리(220)는 도로의 진행 방향에 관한 데이터를 미리 저장할 수 있고, 프로세서(230)는 도로 진행 방향에 관한 데이터 및 제2이미지(230)가 전면 또는 후면인지 여부에 관한 정보에 기초하여 차량이 역주행 중인지 여부를 판단할 수 있다. 예를 들면, 전자 장치(101)는 전자 장치(101)의 촬영 방향과 마주하는 방향으로 진행하는 차량을 촬영하도록 설치될 수 있고, 프로세서(230)는 제2이미지가 차량 후면 이미지로 확인되는 경우 역주행 중으로 판단할 수 있다.According to various embodiments, the processor 230 may determine whether the vehicle is traveling in the reverse direction or in the reverse direction. According to an embodiment, the processor 230 may determine whether at least one vehicle included in the first image is traveling in the reverse direction or is parked in the reverse direction. The processor 230 may determine whether an image (eg, a second image) corresponding to at least a partial region of the first image is a front image or a rear image using the determination model, and determine whether to run in reverse based on the result of the confirmation. can The processor 230 may determine whether to run in the reverse direction based on a result of whether the second image 230 is a front or a rear side. According to an embodiment, the processor 230 may determine whether to drive in the reverse direction based on the traveling direction of the road. For example, depending on the installation location and/or direction of the electronic device 101 , the front direction of the vehicle may be photographed in the forward direction, or the rear direction of the vehicle may be photographed in the forward direction. The memory 220 may store data on the driving direction of the road in advance, and the processor 230 determines whether the vehicle It can be determined whether the vehicle is running in reverse. For example, the electronic device 101 may be installed to photograph a vehicle traveling in a direction opposite to the photographing direction of the electronic device 101 , and the processor 230 may determine the second image as a vehicle rear image. It can be judged that it is running in reverse.

다양한 실시예에 따르면, 프로세서(230)는 역주행 정보를 생성할 수 있다. 역주행 정보는, 차량의 역주행 여부에 관한 데이터일 수 있다. 예를 들면, 역주행 정보는, 차량의 역주행 여부에 관한 정보를 포함하고, 차량의 번호판의 문자를 인식한 문자 데이터 및 제1이미지 가운데 적어도 하나를 포함할 수 있다. 프로세서(230)는 역주행 정보를 생성하고 생성된 역주행 정보를 일시적으로 메모리에 저장할 수 있다. 일 실시예에 따르면, 역주행 정보는, 역주행 여부에 관한 정보, 역주행에 해당하는 제1이미지의 촬영 시각, 차량의 번호판 문자 인식 데이터 및 제1이미지 가운데 적어도 일부를 포함할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제1이미지에 포함된 번호판 문자를 인식할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제1영역 내에 포함된 문자 이미지를 처리하여 텍스트 데이터로 인식할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제1영역을 검출하고, 검출된 제1영역 내의 문자를 인식할 수 있다. 예를 들면, 프로세서(230)는 OCR(optical character recognition, 광학 문자 인식)을 수행하여 제1영역에 포함된 문자를 인식할 수 있다. 일 실시예에 따르면, 프로세서(230)는 문자를 인식하기 위하여 제1이미지 또는 제1이미지에 포함된 제1영역에 해당하는 이미지를 전처리 할 수 있다. 전처리는 예를 들면, 회색조(grey scale) 변환, 이미지 경계 필터링(image filtering), 이진화(binarization) 처리를 포함할 수 있다. 일 실시예에 따르면, 프로세서(230)는 메모리에 전처리를 위한 알고리즘 및/또는 인스트럭션을 저장할 수 있다. 일 실시예에 따르면, 프로세서(230)는 OCR 모델을 이용하여 문자를 인식할 수 있다. OCR 모델은 CNN(convolution neural network) 알고리즘을 기초로 입력된 이미지와 대응되는 문자 데이터를 출력하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 프로세서(230)는 메모리에 OCR 모델을 저장할 수 있다. 일 실시예에 따르면, 프로세서(230)는 역주행 여부를 판단한 이후, 역주행에 해당한다고 판단한 경우 번호판 영역(예: 제1영역)에 포함된 문자를 인식할 수 있다. 또는, 프로세서(230)는 역주행 여부와 관계 없이, 지속적으로 검출되는 제1영역에 대하여 문자 인식을 수행할 수 있다. 일 실시예에 따르면, 프로세서(230)는 역주행 여부에 관한 정보, 역주행에 해당하는 제1이미지의 촬영 시각, 차량의 번호판 문자 인식 데이터 및 제1이미지 가운데 적어도 일부를 포함하는 역주행 정보를 생성하고, 메모리(220)에 저장할 수 있다 일 실시예에 따르면, 프로세서(230)는 역주행 정보를 생성하고 외부 장치(예: 도 1의 외부 장치(102))로 전송할 수 있다.According to various embodiments, the processor 230 may generate reverse driving information. The reverse driving information may be data regarding whether the vehicle is driving in the reverse direction. For example, the reverse running information may include information on whether the vehicle is running in the reverse direction, and may include at least one of text data and a first image for recognizing text on a license plate of the vehicle. The processor 230 may generate reverse driving information and temporarily store the generated reverse driving information in a memory. According to an embodiment, the reverse driving information may include at least a portion of information on whether or not the reverse driving is performed, a photographing time of the first image corresponding to the reverse driving, character recognition data of the license plate of the vehicle, and the first image. According to an embodiment, the processor 230 may recognize the license plate characters included in the first image. According to an embodiment, the processor 230 may process a text image included in the first area and recognize it as text data. According to an embodiment, the processor 230 may detect the first area and recognize a character in the detected first area. For example, the processor 230 may recognize a character included in the first region by performing optical character recognition (OCR). According to an embodiment, the processor 230 may pre-process the first image or an image corresponding to the first region included in the first image in order to recognize the character. The pre-processing may include, for example, gray scale transformation, image filtering, and binarization processing. According to an embodiment, the processor 230 may store an algorithm and/or instructions for preprocessing in a memory. According to an embodiment, the processor 230 may recognize a character using an OCR model. The OCR model may be a model trained to output text data corresponding to an input image based on a convolution neural network (CNN) algorithm. According to an embodiment, the processor 230 may store the OCR model in a memory. According to an embodiment, the processor 230 may recognize the characters included in the license plate area (eg, the first area) when it is determined that the reverse driving corresponds to the reverse driving after determining whether the reverse driving is performed. Alternatively, the processor 230 may perform character recognition on the continuously detected first area regardless of whether the vehicle is traveling backwards or not. According to one embodiment, the processor 230 generates reverse driving information including at least a portion of information on whether or not reverse driving, a shooting time of a first image corresponding to reverse driving, license plate character recognition data of the vehicle, and a first image, It may be stored in the memory 220 According to an embodiment, the processor 230 may generate reverse driving information and transmit it to an external device (eg, the external device 102 of FIG. 1 ).

도 3은 다양한 실시예에 따른 제1이미지 및 제2이미지를 나타낸 것이다.3 illustrates a first image and a second image according to various embodiments.

도 3을 참조하면, 전자 장치(예: 도 1의 전자 장치(101))는 제1이미지(310)를 촬영할 수 있다. 제1이미지(310)는 하나 이상의 차량이 촬영된 이미지일 수 있다. 일 실시예에 따르면, 제1이미지(310)는 단일한 정지된 화상 이미지일 수 있다. 제1이미지(310)에 촬영된 적어도 하나의 차량은 번호판(301)을 부착한 상태일 수 있다. 번호판(301)에 해당하는 이미지 영역(예: 제1영역(320))은 제1이미지(310)에 포함될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1이미지(310) 내에서 적어도 하나의 번호판(301)을 검출할 수 있다. 전자 장치(101)는 번호판(301)이 검출된 영역(예: 제1영역(320))을 검출하여, 제1영역(320)의 크기 및 위치를 확인할 수 있다. 제1이미지(310)는 제2영역(330)을 포함할 수 있다. 제2영역(330)은 제1이미지(310)의 적어도 일부 영역에 해당할 수 있다. 제2영역(330)은 제1영역(320)의 크기 및/또는 위치에 기초하여 전자 장치(101)에 의하여 선택된 영역일 수 있다. 일 실시예에 따르면, 제2영역(330)은 제1영역(320)을 적어도 포함하는 영역에 걸쳐 형성될 수 있다. 일 실시예에 따르면, 제2영역(330)은 제1영역(320)이 확장된 영역일 수 있다. 예를 들면, 제2영역(330)은 제1영역(320)과 동일한 중심을 가지며, 제1영역(320)이 차지하는 면적에 대하여 일정 방향으로 미리 정해진 배수만큼 확장된 영역일 수 있다. 전자 장치(101)는 제1영역(320)에 기초하여 제1이미지(310) 내에서 제2영역(330)을 선택할 수 있다. 도 3을 참조하면, 전자 장치(101)는 제2이미지(340)를 획득할 수 있다. 제2이미지(340)는 선택된 제2영역(330)에 대응하는 이미지일 수 있다. 일 실시예에 따르면, 제2이미지(340)는 번호판(301)에 해당하는 제1영역(320)을 포함할 수 있다.Referring to FIG. 3 , an electronic device (eg, the electronic device 101 of FIG. 1 ) may capture a first image 310 . The first image 310 may be an image of one or more vehicles. According to one embodiment, the first image 310 may be a single still image image. At least one vehicle photographed in the first image 310 may have a license plate 301 attached thereto. An image area (eg, the first area 320 ) corresponding to the license plate 301 may be included in the first image 310 . According to an embodiment, the electronic device 101 may detect at least one license plate 301 in the first image 310 . The electronic device 101 may detect the area in which the license plate 301 is detected (eg, the first area 320 ), and confirm the size and location of the first area 320 . The first image 310 may include a second region 330 . The second region 330 may correspond to at least a partial region of the first image 310 . The second area 330 may be an area selected by the electronic device 101 based on the size and/or location of the first area 320 . According to an embodiment, the second region 330 may be formed over a region including at least the first region 320 . According to an embodiment, the second area 330 may be an area in which the first area 320 is expanded. For example, the second region 330 may have the same center as the first region 320 , and may be a region that is extended by a predetermined multiple in a predetermined direction with respect to the area occupied by the first region 320 . The electronic device 101 may select the second area 330 in the first image 310 based on the first area 320 . Referring to FIG. 3 , the electronic device 101 may acquire a second image 340 . The second image 340 may be an image corresponding to the selected second region 330 . According to an embodiment, the second image 340 may include a first area 320 corresponding to the license plate 301 .

도 3을 참조하면, 전자 장치(101)는 차량의 전면 이미지인지 후면 이미지인지 판단하는 판별 모델을 이용하여 제1이미지에 포함된 차량의 이미지의 전면 또는 후면 여부를 확인할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제2이미지(340)를 이용하여 차량의 전면 또는 후면 여부를 확인할 수 있다. 판별 모델은, 인공지능 알고리즘을 이용하여 생성된 모델일 수 있다. 판별 모델은, 딥러닝 기반의 알고리즘을 이용하여 학습된 모델일 수 있다. 예를 들면, 판별 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 차량의 전면 또는 후면 여부를 확인하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 판별 모델은 차량 전면 이미지 및 차량 후면 이미지를 포함하는 이미지 데이터 및 각 이미지 데이터와 대응하는 전면 또는 후면 여부에 관한 정보가 라벨링된 데이터를 입력 받아 학습된 모델일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 메모리(예: 도 2의 메모리(220))에 판별 모델을 저장할 수 있다. 전자 장치(101)는 판별 모델을 이용하여 제1이미지의 적어도 일부 영역에 해당하는 이미지(예: 제2이미지(340))가 전면 이미지인지 후면 이미지인지 여부를 확인할 수 있다. 전자 장치(101)는 판별 모델에 제2이미지(340)를 입력하여 제2이미지(340)가 차량 전면 이미지인지 차량 후면 이미지인지 확인할 수 있다. Referring to FIG. 3 , the electronic device 101 may determine whether the image of the vehicle included in the first image is the front or the rear using a discrimination model that determines whether the image is the front or rear of the vehicle. According to an embodiment, the electronic device 101 may use the second image 340 to determine whether the vehicle is front or rear. The discrimination model may be a model generated using an artificial intelligence algorithm. The discrimination model may be a model learned using a deep learning-based algorithm. For example, the discriminant model may be a model trained to determine whether the vehicle is front or rear based on a convolutional neural network (CNN) algorithm. According to an embodiment, the discrimination model may be a model learned by receiving image data including a vehicle front image and a vehicle rear image and data labeled with information on whether the front or rear side corresponding to each image data is input. According to an embodiment, the electronic device 101 may store the discrimination model in a memory (eg, the memory 220 of FIG. 2 ). The electronic device 101 may determine whether the image (eg, the second image 340 ) corresponding to at least a partial region of the first image is a front image or a rear image by using the discrimination model. The electronic device 101 may check whether the second image 340 is a vehicle front image or a vehicle rear image by inputting the second image 340 to the discrimination model.

도 4는 다양한 실시예에 따른 전자 장치가 역주행 정보를 생성하는 동작 흐름도이다.4 is a flowchart illustrating an operation in which an electronic device generates reverse driving information according to various embodiments of the present disclosure;

도 4를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))가 역주행 정보를 생성하는 동작은, 전자 장치(101)의 프로세서(예: 도 2의 프로세서(230))의 각 동작으로 설명될 수 있다. 도 4의 각 동작은 그 순서 및/또는 동작의 일부가 변경될 수 있고, 다른 동작이 추가될 수 있다.Referring to FIG. 4 , the operation of the electronic device (eg, the electronic device 101 of FIG. 1 ) generating reverse driving information is each operation of the processor of the electronic device 101 (eg, the processor 230 of FIG. 2 ). can be explained as For each operation in FIG. 4 , the order and/or part of the operation may be changed, and other operations may be added.

동작 410을 참조하면, 프로세서(230)는 제1이미지를 획득할 수 있다. 다양한 실시예에 따르면, 프로세서(230)는 카메라 모듈(예: 도 2의 카메라 모듈(210))을 제어하여 제1이미지를 획득할 수 있다. 프로세서(230)는 적어도 하나의 차량을 촬영할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 노면 도로, 주차장과 같은 차량이 이동, 주차 및/또는 정차할 수 있는 공간에 설치될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 차량이 이동 및/또는 주차할 수 있는 공간에 설치 되어, 하나 이상의 차량이 촬영된 이미지(예: 제1이미지)를 촬영할 수 있다. 차량이 촬영된 이미지는, 정지 화상 이미지 및/또는 복수의 정지 화상 이미지가 연속적으로 촬영된 동영상 이미지를 포함할 수 있다. 일 실시예에 따르면, 제1이미지는 단일한 정지된 화상 이미지일 수 있다. 일 실시예에 따르면, 프로세서(230)는 차량용 CCTV(closed circuit television)일 수 있다. 프로세서(230)는 카메라 모듈(예: 도 2의 카메라 모듈(210))을 이용하여, 전자 장치(101)가 설치된 주변 환경의 영상(예: 제1이미지)을 지속적 및/또는 일시적으로 촬영할 수 있다.Referring to operation 410 , the processor 230 may acquire a first image. According to various embodiments, the processor 230 may acquire the first image by controlling the camera module (eg, the camera module 210 of FIG. 2 ). The processor 230 may photograph at least one vehicle. According to an embodiment, the electronic device 101 may be installed in a space where a vehicle can move, park, and/or stop, such as a road surface or a parking lot. According to an embodiment, the electronic device 101 may be installed in a space in which a vehicle can move and/or park, and may capture an image (eg, a first image) in which one or more vehicles are photographed. The image captured by the vehicle may include a still image image and/or a moving image image in which a plurality of still image images are successively captured. According to an embodiment, the first image may be a single still image image. According to an embodiment, the processor 230 may be a closed circuit television (CCTV) for a vehicle. The processor 230 may continuously and/or temporarily capture an image (eg, a first image) of a surrounding environment in which the electronic device 101 is installed by using a camera module (eg, the camera module 210 of FIG. 2 ). have.

동작 420을 참조하면, 프로세서(230)는 제1영역을 검출할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제1이미지에서 제1영역을 검출할 수 있다. 제1영역은, 제1이미지 내에 포함된 영역 가운데 번호판 이미지를 포함하는 적어도 하나의 영역일 수 있다. 일 실시예에 따르면, 프로세서(230)는 메모리(예: 도 2의 메모리(220))에 저장된 번호판 검출 모델을 이용하여 제1이미지에서 제1영역을 검출할 수 있다. 일 실시예에 따르면, 번호판 검출 모델은, 딥러닝 기반의 알고리즘을 이용하여 학습된 모델일 수 있다. 예를 들면, 번호판 검출 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 입력된 이미지 내에서 번호판 영역(예: 제1영역)을 검출하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 번호판 검출 모델은 번호판 이미지 데이터를 이용하여 학습된 모델일 수 있다. 일 실시예에 따르면, 프로세서(230)는 검출된 제1영역의 크기 및/또는 위치에 대한 데이터를 생성할 수 있고, 생성된 데이터를 일시적으로 메모리(예: 도 2의 메모리(220))에 저장할 수 있다.Referring to operation 420 , the processor 230 may detect the first region. According to an embodiment, the processor 230 may detect the first region from the first image. The first region may be at least one region including a license plate image among regions included in the first image. According to an embodiment, the processor 230 may detect the first area in the first image using the license plate detection model stored in the memory (eg, the memory 220 of FIG. 2 ). According to one embodiment, the license plate detection model may be a model learned using a deep learning-based algorithm. For example, the license plate detection model may be a model trained to detect a license plate region (eg, a first region) in an input image based on a convolutional neural network (CNN) algorithm. According to one embodiment, the license plate detection model may be a model learned using the license plate image data. According to an embodiment, the processor 230 may generate data on the detected size and/or position of the first region, and temporarily store the generated data in a memory (eg, the memory 220 of FIG. 2 ). can be saved

동작 430을 참조하면, 프로세서(230)는 제2영역을 선택하고, 제2이미지를 획득할 수 있다. 제2이미지는, 판별 모델에 입력하기 위한 이미지 데이터일 수 있다. 일 실시예에 따르면, 제2이미지는 제1이미지의 적어도 일부 영역(예: 제2영역)에 대응하는 이미지일 수 있다. 제1이미지는 복수의 차량을 포함한 이미지일 수 있고, 차량의 주변 환경이 동시에 촬영된 이미지일 수 있으므로, 제1이미지 전체보다 제1이미지의 적어도 일부 영역을 이용하여 차량의 전면 또는 후면 여부를 확인하는 것이 처리 속도 및 정확성 면에서 더 효율적일 수 있다. 제2영역은, 제1이미지 내에서 제2이미지가 차지하는 영역일 수 있다. 일 실시예에 따르면, 프로세서(230)는 제2영역을 선택하고, 제2영역에 대응하는 제2이미지를 획득할 수 있다. 일 실시예에 따르면, 제2영역은 제1영역을 포함하는 영역일 수 있다. 일 실시예에 따르면, 제2영역은 제1영역의 크기에 기초하여 제1영역을 일정 범위만큼 확장한 영역일 수 있다. 일 실시예에 따르면, 제2영역은 제1영역의 크기 및/또는 위치에 기초하여 생성된 영역일 수 있다. 일 실시예에 따르면, 제2영역은 제1이미지 내에 포함된 하나 이상의 차량 각각에 대하여 선택된 하나 이상의 영역을 포함할 수 있다.Referring to operation 430 , the processor 230 may select the second region and acquire a second image. The second image may be image data to be input to the discrimination model. According to an embodiment, the second image may be an image corresponding to at least a partial region (eg, the second region) of the first image. The first image may be an image including a plurality of vehicles, and since the surrounding environment of the vehicle may be an image taken at the same time, it is checked whether the front or rear of the vehicle is by using at least a partial area of the first image rather than the entire first image. This may be more efficient in terms of processing speed and accuracy. The second area may be an area occupied by the second image in the first image. According to an embodiment, the processor 230 may select the second region and acquire a second image corresponding to the second region. According to an embodiment, the second area may be an area including the first area. According to an embodiment, the second area may be an area in which the first area is expanded by a predetermined range based on the size of the first area. According to an embodiment, the second area may be an area generated based on the size and/or location of the first area. According to an embodiment, the second region may include one or more regions selected for each of one or more vehicles included in the first image.

동작 440을 참조하면, 프로세서(230)는 주행 차량의 전면 또는 후면 여부를 확인할 수 있다. 다양한 실시예에 따르면, 프로세서(230)는 차량의 전면 이미지인지 후면 이미지인지 판단하는 판별 모델을 이용하여 제1이미지에 포함된 차량의 이미지의 전면 또는 후면 여부를 확인할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제2이미지를 이용하여 차량의 전면 또는 후면 여부를 확인할 수 있다. 판별 모델은, 인공지능 알고리즘을 이용하여 생성된 모델일 수 있다. 판별 모델은, 딥러닝 기반의 알고리즘을 이용하여 학습된 모델일 수 있다. 예를 들면, 판별 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 차량의 전면 또는 후면 여부를 확인하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 판별 모델은 차량 전면 이미지 및 차량 후면 이미지를 포함하는 이미지 데이터 및 각 이미지 데이터와 대응하는 전면 또는 후면 여부에 관한 정보가 라벨링된 데이터를 입력 받아 학습된 모델일 수 있다. 일 실시예에 따르면, 프로세서(230)는 메모리(예: 도 2의 메모리(220))에 저장된 판별 모델을 이용하여 제1이미지의 적어도 일부 영역에 해당하는 이미지(예: 제2이미지)가 전면 이미지인지 후면 이미지인지 여부를 확인할 수 있다. 프로세서(230)는 판별 모델에 제2이미지를 입력하여 제2이미지가 차량 전면 이미지인지 차량 후면 이미지인지 확인할 수 있다. 제2이미지는 제1이미지의 적어도 일부 영역에 해당하는 이미지일 수 있다. 제2이미지의 크기는 판별 모델의 처리 속도에 영향을 미칠 수 있다. 예를 들면, 제2이미지의 크기가 너무 큰 경우 판별 모델의 처리 시간이 길어질 수 있다. 또한, 제2이미지의 크기가 너무 작은 경우 판별 모델이 차량 전면 또는 후면 여부에 관한 판단의 정확성이 낮아질 수 있다. 일 실시예에 따르면, 제2이미지는 제1이미지에 포함된 일부 영역에 대한 이미지를, 미리 정해진 크기로 재조정한 이미지일 수 있다. 일 실시예에 따르면, 판별 모델은 제2이미지에 특징 오브젝트가 포함되어 있는지 여부에 기초하여 제2이미지가 차량 전면 이미지인지 차량 후면 이미지인지 확인할 수 있다. 특징 오브젝트는, 차량의 전면과 후면을 구분할 수 있는 시각적인 특징일 수 있다. 예를 들면, 특징 오브젝트는 차량의 전면에만 포함되는 전면 그릴 및/또는 공기 흡입구(air intake)를 포함할 수 있다. 또한 특징 오브젝트는 차량의 후면에만 포함되는 번호판 주위 음각 및/또는 조명 영역을 포함할 수 있다. 프로세서(230)는 제2이미지(340)에 특징 오브젝트가 포함되었는지 여부에 기초하여 전면 또는 후면 여부를 확인할 수 있다. 일 실시예에 따르면, 제2이미지는 특징 오브젝트의 적어도 일부를 포함할 수 있다. 일 실시예에 따르면, 제2이미지의 크기는 다양한 차종에 적용 하더라도 제2이미지 내에 특징 오브젝트의 적어도 일부 영역이 포함될 수 있도록 하는 크기를 가질 수 있고, 이러한 크기에 관한 정보는 미리 메모리(220)에 저장될 수 있다. 일 실시예에 따르면, 제2이미지의 크기는 차량 번호판에 해당하는 영역(예: 제1영역)으로부터 일정한 범위만큼 확장된 범위를 가질 수 있다. 예를 들면, 제2이미지는 차량 번호판에 해당하는 제1영역에 대하여 상하로 차량 번호판 높이의 3배만큼 확장된 영역에 해당하는 이미지일 수 있으나, 이는 확장되는 배수의 일례로서, 확장 배수는 3배로 한정되지 않는다. Referring to operation 440 , the processor 230 may determine whether the driving vehicle is front or rear. According to various embodiments, the processor 230 may determine whether the front or rear image of the vehicle included in the first image is the front or rear using the determination model for determining whether the image is the front or rear of the vehicle. According to an embodiment, the processor 230 may check whether the vehicle is front or rear using the second image. The discrimination model may be a model generated using an artificial intelligence algorithm. The discrimination model may be a model learned using a deep learning-based algorithm. For example, the discriminant model may be a model trained to determine whether the vehicle is front or rear based on a convolutional neural network (CNN) algorithm. According to an embodiment, the discrimination model may be a model learned by receiving image data including a vehicle front image and a vehicle rear image and data labeled with information on whether the front or rear side corresponding to each image data is input. According to an embodiment, the processor 230 uses the discrimination model stored in the memory (eg, the memory 220 of FIG. 2 ) to display an image (eg, the second image) corresponding to at least a partial region of the first image. You can check whether it is an image or a back image. The processor 230 may check whether the second image is a vehicle front image or a vehicle rear image by inputting the second image to the discrimination model. The second image may be an image corresponding to at least a partial region of the first image. The size of the second image may affect the processing speed of the discriminant model. For example, when the size of the second image is too large, the processing time of the discriminant model may be long. Also, when the size of the second image is too small, the accuracy of determining whether the discrimination model is the front or rear of the vehicle may be lowered. According to an embodiment, the second image may be an image obtained by re-adjusting an image of a partial region included in the first image to a predetermined size. According to an embodiment, the discrimination model may determine whether the second image is a vehicle front image or a vehicle rear image based on whether a feature object is included in the second image. The feature object may be a visual feature that can distinguish the front from the rear of the vehicle. For example, the feature object may include a front grille and/or air intake included only in the front of the vehicle. In addition, the feature object may include an intaglio and/or lighting area around the license plate included only at the rear of the vehicle. The processor 230 may determine whether the second image 340 includes a front or rear surface based on whether the feature object is included. According to an embodiment, the second image may include at least a part of the feature object. According to an embodiment, the size of the second image may be such that at least a partial region of the feature object is included in the second image even if it is applied to various vehicle types, and information about this size is stored in the memory 220 in advance. can be saved. According to an embodiment, the size of the second image may have a range extended by a certain range from an area corresponding to the license plate (eg, the first area). For example, the second image may be an image corresponding to an area extended by three times the height of the license plate up and down with respect to the first area corresponding to the license plate, but this is an example of the expanded multiple, and the expansion multiple is 3 not limited to ships.

동작 450을 참조하면, 프로세서(230)는 차량의 역주행 또는 역방향 여부를 판단할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제1이미지에 포함된 적어도 하나의 차량이 역주행 중인지, 또는 역방향으로 주차하였는지 확인할 수 있다. 프로세서(230)는 판별 모델을 이용하여 제1이미지의 적어도 일부 영역에 해당하는 이미지(예: 제2이미지)가 전면 이미지인지 후면 이미지인지 여부를 확인하고, 확인 결과에 기초하여 역주행 여부를 판단할 수 있다. 프로세서(230)는 제2이미지(230)의 전면 또는 후면 여부에 관한 결과에 기초하여 역주행 여부를 판단할 수 있다. 일 실시예에 따르면, 프로세서(230)는 도로의 진행 방향에 기초하여 역주행 여부를 판단할 수 있다. 예를 들면, 전자 장치(101)의 설치 위치 및/또는 방향에 따라 차량의 전면이 촬영되어야 순방향일 수 있고, 또는 차량의 후면이 촬영되어야 순방향일 수 있다. 메모리(예: 도 2의 메모리(220))는 도로의 진행 방향에 관한 데이터를 미리 저장할 수 있고, 프로세서(230)는 도로 진행 방향에 관한 데이터 및 제2이미지(230)가 전면 또는 후면인지 여부에 관한 정보에 기초하여 차량이 역주행 중인지 여부를 판단할 수 있다. 예를 들면, 전자 장치(101)는 전자 장치(101)의 촬영 방향과 마주하는 방향으로 진행하는 차량을 촬영하도록 설치될 수 있고, 프로세서(230)는 제2이미지가 차량 후면 이미지로 확인되는 경우 역주행 중으로 판단할 수 있다.Referring to operation 450 , the processor 230 may determine whether the vehicle is traveling in a reverse direction or in a reverse direction. According to an embodiment, the processor 230 may determine whether at least one vehicle included in the first image is traveling in the reverse direction or is parked in the reverse direction. The processor 230 may determine whether an image (eg, a second image) corresponding to at least a partial region of the first image is a front image or a rear image using the determination model, and determine whether to run in reverse based on the result of the confirmation. can The processor 230 may determine whether to run in the reverse direction based on a result of whether the second image 230 is a front or a rear side. According to an embodiment, the processor 230 may determine whether to drive in the reverse direction based on the traveling direction of the road. For example, depending on the installation location and/or direction of the electronic device 101 , the front direction of the vehicle may be photographed in the forward direction, or the rear direction of the vehicle may be photographed in the forward direction. The memory (eg, the memory 220 of FIG. 2 ) may store data on the driving direction of the road in advance, and the processor 230 determines whether the data and the second image 230 are the front or the rear of the road. It may be determined whether the vehicle is traveling in the reverse direction based on the information on the . For example, the electronic device 101 may be installed to photograph a vehicle traveling in a direction opposite to the photographing direction of the electronic device 101 , and the processor 230 may determine the second image as a vehicle rear image. It can be judged that it is running in reverse.

동작 460을 참조하면, 프로세서(230)는 역주행 정보를 생성할 수 있다. 역주행 정보는, 차량의 역주행 여부에 관한 데이터일 수 있다. 예를 들면, 역주행 정보는, 차량의 역주행 여부에 관한 정보를 포함하고, 차량의 번호판의 문자를 인식한 문자 데이터 및 제1이미지 가운데 적어도 하나를 포함할 수 있다. 프로세서(230)는 역주행 정보를 생성하고 생성된 역주행 정보를 일시적으로 메모리에 저장할 수 있다. 일 실시예에 따르면, 역주행 정보는, 역주행 여부에 관한 정보, 역주행에 해당하는 제1이미지의 촬영 시각, 차량의 번호판 문자 인식 데이터 및 제1이미지 가운데 적어도 일부를 포함할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제1이미지에 포함된 번호판 문자를 인식할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제1영역 내에 포함된 문자 이미지를 처리하여 텍스트 데이터로 인식할 수 있다. 일 실시예에 따르면, 프로세서(230)는 제1영역을 검출하고, 검출된 제1영역 내의 문자를 인식할 수 있다. 예를 들면, 프로세서(230)는 OCR(optical character recognition, 광학 문자 인식)을 수행하여 제1영역에 포함된 문자를 인식할 수 있다. 일 실시예에 따르면, 프로세서(230)는 문자를 인식하기 위하여 제1이미지 또는 제1이미지에 포함된 제1영역에 해당하는 이미지를 전처리 할 수 있다. 전처리는 예를 들면, 회색조(grey scale) 변환, 이미지 경계 필터링(image filtering), 이진화(binarization) 처리를 포함할 수 있다. 일 실시예에 따르면, 프로세서(230)는 메모리에 전처리를 위한 알고리즘 및/또는 인스트럭션을 저장할 수 있다. 일 실시예에 따르면, 프로세서(230)는 OCR 모델을 이용하여 문자를 인식할 수 있다. OCR 모델은 CNN(convolution neural network) 알고리즘을 기초로 입력된 이미지와 대응되는 문자 데이터를 출력하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 프로세서(230)는 메모리에 OCR 모델을 저장할 수 있다. 일 실시예에 따르면, 프로세서(230)는 역주행 여부를 판단한 이후, 역주행에 해당한다고 판단한 경우 번호판 영역(예: 제1영역)에 포함된 문자를 인식할 수 있다. 또는, 프로세서(230)는 역주행 여부와 관계 없이, 지속적으로 검출되는 제1영역에 대하여 문자 인식을 수행할 수 있다. 일 실시예에 따르면, 프로세서(230)는 역주행 여부에 관한 정보, 역주행에 해당하는 제1이미지의 촬영 시각, 차량의 번호판 문자 인식 데이터 및 제1이미지 가운데 적어도 일부를 포함하는 역주행 정보를 생성하고, 메모리(예: 도 2의 메모리(220))에 저장할 수 있다 일 실시예에 따르면, 프로세서(230)는 역주행 정보를 생성하고 외부 장치(예: 도 1의 외부 장치(102))로 전송할 수 있다.Referring to operation 460 , the processor 230 may generate reverse driving information. The reverse driving information may be data regarding whether the vehicle is driving in the reverse direction. For example, the reverse running information may include information on whether the vehicle is running in the reverse direction, and may include at least one of text data and a first image for recognizing text on a license plate of the vehicle. The processor 230 may generate reverse driving information and temporarily store the generated reverse driving information in a memory. According to an embodiment, the reverse driving information may include at least a portion of information on whether or not the reverse driving is performed, a photographing time of the first image corresponding to the reverse driving, character recognition data of the license plate of the vehicle, and the first image. According to an embodiment, the processor 230 may recognize the license plate characters included in the first image. According to an embodiment, the processor 230 may process a text image included in the first area and recognize it as text data. According to an embodiment, the processor 230 may detect the first area and recognize a character in the detected first area. For example, the processor 230 may recognize a character included in the first region by performing optical character recognition (OCR). According to an embodiment, the processor 230 may pre-process the first image or an image corresponding to the first region included in the first image in order to recognize the character. The pre-processing may include, for example, gray scale transformation, image filtering, and binarization processing. According to an embodiment, the processor 230 may store an algorithm and/or instructions for preprocessing in a memory. According to an embodiment, the processor 230 may recognize a character using an OCR model. The OCR model may be a model trained to output text data corresponding to an input image based on a convolution neural network (CNN) algorithm. According to an embodiment, the processor 230 may store the OCR model in a memory. According to an embodiment, the processor 230 may recognize the characters included in the license plate area (eg, the first area) when it is determined that the reverse driving corresponds to the reverse driving after determining whether the reverse driving is performed. Alternatively, the processor 230 may perform character recognition on the continuously detected first area regardless of whether the vehicle is traveling backwards or not. According to one embodiment, the processor 230 generates reverse driving information including at least a portion of information on whether or not reverse driving, a shooting time of a first image corresponding to reverse driving, license plate character recognition data of the vehicle, and a first image, may be stored in a memory (eg, the memory 220 of FIG. 2 ). According to an embodiment, the processor 230 may generate reverse driving information and transmit it to an external device (eg, the external device 102 of FIG. 1 ). .

도 5는 판별 모델을 학습시키기 위한 차량 전면 이미지 데이터의 일 예이다.5 is an example of vehicle front image data for training a discrimination model.

도 6은 판별 모델을 학습시키기 위한 차량 후면 이미지 데이터의 일 예이다.6 is an example of vehicle rear image data for training a discrimination model.

도 7은 다양한 실시예에 따른 제1영역에 기초하여 제2영역을 설정하는 것을 타나낸 것이다.7 illustrates setting of the second area based on the first area according to various embodiments of the present disclosure.

도 5 및 도 6을 참조하면, 제1이미지(예: 도 3의 제1이미지(310) 또는 도 7의 제1이미지(310))는 차량의 전면 이미지(201-1) 및/또는 차량의 후면 이미지(201-2)를 포함할 수 있다.5 and 6 , the first image (eg, the first image 310 of FIG. 3 or the first image 310 of FIG. 7 ) is the front image 201-1 of the vehicle and/or the vehicle The back image 201 - 2 may be included.

일 실시예에 따르면, 전자 장치(예: 도 1의 전자 장치(101))는 차량의 전면 이미지인지 후면 이미지인지 판단하는 판별 모델을 이용하여 제1이미지에 포함된 차량의 이미지(예: 제2이미지(340))가 차량의 전면인지 또는 후면인지 여부를 확인할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1이미지의 적어도 일부 영역(예: 제2영역)에 해당하는 이미지(예: 제2이미지(340))를 이용하여 차량의 전면 또는 후면 여부를 확인할 수 있다. 판별 모델은, 인공지능 알고리즘을 이용하여 생성된 모델일 수 있다. 판별 모델은, 딥러닝 기반의 알고리즘을 이용하여 학습된 모델일 수 있다. 예를 들면, 판별 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 차량의 전면 또는 후면 여부를 확인하도록 학습된 모델일 수 있다. 일 실시예에 따르면, 판별 모델은 차량 전면 이미지 및 차량 후면 이미지를 포함하는 이미지 데이터 및 각 이미지 데이터와 대응하는 전면 또는 후면 여부에 관한 정보가 라벨링된 데이터를 입력 받아 학습된 모델일 수 있다.According to an embodiment, the electronic device (eg, the electronic device 101 of FIG. 1 ) uses a discrimination model for determining whether the vehicle is a front image or a rear image of the vehicle, and the image of the vehicle included in the first image (eg, the second image) It may be checked whether the image 340 is the front or rear of the vehicle. According to an embodiment, the electronic device 101 determines whether the vehicle is the front or the rear using an image (eg, the second image 340 ) corresponding to at least a partial region (eg, the second region) of the first image. can be checked The discrimination model may be a model generated using an artificial intelligence algorithm. The discrimination model may be a model learned using a deep learning-based algorithm. For example, the discriminant model may be a model trained to determine whether the vehicle is front or rear based on a convolutional neural network (CNN) algorithm. According to an embodiment, the discrimination model may be a model learned by receiving image data including a vehicle front image and a vehicle rear image and data labeled with information on whether the front or rear side corresponding to each image data is input.

도 5를 참조하면, 판별 모델은 제2이미지(340)을 이용하여 차량의 전면 또는 후면을 인식하도록 학습될 수 있다. 제2이미지(340)는, 차량의 전면 (201-1)의 일부에 대한 이미지 또는 차량의 후면(201-2)의 일부에 대한 이미지를 포함할 수 있다. 일 실시예에 따르면, 판별 모델은 제2이미지(340)를 학습 데이터로 이용하여 차량의 전면 또는 후면을 인식하도록 학습될 수 있다. 도 5의 차량 전면 이미지(201-1), 도 6의 차량 후면 이미지(201-2) 및 제2이미지(340)는 차량 전면 이미지 또는 차량의 후면 이미지의 일 예이며, 다양한 이미지가 학습 데이터로 이용될 수 있다. 판별 모델은 차량 전면(201-1)의 일부에 대한 이미지가 포함하는 차량 후면(201-2)의 일부에 대한 이미지와 구별될 수 있는 특징 오브젝트에 기초하여 차량 전면 이미지(201-1) 또는 차량 후면 이미지(201-2)를 서로 구별할 수 있도록 학습될 수 있다. 특징 오브젝트는, 차량의 전면과 후면을 구분할 수 있는 시각적인 특징일 수 있다. 예를 들면, 특징 오브젝트는 차량의 전면 또는 후면에만 포함되는 시각적 특징, 즉, 형태 및/또는 색상으로 구별될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 차량 번호판(301)을 기준으로, 일정 범위 내에 특징 오브젝트가 존재하는지 여부를 기초로 제2이미지가 차량의 전면 이미지인지 후면 이미지인지 판단할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 차량 번호판(301)을 기준으로, 일정 범위의 영역(예: 도 7의 제2영역(330)) 내에 특징 오브젝트의 적어도 일부 영역이 포함되었는지 여부를 기초로 제2이미지(340)가 차량 전면의 일부에 해당하는 이미지인지 후면의 일부에 해당하는 이미지인지 판단할 수 있다. 예를 들면, 제2이미지(340) 내에는 특징 오브젝트의 일부만이 포함되어 있을 수 있다.도 5, 도 6 및 도 7을 참조하면, 차량 전면 이미지(201-1)가 차량 후면 이미지(201-2)와 구별될 수 있는 특징 오브젝트는, 전면 그릴(510) 및/또는 공기 흡입구(air intake)(520)를 포함할 수 있다. 또한 차량 후면 이미지(201-2)가 차량 전면 이미지(201-1)와 구별될 수 있는 특징 오브젝트는, 후면 번호판(301) 주변에 형성된 음각(610) 영역 및 번호판(301) 상단에 형성되는 조명(620)으로 인한 조도 변화를 포함할 수 있다. 번호판(301) 상단의 조명(620)의 경우, 야간에 촬영된 제2이미지(340)의 경우에 다른 영역과 구별될 수 있는 특징 오브젝트가 될 수 있다. 일 실시예에 따르면, 제2이미지(340)는 특징 오브젝트가 형성하는 영역 가운데 일부를 포함할 수 있다. 예를 들어, 제2이미지(340)는 전면 그릴(510)의 일부 및/또는 공기 흡입구(520)의 일부를 포함할 수 있다. 또 다른 예를 들어, 제2이미지(340)는 음각(610)의 일부 및/또는 후면 번호판(301) 상단 조명(620)의 일부를 포함할 수 있다. Referring to FIG. 5 , the discrimination model may be trained to recognize the front or rear side of the vehicle using the second image 340 . The second image 340 may include an image of a part of the front surface 201-1 of the vehicle or an image of a part of the rear surface 201-2 of the vehicle. According to an embodiment, the discrimination model may be trained to recognize the front or rear side of the vehicle by using the second image 340 as training data. The vehicle front image 201-1 of FIG. 5, the vehicle rear image 201-2 and the second image 340 of FIG. 6 are examples of the vehicle front image or the rear image of the vehicle, and various images are used as learning data. can be used The discrimination model is the vehicle front image 201-1 or the vehicle based on a feature object that can be distinguished from the image for a part of the vehicle rear 201-2 included in the image for a part of the vehicle front 201-1. It can be learned to distinguish the back image 201 - 2 from each other. The feature object may be a visual feature that can distinguish the front from the rear of the vehicle. For example, the feature object may be distinguished by a visual feature included only in the front or rear of the vehicle, ie, shape and/or color. According to an embodiment, the electronic device 101 may determine whether the second image is a front image or a rear image of the vehicle based on whether a feature object exists within a predetermined range based on the license plate 301 . According to an embodiment, the electronic device 101 determines whether at least a partial area of the feature object is included within a certain range (eg, the second area 330 of FIG. 7 ) based on the license plate 301 . Based on this, it may be determined whether the second image 340 is an image corresponding to a part of the front of the vehicle or an image corresponding to a part of the rear of the vehicle. For example, only a part of the feature object may be included in the second image 340. Referring to FIGS. 5, 6, and 7, the vehicle front image 201-1 is the vehicle rear image 201- The feature object that can be distinguished from 2) may include a front grill 510 and/or an air intake 520 . In addition, the vehicle rear image 201-2 is a feature object that can be distinguished from the vehicle front image 201-1, the intaglio 610 area formed around the rear license plate 301 and the lighting formed at the top of the license plate 301 The illuminance change due to 620 may be included. In the case of the light 620 at the top of the license plate 301, in the case of the second image 340 taken at night, it may be a feature object that can be distinguished from other areas. According to an embodiment, the second image 340 may include a part of the area formed by the feature object. For example, the second image 340 may include a portion of the front grill 510 and/or a portion of the air intake 520 . For another example, the second image 340 may include a portion of the intaglio 610 and/or a portion of the rear license plate 301 top light 620 .

다양한 실시예에 따르면, 전자 장치(101)는 판별 모델을 이용하여 차량 전면(201-1)에 해당하는 제2이미지(340) 및/또는 차량 후면(201-2)에 해당하는 제2이미지(340)의 특징 오브젝트 차이에 기초하여 입력된 이미지(예: 제1이미지)가 차량의 전면인지 후면인지 여부를 판단할 수 있다.According to various embodiments, the electronic device 101 uses the discrimination model to generate a second image 340 corresponding to the front side of the vehicle 201-1 and/or a second image corresponding to the rear side 201-2 of the vehicle ( 201 - 2 ). 340), it may be determined whether the input image (eg, the first image) is the front or rear of the vehicle based on the difference between the feature objects.

판별 모델은 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여 차량 전면(201-1) 및/또는 후면(201-2)의 특징 오브젝트 가운데 어느 하나를 식별하도록 학습될 수 있다. 예를 들어, 판별 모델은, 차량 전면의 특징 오브젝트들(예: 전면 그릴(510) 및/또는 공기 흡입구(520)) 가운데 어느 하나의 적어도 일부가 포함된 복수의 차량 이미지 데이터를 이용하여 훈련될 수 있다. 일 실시예에 따르면, 판별 모델은, 특징 오브젝트의 일부 영역만이 포함된 제2이미지(340)를 이용하여 차량의 전면 또는 후면 여부를 판단할 수 있도록 학습될 수 있다. 예를 들어, 판별 모델은, 공기 흡입구(520)의 일부 영역만이 포함된 제2이미지(340)를 이용하여 차량의 전면 또는 후면 여부를 판단할 수 있다. 판별 모델의 훈련을 위하여 사용되는 학습 데이터는, 차량 전면의 특징 오브젝트들 가운데 적어도 하나를 포함하는, 차량의 적어도 일부(예: 제2이미지(340))가 촬영된 이미지를 포함할 수 있다. 판별 모델은 제1이미지 내에서 차량을 식별하기 위하여 우선적으로 번호판 영역을 검출할 수 있으므로, 학습 데이터는 차량 번호판(301)을 적어도 포함하고, 차량 전면의 특징 오브젝트들 가운데 적어도 하나가 포함되는 이미지(예: 도 3의 제2이미지(340))를 포함할 수 있다. 일 실시예에 따르면, 판별 모델은 복수의 제2이미지를 통해 학습될 수 있다.The discriminant model may be trained to identify any one of the feature objects of the vehicle front 201-1 and/or rear 201-2 based on a convolutional neural network (CNN) algorithm. For example, the discriminant model may be trained using a plurality of vehicle image data including at least a portion of any one of the feature objects of the front of the vehicle (eg, the front grill 510 and/or the air intake 520 ). can According to an embodiment, the discrimination model may be trained to determine whether the vehicle is the front or the rear using the second image 340 including only a partial region of the feature object. For example, the discrimination model may determine whether the vehicle is the front or the rear using the second image 340 including only a partial area of the air intake 520 . The training data used for training the discrimination model may include an image in which at least a portion of the vehicle (eg, the second image 340 ) including at least one of the feature objects in the front of the vehicle is captured. Since the discrimination model can preferentially detect the license plate area to identify the vehicle in the first image, the learning data includes at least the license plate 301, and at least one of the feature objects on the front of the vehicle is included ( For example, the second image 340 of FIG. 3) may be included. According to an embodiment, the discrimination model may be learned through a plurality of second images.

또 다른 예를 들어, 판별 모델은, 차량 후면의 특징 오브젝트들(예: 번호판(301) 주변의 음각(610) 및/또는 번호판(301) 상단 조명(620)) 가운데 어느 하나의 적어도 일부가 포함된 복수의 차량 이미지 데이터를 이용하여 훈련될 수 있다. 판별 모델의 훈련을 위하여 사용되는 학습 데이터는, 차량 후면의 특징 오브젝트들 가운데 적어도 하나를 포함하는, 차량의 적어도 일부가 촬영된 이미지를 포함할 수 있다. 판별 모델은 제1이미지 내에서 차량을 식별하기 위하여 우선적으로 번호판 영역을 검출할 수 있으므로, 학습 데이터는 차량 번호판(301)을 적어도 포함하고, 차량 후면의 특징 오브젝트들 가운데 적어도 하나가 포함되는 이미지(예: 도 3의 제2이미지(340))를 포함할 수 있다. 일 실시예에 따르면, 판별 모델은 복수의 제2이미지(340)를 통해 학습될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 특징 오브젝트의 일부 영역이 포함된 복수의 제2이미지(340)를 이용하여 판별 모델을 학습시킬 수 있다.For another example, the discrimination model includes at least a portion of any one of the feature objects on the rear of the vehicle (eg, the intaglio 610 around the license plate 301 and/or the license plate 301 top light 620). It can be trained using a plurality of vehicle image data. The training data used for training the discrimination model may include an image of at least a portion of the vehicle including at least one of the feature objects on the rear of the vehicle. Since the discrimination model can detect the license plate area preferentially to identify the vehicle in the first image, the learning data includes at least the license plate 301, and at least one of the feature objects on the rear of the vehicle is included ( For example, the second image 340 of FIG. 3) may be included. According to an embodiment, the discrimination model may be learned through the plurality of second images 340 . According to an embodiment, the electronic device 101 may train the discrimination model by using the plurality of second images 340 including a partial region of the feature object.

일 실시예에 따르면, 전자 장치(101)는 제2이미지(예: 도 3의 제2이미지(340))를 획득하고, 판별 모델을 이용하여 획득된 제2이미지(340)가 차량의 전면인지 차량의 후면인지 여부를 판단할 수 있다.According to an embodiment, the electronic device 101 acquires a second image (eg, the second image 340 of FIG. 3 ), and determines whether the acquired second image 340 using the discrimination model is the front of the vehicle. It can be determined whether it is the rear of the vehicle.

도 7을 참조하면, 제2이미지(340)는 제1이미지(310)의 적어도 일부일 수 있다. 전자 장치(101)는 정확하고 효율적인 판별을 위하여 제1영역(310)의 일부만(예: 제2이미지(340))을 이용하여 차량의 전면 또는 후면 여부를 확인할 수 있다. 제1영역(310)은, 전자 장치(101)가 식별하는 차량 번호판(301)이 형성하는 영역일 수 있다. 일 실시예에 따르면, 제2이미지(340)는 제1영역(310)을 기초로 선택되는 영역일 수 있다. 예를 들어, 제2이미지(340)는 제1영역(310)이 미리 정해진 비율만큼 확장된 영역을 포함할 수 있다. 또 다른 예를 들어, 제2이미지(340)는 제1영역(320)으로부터 미리 정해진 비율만큼 이격된 위치에 형성된 영역을 포함할 수 있다. 일 실시예에 따르면, 제2이미지(340)는 제1영역(320)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 번호판 영역 검출 모델을 이용하여, 제1이미지(310) 내에서 번호판(301)이 존재하는 제1영역(320)을 검출할 수 있다. 전자 장치(101)는 제1영역(320)에 기초하여 제2영역(330)을 선택할 수 있다. 다양한 실시예에 따르면, 전자 장치(101)는 제1영역(320)의 위치, 면적 및/또는 길이에 기초하여 제2이미지(340)를 선택할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1영역(320)의 위치, 면적 및/또는 길이를 확인할 수 있다. 일 예로, 제1영역(320)는 직사각형 또는 직사각형과 유사한 형태를 포함하는 영역일 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1영역(320)을 좌우 방향으로 확장한 영역을 제2이미지(340)로 선택할 수 있다. 전자 장치(101)는 제1영역(320)의 가로 길이(예: d1)에 기초하여 미리 정해진 비율만큼 확장한 d3를 제2이미지(340)의 가로 길이로 하여 제2이미지(340)를 선택할 수 있다. 가로 길이를 확장하여 선택된 제2이미지(340)는 차량 후면 번호판(301) 주위 음각 영역(610)의 적어도 일부를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1영역(320)을 상하 방향으로 확장한 영역을 제2영역(330)으로 선택할 수 있다. 전자 장치(101)는 제1영역(320)의 세로 길이(예: d2)에 기초하여 미리 정해진 비율만큼 확장한 d4를 제2이미지(340)의 세로 길이로 하여 제2이미지(340)를 선택할 수 있다. 세로 길이를 확장하여 선택된 제2이미지(340)는 전면 그릴(510) 및/또는 공기 흡입구(520) 영역과, 후면 번호판(301) 상단의 조명 영역(620) 및/또는 번호판(301) 영역(예: 제1영역(320))을 포함할 수 있다. 전자 장치(101)는 차량 전면 이미지(201-1) 및/또는 차량 후면 이미지(201-2)의 특징 오브젝트들(예: 전면 그릴(510), 공기 흡입구(520), 번호판(301) 주변 음각(610) 및/또는 번호판(301) 주위 조명(620)) 가운데 적어도 하나를 포함할 수 있도록 하는 제1영역(320)에 대한 제2이미지(340)의 확대 비율에 관한 정보를 메모리(예: 도 2의 메모리(220)에 미리 저장하고 있을 수 있다. 전자 장치(101)는 미리 설정된 비율에 기초하여 제1영역(320)을 확장하여, 차량 전면 이미지(201-1) 및/또는 차량 후면 이미지(201-2)의 특징 오브젝트들(예: 전면 그릴(510), 공기 흡입구(520), 번호판(301) 주변 음각(610) 및/또는 번호판(301) 주위 조명(620)) 가운데 적어도 하나가 형성하는 영역을 포함하는 제2영역(330)을 선택할 수 있다. 전자 장치(101)는 제2영역(330)을 선택하고, 선택된 제2영역(330)에 대응하는 제2이미지를 생성할 수 있다.Referring to FIG. 7 , the second image 340 may be at least a part of the first image 310 . The electronic device 101 may check whether the vehicle is front or rear using only a part of the first area 310 (eg, the second image 340 ) for accurate and efficient determination. The first area 310 may be an area formed by the license plate 301 identified by the electronic device 101 . According to an embodiment, the second image 340 may be a region selected based on the first region 310 . For example, the second image 340 may include a region in which the first region 310 is expanded by a predetermined ratio. As another example, the second image 340 may include a region formed at a position spaced apart from the first region 320 by a predetermined ratio. According to an embodiment, the second image 340 may include the first region 320 . According to an embodiment, the electronic device 101 may detect the first area 320 in which the license plate 301 exists in the first image 310 by using the license plate area detection model. The electronic device 101 may select the second area 330 based on the first area 320 . According to various embodiments, the electronic device 101 may select the second image 340 based on the location, area, and/or length of the first region 320 . According to an embodiment, the electronic device 101 may check the location, area, and/or length of the first region 320 . For example, the first region 320 may be a region including a rectangle or a shape similar to a rectangle. According to an embodiment, the electronic device 101 may select an area extending in the left and right directions of the first area 320 as the second image 340 . The electronic device 101 selects the second image 340 by setting d3 expanded by a predetermined ratio based on the horizontal length (eg, d1 ) of the first region 320 as the horizontal length of the second image 340 . can The second image 340 selected by extending the horizontal length may include at least a portion of the engraved area 610 around the rear license plate 301 of the vehicle. According to an embodiment, the electronic device 101 may select an area extending in the vertical direction of the first area 320 as the second area 330 . The electronic device 101 selects the second image 340 by setting d4 expanded by a predetermined ratio based on the vertical length (eg, d2 ) of the first region 320 as the vertical length of the second image 340 . can The second image 340 selected by extending the vertical length is the front grill 510 and/or air intake 520 area, and the rear license plate 301 upper lighting area 620 and/or license plate 301 area ( For example, the first region 320) may be included. The electronic device 101 engraves the vehicle front image 201-1 and/or the vehicle rear image 201-2 around characteristic objects (eg, the front grill 510, the air intake 520, and the license plate 301). 610 and / or information about the enlargement ratio of the second image 340 for the first area 320 to include at least one of the ambient lighting 620) of the license plate 301 is stored in a memory (eg: It may be stored in advance in the memory 220 of Fig. 2. The electronic device 101 expands the first area 320 based on a preset ratio, so as to display the vehicle front image 201-1 and/or the vehicle rear side. At least one of the feature objects of the image 201-2 (eg, the front grill 510, the air intake 520, the license plate 301 surrounding intaglio 610 and/or the license plate 301 ambient lighting 620) may select the second region 330 including the region formed by .The electronic device 101 selects the second region 330 and generates a second image corresponding to the selected second region 330 . can

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는, 카메라 모듈, 및 상기 카메라 모듈과 작동적으로(operatively) 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 카메라 모듈을 제어하여 동영상을 촬영하여 차량 이미지가 포함된 제1이미지를 획득하는 동작, 상기 메모리에 저장된 번호판 검출 모델을 이용하여 상기 제1이미지 내에서 적어도 하나의 번호판 이미지를 포함하는 제1영역을 검출 하는 동작, 상기 제1이미지 내에서 상기 제1영역으로부터 일정 범위의 영역만큼 확장된 제2영역에 해당하는 제2이미지를 획득하는 동작, 판별 모델을 이용하여 상기 제2이미지에 적어도 하나의 특징 오브젝트가 포함되었는지 여부를 판단하고, 상기 판단에 기초하여 상기 제2이미지가 차량의 전면 이미지인지 후면 이미지인지 여부를 확인하는 동작 및 상기 전면 이미지인지 후면 이미지인지 여부에 기초하여 상기 제1이미지에 포함된 차량의 주행 방향을 확인하는 동작을 수행할 수 있다. An electronic device according to various embodiments disclosed in this document includes a camera module and a processor operatively connected to the camera module, wherein the processor controls the camera module to capture a moving picture to capture a vehicle image The operation of obtaining a first image including the operation of detecting a first area including at least one license plate image in the first image using the license plate detection model stored in the memory, the first image in the An operation of acquiring a second image corresponding to a second area extended by a certain range from the first area, determining whether at least one feature object is included in the second image using a discrimination model, and the determination An operation of determining whether the second image is a front image or a rear image of a vehicle based on can do.

또한, 상기 판별 모델은, 상기 제2이미지 내에 상기 적어도 하나의 특징 오브젝트가 존재하는지 여부를 판단하는 것을 학습하는 동작을 수행하고, 상기 판별 모델은 학습을 통해 상기 제2이미지 내에 상기 번호판 이미지 및 상기 특징 오브젝트가 모두 존재하는지 여부를 확인하는 동작을 수행할 수 있다. In addition, the discrimination model performs an operation of learning to determine whether the at least one feature object exists in the second image, and the discrimination model is the license plate image and the second image in the second image through learning An operation of checking whether all feature objects exist may be performed.

또한, 상기 판별 모델은, 입력된 이미지에 공기 흡입구 영역과 번호판 이미지가 동시에 존재하는지 여부를 판단하도록 학습될 수 있다. In addition, the discrimination model may be learned to determine whether the air intake area and the license plate image are present in the input image at the same time.

또한, 상기 판별 모델은, 입력된 이미지에 번호판 주위에 형성된 음각 영역이 존재하는지 여부를 판단하도록 학습될 수 있다. In addition, the discrimination model may be learned to determine whether there is an intaglio region formed around the license plate in the input image.

또한, 상기 판별 모델은, 입력된 이미지에 번호판 상단 조명 영역이 존재하는지 여부를 판단하도록 학습될 수 있다. In addition, the discrimination model can be learned to determine whether the license plate upper lighting area is present in the input image.

또한, 상기 판별 모델은, 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여, 입력된 이미지가 차량의 전방 또는 후방인지 여부를 판단하는 것을 학습하는 동작을 수행하고, 상기 학습하는 동작은 번호판을 포함하는 복수의 차량 전면 이미지 및 번호판을 포함하는 복수의 차량 후면 이미지를 포함하는 복수의 이미지 데이터와 상기 복수의 이미지 데이터 각각에 대응하는 전면 또는 후면 여부에 관한 정보가 라벨링된 데이터를 이용한 라벨링 학습 기법을 포함할 수 있다. In addition, the discrimination model, based on a convolutional neural network (CNN) algorithm, performs an operation of learning to determine whether the input image is the front or rear of the vehicle, and the learning operation is a license plate Labeling learning using a plurality of image data including a plurality of vehicle front images and a plurality of vehicle rear images including a license plate and information on whether the front or the rear corresponding to each of the plurality of image data is labeled techniques may be included.

또한, 상기 제2영역은 상기 제1영역에 대하여 상하 방향으로 미리 정해진 배수만큼 확장된 영역을 적어도 포함할 수 있다. Also, the second area may include at least an area extended by a predetermined multiple in the vertical direction with respect to the first area.

또한, 상기 프로세서는, 상기 차량의 주행 방향에 기초하여 상기 차량의 역주행 여부를 판단하는 동작, 상기 역주행 여부에 기초하여 상기 제1이미지를 저장하는 동작을 더 수행할 수 있다. The processor may further perform an operation of determining whether the vehicle is traveling in the reverse direction based on the traveling direction of the vehicle, and an operation of storing the first image based on whether the vehicle is traveling in the reverse direction.

또한, 상기 프로세서는, 상기 제1이미지에 포함된 번호판 내의 문자를 인식하고, 상기 차량의 주행 방향에 기초하여 상기 차량의 역주행 여부를 판단 하는 동작, 상기 역주행 여부에 기초하여 상기 인식된 문자를 저장하는 동작을 더 수행할 수 있다. In addition, the processor recognizes the characters in the license plate included in the first image, determines whether the vehicle is traveling in the reverse direction based on the driving direction of the vehicle, and stores the recognized characters based on whether the vehicle is traveling in the reverse direction. more actions can be performed.

본 문서에 개시된 다양한 실시예에 따른 전자 장치가 차량의 주행 방향을 확인하는 방법은, 동영상을 촬영하여 차량 이미지가 포함된 제1이미지를 획득하는 단계, 번호판 검출 모델을 이용하여 상기 제1이미지 내에서 적어도 하나의 번호판 이미지를 포함하는 제1영역을 검출 하는 단계, 상기 제1이미지 내에서 상기 제1영역으로부터 일정 범위의 영역만큼 확장된 제2영역에 해당하는 제2이미지를 획득하는 단계, 판별 모델을 이용하여 상기 제2이미지에 적어도 하나의 특징 오브젝트가 포함되었는지 여부를 판단하고, 상기 판단에 기초하여 상기 제2이미지가 차량의 전면 이미지인지 후면 이미지인지 여부를 확인하는 단계, 및 상기 전면 이미지인지 후면 이미지인지 여부에 기초하여 상기 제1이미지에 포함된 차량의 주행 방향을 확인하는 단계를 포함할 수 있다. A method for an electronic device to determine a driving direction of a vehicle according to various embodiments disclosed in this document includes: acquiring a first image including a vehicle image by shooting a video; Detecting a first area including at least one license plate image in the first image, obtaining a second image corresponding to a second area extended by a predetermined area from the first area in the first image, determining determining whether at least one feature object is included in the second image using a model, and determining whether the second image is a front image or a rear image of a vehicle based on the determination, and the front image The method may include confirming the driving direction of the vehicle included in the first image based on whether it is a recognized rear image.

또한, 상기 판별 모델은, 상기 제2이미지 내에 상기 적어도 하나의 특징 오브젝트가 존재하는지 여부를 판단하는 것을 학습하는 동작을 수행하고, 상기 판별 모델은 학습을 통해 상기 제2이미지 내에 상기 번호판 이미지 및 상기 특징 오브젝트가 모두 존재하는지 여부를 확인하는 동작을 수행할 수 있다. In addition, the discrimination model performs an operation of learning to determine whether the at least one feature object exists in the second image, and the discrimination model is the license plate image and the second image in the second image through learning An operation of checking whether all feature objects exist may be performed.

또한, 상기 판별 모델은, 입력된 이미지에 공기 흡입구 영역과 번호판 이미지가 동시에 존재하는지 여부를 판단하도록 학습될 수 있다. In addition, the discrimination model may be learned to determine whether the air intake area and the license plate image are present in the input image at the same time.

또한, 상기 판별 모델은, 합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여, 입력된 이미지가 차량의 전방 또는 후방인지 여부를 판단하도록 학습되고, 상기 학습은 번호판을 포함하는 복수의 차량 전면 이미지 및 번호판을 포함하는 복수의 차량 후면 이미지를 포함하는 복수의 이미지 데이터와 상기 복수의 이미지 데이터 각각에 대응하는 전면 또는 후면 여부에 관한 정보가 라벨링된 데이터를 이용한 라벨링 학습 기법을 포함할 수 있다. In addition, the discrimination model, based on a convolutional neural network (CNN) algorithm, is trained to determine whether the input image is the front or rear of the vehicle, the learning is a plurality of vehicle front including a license plate A plurality of image data including a plurality of rear images of the vehicle including an image and a license plate, and information on whether the front or rear corresponding to each of the plurality of image data may include a labeling learning technique using the labeled data.

또한, 상기 제2영역은 상기 제1영역에 대하여 상하 방향으로 미리 정해진 배수만큼 확장된 영역을 적어도 포함할 수 있다. Also, the second area may include at least an area extended by a predetermined multiple in the vertical direction with respect to the first area.

또한, 상기 차량의 주행 방향에 기초하여 상기 차량의 역주행 여부를 판단하는 단계, 및 상기 역주행 여부에 기초하여 상기 제1이미지를 저장하는 단계를 포함할 수 있다. The method may further include determining whether the vehicle is traveling in the reverse direction based on the traveling direction of the vehicle, and storing the first image based on whether the vehicle is traveling in the reverse direction.

또한, 상기 제1이미지에 포함된 번호판 내의 문자를 인식하는 단계, 상기 차량의 주행 방향에 기초하여 상기 차량의 역주행 여부를 판단하는 단계, 및 상기 역주행 여부에 기초하여 상기 인식된 문자를 저장하는 단계를 포함할 수 있다.In addition, the steps of recognizing a character in the license plate included in the first image, determining whether the vehicle is traveling in the reverse direction based on the driving direction of the vehicle, and storing the recognized character based on whether the vehicle is traveling in the reverse direction may include.

Claims (16)

전자 장치에 있어서,
카메라 모듈;
데이터를 저장하는 메모리; 및
상기 카메라 모듈과 작동적으로(operatively) 연결된 프로세서를 포함하고,
상기 프로세서는,
상기 카메라 모듈을 제어하여 동영상을 촬영하여 상기 촬영한 동영상으로부터 차량 이미지가 포함된 제1이미지를 획득하는 동작,
상기 메모리에 저장된 번호판 검출 모델을 이용하여 상기 제1이미지 내에서 번호판 이미지를 포함하는 제1영역을 검출 하는 동작,
상기 제1이미지로부터, 상기 제1영역을 내부에 포함하고, 상기 제1영역과 동일한 중심을 가지며, 상기 제1영역의 면적에 대하여 미리 정해진 만큼 확장된 면적을 갖는 제2영역에 해당하는 제2이미지를 획득하는 동작,
판별 모델을 이용하여 상기 제2이미지를 분석하여 상기 제2이미지 내에 특징 오브젝트가 존재하는지를 확인하고, 상기 확인된 상기 제2이미지 내의 특징 오브젝트에 기초하여 상기 제2이미지가 차량의 전면 이미지인지 후면 이미지인지 여부를 판단하는 동작 및
상기 메모리에 저장된 도로의 진행 방향에 관한 데이터 및 상기 전면 이미지인지 후면 이미지인지 여부의 조합에 기초하여 상기 제1이미지에 포함된 차량의 주행 방향을 확인하는 동작을 수행하며,
상기 제2이미지는 상기 제1이미지의 일부로부터 획득되며,
상기 판별 모델은 상기 제2이미지만을 분석하는, 전자 장치.
In an electronic device,
camera module;
memory for storing data; and
a processor operatively connected to the camera module;
The processor is
An operation of controlling the camera module to shoot a video and acquiring a first image including a vehicle image from the captured video;
Detecting a first area including a license plate image in the first image using the license plate detection model stored in the memory,
From the first image, a second region including the first region, having the same center as the first region, and corresponding to a second region having an area extended by a predetermined amount with respect to the area of the first region the act of acquiring an image;
The second image is analyzed using a discrimination model to determine whether a feature object exists in the second image, and based on the identified feature object in the second image, whether the second image is a front image of a vehicle or a rear image action to determine whether it is recognized, and
Performs an operation of confirming the driving direction of the vehicle included in the first image based on a combination of the data on the driving direction of the road stored in the memory and whether it is the front image or the rear image,
The second image is obtained from a portion of the first image,
The discriminant model analyzes only the second image.
제1항에 있어서,
상기 판별 모델은,
상기 제2이미지 내에 상기 특징 오브젝트가 존재하는지 여부를 판단하는 것을 학습하는 동작을 수행하고,
상기 판별 모델은 학습을 통해 상기 제2이미지 내에 상기 번호판 이미지 및 상기 특징 오브젝트가 모두 존재하는지 여부를 확인하는 동작을 수행하는 전자 장치.
According to claim 1,
The discriminant model is
performing an operation of learning to determine whether the feature object exists in the second image,
The discrimination model is an electronic device for performing an operation to check whether both the license plate image and the feature object in the second image through learning.
제1항에 있어서,
상기 판별 모델은,
입력된 이미지에 공기 흡입구 영역과 번호판 이미지가 동시에 존재하는지 여부를 판단하도록 학습된 전자 장치.
According to claim 1,
The discriminant model is
An electronic device trained to determine whether the air intake area and the license plate image exist simultaneously in the input image.
제1항에 있어서,
상기 판별 모델은,
입력된 이미지에 번호판 주위에 형성된 음각 영역이 존재하는지 여부를 판단하도록 학습된 전자 장치.
According to claim 1,
The discriminant model is
An electronic device trained to determine whether an intaglio region formed around the license plate exists in the input image.
제1항에 있어서,
상기 판별 모델은,
입력된 이미지에 번호판 상단 조명 영역이 존재하는지 여부를 판단하도록 학습된 전자 장치.
According to claim 1,
The discriminant model is
An electronic device that has been trained to determine whether a license plate top lighting area is present in the input image.
제1항에 있어서,
상기 판별 모델은,
합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여, 입력된 이미지가 차량의 전방 또는 후방인지 여부를 판단하는 것을 학습하는 동작을 수행하고,
상기 학습하는 동작은 번호판을 포함하는 복수의 차량 전면 이미지 및 번호판을 포함하는 복수의 차량 후면 이미지를 포함하는 복수의 이미지 데이터와 상기 복수의 이미지 데이터 각각에 대응하는 전면 또는 후면 여부에 관한 정보가 라벨링된 데이터를 이용한 라벨링 학습 기법을 포함하는 전자 장치.
According to claim 1,
The discriminant model is
Based on a convolutional neural network (CNN) algorithm, the operation of learning to determine whether the input image is the front or rear of the vehicle is performed,
In the learning operation, a plurality of image data including a plurality of vehicle front images including a license plate and a plurality of vehicle rear images including a license plate and information on whether the front or rear corresponding to each of the plurality of image data are labeled An electronic device including a labeling learning technique using the data.
제1항에 있어서,
상기 제1영역은 사각형 형태를 포함하고,
상기 제2영역은,
상기 제1영역의 가로 길이 및/또는 세로 길이를 미리 정해진 길이의 배수만큼 확장한 범위에 대응되는 면적을 포함하고,
상기 미리 정해진 길이의 배수는, 3배 이내인 전자 장치.
According to claim 1,
The first region includes a rectangular shape,
The second area is
including an area corresponding to a range in which a horizontal length and/or a vertical length of the first region is extended by a multiple of a predetermined length,
The multiple of the predetermined length is within three times.
제1항에 있어서,
상기 프로세서는,
상기 차량의 주행 방향에 기초하여 상기 차량의 역주행 여부를 판단하는 동작,
상기 역주행 여부에 기초하여 상기 제1이미지를 저장하는 동작을 더 수행하는 전자 장치.
According to claim 1,
The processor is
Determining whether the vehicle is traveling in the reverse direction based on the traveling direction of the vehicle;
The electronic device further performing an operation of storing the first image based on whether the vehicle is traveling in the reverse direction.
제1항에 있어서,
상기 프로세서는,
상기 제1이미지에 포함된 번호판 내의 문자를 인식하고,
상기 차량의 주행 방향에 기초하여 상기 차량의 역주행 여부를 판단 하는 동작,
상기 역주행 여부에 기초하여 상기 인식된 문자를 저장하는 동작을 더 수행하는, 전자 장치.
According to claim 1,
The processor is
Recognizing the characters in the license plate included in the first image,
Determining whether the vehicle is traveling in the reverse direction based on the traveling direction of the vehicle;
The electronic device further performing an operation of storing the recognized character based on whether the vehicle travels in the reverse direction.
전자 장치가 차량의 주행 방향을 확인하는 방법에 있어서,
동영상을 촬영하여 상기 촬영한 동영상으로부터 차량 이미지가 포함된 제1이미지를 획득하는 단계;
번호판 검출 모델을 이용하여 상기 제1이미지 내에서 번호판 이미지를 포함하는 제1영역을 검출 하는 단계;
상기 제1이미지로부터, 상기 제1영역을 내부에 포함하고, 상기 제1영역과 동일한 중심을 가지며, 상기 제1영역의 면적에 대해 미리 정해진 배수만큼 확장된 면적을 갖는 제2영역에 해당하는 제2이미지를 획득하는 단계;
판별 모델을 이용하여 상기 제2이미지를 분석하여 상기 제2이미지 내에 특징 오브젝트가 존재하는지를 확인하고, 상기 확인된 상기 제2이미지 내의 특징 오브젝트에 기초하여 상기 제2이미지가 차량의 전면 이미지인지 후면 이미지인지 여부를 판단하는 단계; 및
상기 전자 장치에 저장된 도로의 진행 방향에 관한 데이터 및 상기 전면 이미지인지 후면 이미지인지 여부의 조합에 기초하여 상기 제1이미지에 포함된 차량의 주행 방향을 확인하는 단계를 포함하고,
상기 제2이미지는 상기 제1이미지의 일부로부터 획득되며,
상기 판별 모델은 상기 제2이미지만을 분석하는, 방법.
A method for an electronic device to determine a driving direction of a vehicle, the method comprising:
acquiring a first image including a vehicle image from the captured video by taking a video;
detecting a first area including a license plate image in the first image using a license plate detection model;
From the first image, a second area including the first area, having the same center as the first area, and corresponding to a second area having an area extended by a predetermined multiple of the area of the first area 2 acquiring an image;
The second image is analyzed using a discrimination model to determine whether a feature object exists in the second image, and based on the identified feature object in the second image, whether the second image is a front image of a vehicle or a rear image determining whether it is recognized; and
determining the driving direction of the vehicle included in the first image based on a combination of data regarding the traveling direction of the road stored in the electronic device and whether the image is the front image or the rear image,
The second image is obtained from a portion of the first image,
The discriminant model analyzes only the second image.
제10항에 있어서,
상기 판별 모델은,
상기 제2이미지 내에 상기 특징 오브젝트가 존재하는지 여부를 판단하는 것을 학습하는 동작을 수행하고,
상기 판별 모델은 학습을 통해 상기 제2이미지 내에 상기 번호판 이미지 및 상기 특징 오브젝트가 모두 존재하는지 여부를 확인하는 동작을 수행하는 방법.
11. The method of claim 10,
The discriminant model is
performing an operation of learning to determine whether the feature object exists in the second image,
The discriminant model is a method of performing an operation of confirming whether both the license plate image and the feature object are present in the second image through learning.
제10항에 있어서,
상기 판별 모델은,
입력된 이미지에 공기 흡입구 영역과 번호판 이미지가 동시에 존재하는지 여부를 판단하도록 학습된 방법.
11. The method of claim 10,
The discriminant model is
A method learned to determine whether an air intake area and a license plate image exist simultaneously in the input image.
제10항에 있어서,
상기 판별 모델은,
합성곱 신경망(CNN: convolution neural network) 알고리즘에 기초하여, 입력된 이미지가 차량의 전방 또는 후방인지 여부를 판단하도록 학습되고,
상기 학습은 번호판을 포함하는 복수의 차량 전면 이미지 및 번호판을 포함하는 복수의 차량 후면 이미지를 포함하는 복수의 이미지 데이터와 상기 복수의 이미지 데이터 각각에 대응하는 전면 또는 후면 여부에 관한 정보가 라벨링된 데이터를 이용한 라벨링 학습 기법을 포함하는 방법.
11. The method of claim 10,
The discriminant model is
Based on a convolutional neural network (CNN) algorithm, it is learned to determine whether the input image is the front or rear of the vehicle,
The learning is a plurality of image data including a plurality of vehicle front images including a license plate and a plurality of vehicle rear images including a license plate and information on whether the front or rear corresponding to each of the plurality of image data is labeled data A method including a labeling learning technique using
제10항에 있어서,
상기 제1영역은 사각형 형태를 포함하고,
상기 제2영역은,
상기 제1영역의 가로 길이 및/또는 세로 길이를 미리 정해진 길이의 배수만큼 확장한 범위에 대응되는 면적을 포함하고,
상기 미리 정해진 길이의 배수는, 3배 이내인 방법.
11. The method of claim 10,
The first region includes a rectangular shape,
The second area is
including an area corresponding to a range in which a horizontal length and/or a vertical length of the first region is extended by a multiple of a predetermined length,
A multiple of the predetermined length is within three times.
제10항에 있어서,
상기 차량의 주행 방향에 기초하여 상기 차량의 역주행 여부를 판단하는 단계; 및
상기 역주행 여부에 기초하여 상기 제1이미지를 저장하는 단계를 포함하는 방법.
11. The method of claim 10,
determining whether the vehicle is traveling in the reverse direction based on the traveling direction of the vehicle; and
and storing the first image based on whether the vehicle travels in the reverse direction.
제10항에 있어서,
상기 제1이미지에 포함된 번호판 내의 문자를 인식하는 단계;
상기 차량의 주행 방향에 기초하여 상기 차량의 역주행 여부를 판단하는 단계; 및
상기 역주행 여부에 기초하여 상기 인식된 문자를 저장하는 단계를 포함하는 방법.



11. The method of claim 10,
Recognizing the characters in the license plate included in the first image;
determining whether the vehicle is traveling in the reverse direction based on the traveling direction of the vehicle; and
and storing the recognized character based on whether the vehicle travels in the reverse direction.



KR1020210071292A 2021-06-02 2021-06-02 Electronic device for distinguishing front or rear of vehicle and method thereof KR102313804B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210071292A KR102313804B1 (en) 2021-06-02 2021-06-02 Electronic device for distinguishing front or rear of vehicle and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210071292A KR102313804B1 (en) 2021-06-02 2021-06-02 Electronic device for distinguishing front or rear of vehicle and method thereof

Publications (1)

Publication Number Publication Date
KR102313804B1 true KR102313804B1 (en) 2021-10-19

Family

ID=78228173

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210071292A KR102313804B1 (en) 2021-06-02 2021-06-02 Electronic device for distinguishing front or rear of vehicle and method thereof

Country Status (1)

Country Link
KR (1) KR102313804B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100661902B1 (en) 2005-01-06 2006-12-28 디비정보통신 주식회사 Vehicle detecting method of loop type vehicle detecting apparatus
KR20090053459A (en) * 2007-11-23 2009-05-27 렉스젠(주) A system and method for phtographing the car
KR20110086638A (en) 2009-02-02 2011-07-28 신닛뽄세이테쯔 카부시키카이샤 Carbonaceous material for sintering iron ore
KR20200071853A (en) * 2018-12-04 2020-06-22 전자부품연구원 System and method for detecting and recognizing license plate

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100661902B1 (en) 2005-01-06 2006-12-28 디비정보통신 주식회사 Vehicle detecting method of loop type vehicle detecting apparatus
KR20090053459A (en) * 2007-11-23 2009-05-27 렉스젠(주) A system and method for phtographing the car
KR20110086638A (en) 2009-02-02 2011-07-28 신닛뽄세이테쯔 카부시키카이샤 Carbonaceous material for sintering iron ore
KR20200071853A (en) * 2018-12-04 2020-06-22 전자부품연구원 System and method for detecting and recognizing license plate

Similar Documents

Publication Publication Date Title
JP5761601B2 (en) Object identification device
JP6266238B2 (en) Approaching object detection system and vehicle
US7684590B2 (en) Method of recognizing and/or tracking objects
US7366325B2 (en) Moving object detection using low illumination depth capable computer vision
US8995723B2 (en) Detecting and recognizing traffic signs
US8233662B2 (en) Method and system for detecting signal color from a moving video platform
KR101688695B1 (en) Apparatus and method for recognizing the number of cars and a computer-readable recording program for performing the said method, the recording medium
KR102383377B1 (en) Electronic device for recognizing license plate
US20160180158A1 (en) Vehicle vision system with pedestrian detection
WO2019085930A1 (en) Method and apparatus for controlling dual-camera apparatus in vehicle
KR102306789B1 (en) License Plate Recognition Method and Apparatus for roads
US20100027841A1 (en) Method and system for detecting a signal structure from a moving video platform
KR102338912B1 (en) Recognition method of vehicles license plate using super resolution
KR102313804B1 (en) Electronic device for distinguishing front or rear of vehicle and method thereof
TK et al. An experiment analysis on tracking and detecting the vehicle speed using machine learning and iot
KR200409647Y1 (en) System for supervising cars on the road
KR102506971B1 (en) Method and system for recognizing license plates of two-wheeled vehicles through deep-learning-based rear shooting
KR101370011B1 (en) Driving type auto traffic enforcement system and method for monitoring illegal stopping and parking vehicles using image stabilization and restoration method
JP4804202B2 (en) Stereo monitoring device
KR101154350B1 (en) Multiple Images Processing system using Detection of Objects and segmenting - recognizing of High- resolution Image and there of.
KR20110056018A (en) A method for photographing evidence using detection system of vehicles and a system for anticrime of car using the above photographing method
KR102294525B1 (en) Vehicle number discrimination device for low speed vehicles at night
JP2006172262A (en) Road sign detector for vehicle
JP6582891B2 (en) Empty vehicle frame identification system, method and program
KR20210035360A (en) License Plate Recognition Method and Apparatus for roads

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant