KR102529429B1 - Vehicle management assistant method and vehicle management assistant apparatus - Google Patents
Vehicle management assistant method and vehicle management assistant apparatus Download PDFInfo
- Publication number
- KR102529429B1 KR102529429B1 KR1020200111493A KR20200111493A KR102529429B1 KR 102529429 B1 KR102529429 B1 KR 102529429B1 KR 1020200111493 A KR1020200111493 A KR 1020200111493A KR 20200111493 A KR20200111493 A KR 20200111493A KR 102529429 B1 KR102529429 B1 KR 102529429B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- image
- damage
- target
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 191
- 238000003062 neural network model Methods 0.000 claims abstract description 239
- 238000012545 processing Methods 0.000 claims abstract description 125
- 238000013527 convolutional neural network Methods 0.000 claims description 27
- 239000003086 colorant Substances 0.000 claims description 8
- 238000009826 distribution Methods 0.000 claims description 7
- 238000007726 management method Methods 0.000 description 398
- 230000008569 process Effects 0.000 description 125
- 238000010586 diagram Methods 0.000 description 100
- 238000004891 communication Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 26
- 230000002159 abnormal effect Effects 0.000 description 21
- 230000008859 change Effects 0.000 description 21
- 238000013528 artificial neural network Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 20
- 230000011218 segmentation Effects 0.000 description 19
- 238000011176 pooling Methods 0.000 description 17
- 230000008439 repair process Effects 0.000 description 13
- 238000012549 training Methods 0.000 description 13
- 238000003860 storage Methods 0.000 description 12
- 238000007781 pre-processing Methods 0.000 description 11
- 230000004044 response Effects 0.000 description 11
- 230000006735 deficit Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 6
- 230000001939 inductive effect Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000008030 elimination Effects 0.000 description 3
- 238000003379 elimination reaction Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 101100495467 Arabidopsis thaliana HCF107 gene Proteins 0.000 description 1
- 101150021086 MBB1 gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06Q50/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Operations Research (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 일 양태는, 차량의 외부를 촬영하여 획득된 차량 이미지를 획득하는 이미지 획득부, 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부 및 차량 이미지에 기초하여 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 차량 정보를 획득하는 처리부를 포함하고, 처리부는 이미지 획득부를 통하여 대상 차량의 외부를 촬영하여 획득된 대상 차량 이미지를 획득하고, 추가 정보 획득부를 통하여 대상 차량의 특성과 관련된 대상 추가 정보를 획득하고, 대상 차량 이미지에 기초하여 신경망 모델을 이용하여 대상에 대한 대상 차량 정보를 획득하는 차량 관리 보조 장치에 대한 것이다.In one aspect of the present invention, an image acquisition unit for obtaining a vehicle image obtained by photographing the exterior of a vehicle, an additional information acquisition unit for acquiring additional information related to characteristics of the vehicle, and learning to obtain vehicle information based on the vehicle image and a processing unit that obtains vehicle information using the neural network model, and the processing unit obtains a target vehicle image obtained by photographing the outside of the target vehicle through an image acquisition unit, and acquires a target related to the characteristics of the target vehicle through an additional information acquisition unit. A vehicle management assistance device for obtaining additional information and obtaining target vehicle information on a target by using a neural network model based on a target vehicle image.
Description
본 발명은 차량 관리 보조 방법 및 차량 관리 보조 장치에 관한 것으로서, 보다 구체적으로는 차량의 외관 상태 정보를 관리하기 위한 차량 관리 보조 방법 및 차량 관리 보조 장치에 관한 것이다.The present invention relates to a vehicle management assistance method and vehicle management assistance device, and more particularly, to a vehicle management assistance method and vehicle management assistance device for managing exterior state information of a vehicle.
경제가 발전하고 사회가 고도화됨에 따라, 차량의 판매량은 지속적으로 증가하고 있다. 이에 따라, 주차장, 중고차 거래, 자동차 보험, 렌터카, 공유차 관리 등 차량과 관련된 산업 역시 점차 다양해지며 시장의 크기 역시 날로 증가하고 있다. As the economy develops and society advances, the sales volume of vehicles continues to increase. Accordingly, industries related to vehicles, such as parking lots, used car transactions, car insurance, rental cars, and shared car management, are gradually diversifying, and the size of the market is also increasing day by day.
관련 시장의 크기가 커짐에 따라, 다양한 소비자의 필요에 의하여 차량의 상태 내지 가치를 평가하고 차량을 지속적으로 관리할 필요성 역시 증가되고 있다. 특히, 차량의 손상 등으로 인한 품질 관리에 실패할 경우, 이는 차량의 가치 하락뿐 아니라 인명 사고 등으로 이어질 가능성도 존재한다. 그러나, 아직까지는 차량의 품질 관리에 대하여는 전문가들을 동원한 인력 투입되는 것이 일반적인 바, 일반 소비자에게는 접근성이 부족한 상황이다.As the size of the relevant market increases, the need to evaluate the condition or value of a vehicle and to continuously manage the vehicle is also increasing due to the needs of various consumers. In particular, if quality control fails due to vehicle damage, etc., this may lead to a decrease in the value of the vehicle as well as a human accident. However, since it is common to mobilize experts for quality control of vehicles, it is a situation where accessibility is insufficient for general consumers.
이에, 일반 소비자들이 다양한 산업 환경에서 차량의 상태를 쉽게 관리할 수 있도록 하는 기술의 개발 필요성이 대두된다.Accordingly, there is a need to develop a technology that enables general consumers to easily manage vehicle conditions in various industrial environments.
본 발명의 일 과제는, 차량의 상태를 관리하기 위한 방법 및 장치를 제공하는 것이다.One object of the present invention is to provide a method and apparatus for managing the state of a vehicle.
본 발명의 다른 일 과제는, 차량 이미지를 통하여 획득되는 차량 정보의 정확도를 향상시키기 위한 방법 및 장치를 제공하는 것이다. Another object of the present invention is to provide a method and apparatus for improving the accuracy of vehicle information obtained through a vehicle image.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-mentioned problems, and problems not mentioned will be clearly understood by those skilled in the art from this specification and the accompanying drawings. .
본 발명의 일 양태에 따르면, 차량 이미지를 획득하는 이미지 획득부, 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부 및 상기 차량 이미지와 상기 추가 정보에 기초하여 차량 정보를 획득하는 처리부를 포함하는 차량 관리 보조 장치를 이용하여, 상기 차량 이미지에 기초하여 상기 차량의 외부와 관련된 정보를 획득하는 차량 관리 보조 방법에 있어서, 상기 이미지 획득부를 통하여 대상 차량에 대한 대상 차량 이미지를 획득하는 단계, 상기 추가 정보 획득부를 통하여 상기 대상 차량의 특성과 관련된 대상 추가 정보를 획득하는 단계 및 처리부가 상기 대상 추가 정보 및 상기 대상 차량 이미지에 기초하여 상기 대상 차량에 대한 대상 차량 정보를 획득하는 단계를 포함하되, 상기 대상 차량에 대한 상기 차량 정보를 획득하는 단계는, 상기 대상 차량 이미지에 기초하여, 상기 차량 이미지에 기초하여 상기 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량에 대한 상기 대상 차량 정보를 획득하는 것을 더 포함하고, 상기 신경망 모델은 상기 차량 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분 및 상기 제1 특징 세트와 상기 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함하는 차량 관리 보조 방법이 제공될 수 있다. According to one aspect of the present invention, an image acquisition unit for obtaining a vehicle image, an additional information acquisition unit for acquiring additional information related to characteristics of the vehicle, and a processing unit for obtaining vehicle information based on the vehicle image and the additional information. A vehicle management assisting method for acquiring information related to the exterior of the vehicle based on the vehicle image by using a vehicle management assisting device, comprising: acquiring a target vehicle image for the target vehicle through the image acquisition unit; Acquiring target additional information related to the characteristics of the target vehicle through an additional information acquisition unit and acquiring target vehicle information about the target vehicle by a processing unit based on the target additional information and the target vehicle image, The acquiring of the vehicle information on the target vehicle may include using a neural network model learned to obtain the vehicle information based on the target vehicle image based on the target vehicle image, and using the target vehicle for the target vehicle. information, wherein the neural network model is trained to obtain a first feature set based on the vehicle image and includes a first portion comprising at least one convolutional neural network layer and the first feature set and the additional feature set. A vehicle management assistance method may be provided that includes a second portion that is learned to acquire a second set of features based on information.
본 발명의 다른 일 양태에 따르면, 차량 이미지에 기초하여 차량 외부와 관련된 차량 정보를 획득하는 차량 관리 보조 장치에 있어서, 상기 차량의 외부를 촬영하여 획득된 상기 차량 이미지를 획득하는 이미지 획득부, 상기 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부 및 차량 이미지에 기초하여 상기 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 상기 차량 정보를 획득하는 처리부를 포함하되, 신경망 모델은 상기 차량 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분 및 상기 제1 특징 세트와 상기 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함하고, 처리부는 상기 이미지 획득부를 통하여 대상 차량의 외부를 촬영하여 획득된 대상 차량 이미지를 획득하고, 상기 추가 정보 획득부를 통하여 상기 대상 차량의 특성과 관련된 대상 추가 정보를 획득하고, 상기 대상 차량 이미지에 기초하여 상기 신경망 모델을 이용하여 상기 대상에 대한 대상 차량 정보를 획득하는 차량 관리 보조 장치가 제공될 수 있다.According to another aspect of the present invention, in a vehicle management assistance device for acquiring vehicle information related to the exterior of a vehicle based on a vehicle image, an image acquisition unit for acquiring the vehicle image obtained by photographing the exterior of the vehicle, the A processing unit for obtaining vehicle information using a neural network model learned to acquire vehicle information based on vehicle images, and an additional information acquisition unit acquiring additional information related to characteristics of the vehicle, wherein the neural network model comprises the vehicle image A first portion learned to obtain a first feature set based on and including at least one convolutional neural network layer and a second portion learned to obtain a second feature set based on the first feature set and the additional information. The processing unit obtains a target vehicle image acquired by photographing the exterior of the target vehicle through the image acquisition unit, obtains target additional information related to characteristics of the target vehicle through the additional information acquisition unit, and obtains the target vehicle through the additional information acquisition unit. A vehicle management assistance device may be provided that obtains target vehicle information for the target by using the neural network model based on the image.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solutions to the problems of the present invention are not limited to the above-described solutions, and solutions not mentioned will be clearly understood by those skilled in the art from this specification and the accompanying drawings. You will be able to.
본 발명에 의하면, 차량의 상태를 효과적으로 관리하기 위한 차량 관리 보조 방법 및 차량 관리 보조 장치가 제공될 수 있다. According to the present invention, a vehicle management assistance method and vehicle management assistance apparatus for effectively managing the state of a vehicle may be provided.
본 발명에 의하면, 차량의 손상 상태를 관리하기 위한 차량 관리 보조 방법 및 차량 관리 보조 장치가 획득될 수 있다. According to the present invention, a vehicle management assistance method and vehicle management assistance apparatus for managing a damaged state of a vehicle can be obtained.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-mentioned effects, and effects not mentioned will be clearly understood by those skilled in the art from this specification and the accompanying drawings.
도 1은 일 실시예에 따른 차량 관리 방법을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 차량 이미지를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다.
도 4는 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다.
도 5는 다른 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다.
도 6은 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다.
도 7은 노이즈 제거 처리를 설명하기 위한 도면이다.
도 8은 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다.
도 9는 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다.
도 10은 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다.
도 13은 일 실시예에 따른 신경망 모델을 예시하기 위한 도면이다.
도 14는 일 실시예에 따른 부품 영역 정보를 설명하기 위한 도면이다.
도 15는 차량 이미지 및 부품 정보를 설명하기 위한 도면이다.
도 16은 차량 이미지 및 부품 정보를 설명하기 위한 도면이다.
도 17은 일 실시예에 따른 부품 학습 데이터를 예시하기 위한 도면이다.
도 18은 다른 일 실시예에 따른 부품 학습 데이터를 예시하기 위한 도면이다.
도 19는 일 실시예에 따른 손상 정보를 설명하기 위한 도면이다.
도 20은 손상 영역 정보를 설명하기 위한 도면이다.
도 21은 손상 학습 데이터를 예시하기 위한 도면이다.
도 22는 부품-손상 정보를 획득하는 장치에 대하여 설명하기 위한 도면이다.
도 23은 일 실시예에 따른 차량 정보의 획득을 설명하기 위한 도면이다.
도 24는 부품-손상 정보를 획득하는 장치에 대하여 설명하기 위한 도면이다.
도 25는 부품-손상 정보를 획득하는 장치에 대하여 설명하기 위한 도면이다.
도 26은 일 실시예에 따른 신규 손상 정보를 설명하기 위한 도면이다.
도 27은 손상 이력 관리를 설명하기 위한 도면이다.
도 28은 일 실시예에 따른 출력 화면을 설명하기 위한 도면이다.
도 29는 일 실시예에 따른 손상 영역 정보의 표시를 설명하기 위한 도면이다.
도 30은 일 실시예에 따른 차량 관리 보조 방법을 설명하기 위한 도면이다.
도 31은 일 실시예에 따른 차량 손상 관리 방법을 설명하기 위한 도면이다.
도 32는 일 실시예에 따른 차량 손상 관리 방법을 설명하기 위한 도면이다.
도 33은 일 실시예에 따른 차량 손상 관리 방법을 설명하기 위한 도면이다.
도 34는 온-사이트 차량 관리 시스템의 구성을 설명하기 위한 도면이다.
도 35는 온-사이트 차량 관리 프로세스에 의해 수행되는 일련의 단계들을 설명하기 위한 도면이다.
도 36은 온-사이트 차량 관리 프로세스에서 차량 관리에 필요한 차량 데이터를 획득하는 단계를 설명하기 위한 도면이다.
도 37은 일 실시예에 따른 영상 데이터가 감지수단에 감지되는 특정 시점에서 카메라 모듈에 의해 촬영되는 것을 설명하기 위한 도면이다.
도 38은 다른 실시예에 따른 영상 데이터가 센서에 감지되는 특정 시점에서 카메라 모듈에 의해 촬영되는 것을 설명하기 위한 도면이다.
도 39는 또 다른 실시예에 따른 영상 데이터가 센서에 감지되는 특정 시점에서 카메라 모듈에 의해 촬영되는 것을 설명하기 위한 도면이다.
도 40은 또 다른 실시예에 따른 영상 데이터가 차단기가 작동한 시점부터 일정 범위 내의 시점에서 카메라 모듈에 의해 촬영되는 것을 설명하기 위한 도면이다.
도 41은 일 실시예에 따른 영상 데이터로부터 이미지 데이터를 추출하는 방법을 설명하기 위한 도면이다.
도 42는 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다.
도 43은 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다.
도 44는 관리장치의 출력 화면 중 손상 정보를 출력하는 화면을 설명하기 위한 도면이다.
도 45는 관리장치의 출력 화면 중 손상 정보에 대한 사용자 또는 관리자의 동의 여부를 선택할 수 있는 화면을 설명하기 위한 도면이다.
도 46은 관리장치의 출력 화면 중 손상 정보에 관한 상세한 내용이 포함된 화면을 설명하기 위한 도면이다.
도 47은 관리장치의 출력 화면 중 손상 이력에 관한 정보를 포함하는 출력 화면을 설명하기 위한 도면이다.
도 48은 관리장치의 출력 화면 중 손상 이력에 관한 정보를 포함하는 출력 화면을 설명하기 위한 도면이다.
도 49는 모바일 베이스 차량 관리 시스템의 구성을 설명하기 위한 도면이다.
도 50은 모바일 베이스 차량 관리 프로세스에 의해 수행되는 일련의 단계들을 설명하기 위한 도면이다.
도 51은 일 실시예에 따른 영상 데이터에 포함되어 있는 차량 손상 정보가 충분하지 않은 경우 재 촬영 요청을 설명하기 위한 도면이다.
도 52는 일 실시예에 따른 영상 데이터가 특정 시점에서 카메라 모듈에 의해 촬영되는 것을 설명하기 위한 도면이다.
도 53은 카메라 모듈로 차량을 촬영하는 경우 대상 차량의 정보에 기초하여 제공되는 촬영 가이드를 설명하기 위한 도면이다.
도 54는 카메라 모듈로 차량을 촬영하는 경우 제공되는 촬영 맵을 설명하기 위한 도면이다.
도 55는 일 실시예에 따른 단말기에서 차량 정보 및/또는 보조 정보를 출력하는 화면을 설명하기 위한 도면이다.
도 56은 복수의 공유 차량 이용자가 시간 순서에 따라 공유 차량을 이용하고 이용을 종료하는 과정을 개략적으로 표현한 도면이다.
도 57은 공유 차량 이용자가 공유 차량 이용 후 차량 외관을 촬영하고 추가 손상 정보를 확인하는 차량 반납 프로세스의 설명을 위한 도면이다.
도 58은 공유 차량 이용자가 공유 차량 이용 전 공유 차량의 기존 손상 정보에 동의 여부를 표시하고 동의하지 않을 시 차량 외관을 촬영하는 차량 이용 프로세스의 설명을 위한 도면이다.
도 59는 공유 차량 이용자가 공유 차량의 기존 손상 정보에 동의하지 않는 경우 공유 차량 외관을 재 촬영하는 프로세스를 설명하기 위한 도면이다.1 is a diagram for explaining a vehicle management method according to an exemplary embodiment.
2 is a diagram for describing a vehicle image according to an exemplary embodiment.
3 is a diagram for illustrating image data according to an exemplary embodiment.
4 is a diagram for illustrating image data according to an exemplary embodiment.
5 is a diagram for illustrating image data according to another exemplary embodiment.
6 is a diagram for illustrating image data according to an exemplary embodiment.
7 is a diagram for explaining noise elimination processing.
8 is a diagram for illustrating noise removal processing using a plurality of images.
9 is a diagram for illustrating noise removal processing using a plurality of images.
10 is a diagram for explaining a neural network model for obtaining vehicle information according to an exemplary embodiment.
11 is a diagram for explaining a neural network model for obtaining vehicle information according to an exemplary embodiment.
12 is a diagram for explaining a neural network model for obtaining vehicle information according to an exemplary embodiment.
13 is a diagram for illustrating a neural network model according to an embodiment.
14 is a diagram for explaining part area information according to an exemplary embodiment.
15 is a diagram for explaining a vehicle image and part information.
16 is a diagram for explaining a vehicle image and part information.
17 is a diagram for illustrating part learning data according to an embodiment.
18 is a diagram for illustrating part learning data according to another embodiment.
19 is a diagram for explaining damage information according to an exemplary embodiment.
20 is a diagram for explaining damaged area information.
21 is a diagram for illustrating impairment learning data.
22 is a diagram for explaining a device for acquiring part-damage information.
23 is a diagram for explaining acquisition of vehicle information according to an exemplary embodiment.
24 is a diagram for explaining a device for acquiring part-damage information.
25 is a diagram for explaining a device for acquiring part-damage information.
26 is a diagram for explaining new damage information according to an embodiment.
27 is a diagram for explaining damage history management.
28 is a diagram for explaining an output screen according to an exemplary embodiment.
29 is a diagram for explaining display of damaged area information according to an exemplary embodiment.
30 is a diagram for explaining a vehicle management assistance method according to an exemplary embodiment.
31 is a diagram for explaining a vehicle damage management method according to an embodiment.
32 is a diagram for explaining a vehicle damage management method according to an embodiment.
33 is a diagram for explaining a vehicle damage management method according to an embodiment.
34 is a diagram for explaining the configuration of an on-site vehicle management system.
35 is a diagram for explaining a series of steps performed by the on-site vehicle management process.
36 is a diagram for explaining a step of acquiring vehicle data necessary for vehicle management in an on-site vehicle management process.
37 is a diagram for explaining that image data is captured by a camera module at a specific point in time when image data is sensed by a sensing unit according to an exemplary embodiment.
38 is a diagram for explaining that image data is captured by a camera module at a specific point in time when image data is sensed by a sensor according to another embodiment.
39 is a diagram for explaining that image data is captured by a camera module at a specific point in time when image data is sensed by a sensor according to another embodiment.
40 is a diagram for explaining that image data is captured by a camera module at a time point within a certain range from a time point at which a circuit breaker operates according to another embodiment.
41 is a diagram for explaining a method of extracting image data from image data according to an exemplary embodiment.
42 is a diagram for illustrating noise removal processing using a plurality of images.
43 is a diagram for illustrating noise removal processing using a plurality of images.
44 is a view for explaining a screen for outputting damage information among output screens of a management device.
45 is a view for explaining a screen for selecting whether a user or a manager consents to damage information among output screens of a management device.
46 is a view for explaining a screen including detailed information on damage information among output screens of a management device.
47 is a diagram for explaining an output screen including information about a damage history among output screens of a management device.
48 is a view for explaining an output screen including information about a damage history among output screens of a management device.
49 is a diagram for explaining the configuration of a mobile-based vehicle management system.
50 is a diagram for explaining a series of steps performed by a mobile-based vehicle management process.
51 is a diagram for explaining a recapturing request when vehicle damage information included in image data is not sufficient, according to an exemplary embodiment.
52 is a diagram for explaining that image data is captured by a camera module at a specific point in time according to an exemplary embodiment.
53 is a view for explaining a photographing guide provided based on target vehicle information when photographing a vehicle with a camera module.
54 is a view for explaining a photographing map provided when a vehicle is photographed with a camera module.
55 is a diagram for explaining a screen for outputting vehicle information and/or auxiliary information in a terminal according to an exemplary embodiment.
56 is a diagram schematically illustrating a process in which a plurality of shared vehicle users use a shared vehicle and end the use according to a time sequence.
57 is a view for explaining a vehicle return process in which a shared vehicle user photographs the exterior of the vehicle after using the shared vehicle and checks additional damage information.
58 is a view for explaining a vehicle use process in which a shared vehicle user indicates whether or not to agree to existing damage information of a shared vehicle before using the shared vehicle and, if not, takes a photograph of the exterior of the vehicle.
59 is a diagram for explaining a process of re-photographing the exterior of a shared vehicle when a shared vehicle user does not agree with existing damage information of the shared vehicle.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The foregoing objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. However, the present invention can apply various changes and can have various embodiments. Hereinafter, specific embodiments will be illustrated in the drawings and described in detail.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장된 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조 부호를 사용하여 설명한다.In the drawings, the thickness of layers and regions is exaggerated for clarity, and an element or layer is referred to as "on" or "on" another element or layer. It includes all cases in which another layer or other component is intervened in the middle as well as immediately above another component or layer. Like reference numerals designate essentially like elements throughout the specification. In addition, components having the same function within the scope of the same idea appearing in the drawings of each embodiment are described using the same reference numerals.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별 기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of this specification are only identification symbols for distinguishing one component from another component.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함 만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. In addition, the suffixes "module" and "unit" for the components used in the following description are given or used interchangeably in consideration of only the ease of writing the specification, and do not have meanings or roles that are distinguished from each other by themselves.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
일 예에 따르면, 차량 이미지에 기초하여 차량 외부와 관련된 차량 정보를 획득하는 차량 관리 보조 장치에 있어서, 상기 차량의 외부를 촬영하여 획득된 상기 차량 이미지를 획득하는 이미지 획득부; 상기 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부; 및 상기 차량 이미지에 기초하여 상기 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 상기 차량 정보를 획득하는 처리부; 를 포함하되, 상기 신경망 모델은 상기 차량 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분 및 상기 제1 특징 세트와 상기 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함하고, 상기 처리부는 상기 이미지 획득부를 통하여 대상 차량의 외부를 촬영하여 획득된 대상 차량 이미지를 획득하고, 상기 추가 정보 획득부를 통하여 상기 대상 차량의 특성과 관련된 대상 추가 정보를 획득하고, 상기 대상 차량 이미지에 기초하여 상기 신경망 모델을 이용하여 상기 대상에 대한 대상 차량 정보를 획득하는,차량 관리 보조 장치를 제공할 수 있다.According to an example, a vehicle management assistance device for obtaining vehicle information related to the exterior of a vehicle based on a vehicle image includes: an image acquisition unit configured to acquire the vehicle image obtained by photographing the exterior of the vehicle; an additional information obtaining unit acquiring additional information related to the characteristics of the vehicle; and a processing unit acquiring the vehicle information by using a neural network model learned to obtain the vehicle information based on the vehicle image. Wherein, the neural network model is learned to obtain a first feature set based on the vehicle image and a first part including at least one convolutional neural network layer and a first feature set based on the first feature set and the additional information 2 a second part learning to acquire a set of features, wherein the processing unit acquires a target vehicle image obtained by photographing the outside of the target vehicle through the image acquisition unit, and acquires characteristics of the target vehicle through the additional information acquisition unit. It is possible to provide a vehicle management assistance device that obtains target additional information related to and acquires target vehicle information on the target using the neural network model based on the target vehicle image.
상기 신경망 모델은 상기 차량 외부의 손상과 관련된 손상 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 상기 외부의 손상 여부와 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model may be trained to acquire damage information related to damage to the exterior of the vehicle, and the second feature set may include at least one feature value related to whether or not the exterior of the vehicle is damaged.
상기 신경망 모델은 상기 차량의 외부를 구성하는 부품과 관련된 부품 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 외부를 구성하는 부품과 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model may be trained to acquire part information related to a part constituting the exterior of the vehicle, and the second feature set may include at least one feature value related to the part constituting the exterior of the vehicle.
차량의 특성과 관련된 상기 추가 정보는, 상기 차량의 제조사, 색상 정보, 연식, 차종 중 적어도 하나에 기초하여 결정될 수 있다.The additional information related to the characteristics of the vehicle may be determined based on at least one of a manufacturer of the vehicle, color information, a model year, and a vehicle type.
상기 차량의 특성과 관련된 상기 추가 정보는, 상기 차량의 내부를 촬영하여 획득된 상기 차량 내부 이미지에 기초하여 획득될 수 있다.The additional information related to the characteristics of the vehicle may be obtained based on the vehicle interior image obtained by photographing the interior of the vehicle.
상기 제2 부분은 상기 제1 특징 세트 및 상기 추가 정보에 기초하여, 상기 차량의 외부를 구성하는 적어도 하나의 부품과 관련된 상기 제2 특징 세트를 획득하되, 상기 제2 특징 세트는 상기 제1 부품이 분포하는 영역을 나타내는 제1 영역 특징 세트 및 상기 제2 부품이 분포하는 영역을 나타내는 제2 영역 특징 세트를 포함할 수 있다.The second part obtains the second feature set related to at least one part constituting the exterior of the vehicle based on the first feature set and the additional information, the second feature set being the first part. A first region feature set representing the distribution area and a second region feature set representing the distribution region of the second component may be included.
상기 제2 부분은 상기 제1 특징 세트 및 상기 추가 정보에 기초하여, 상기 대상 차량의 외부에 위치하는 적어도 하나의 손상 영역과 관련된 상기 제2 특징 세트를 획득하되, 상기 제2 특징 세트는 상기 손상 영역의 위치를 나타내는 손상 영역 특징 세트를 포함할 수 있다.The second part obtains the second feature set related to at least one damaged area located outside the target vehicle based on the first feature set and the additional information, the second feature set comprising the damage It may include a set of damaged area features indicating the location of the area.
일 예에 따르면, 차량 이미지를 획득하는 이미지 획득부, 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부 및 상기 차량 이미지와 상기 추가 정보에 기초하여 차량 정보를 획득하는 처리부를 포함하는 차량 관리 보조 장치를 이용하여, 상기 차량 이미지에 기초하여 상기 차량의 외부와 관련된 정보를 획득하는 차량 관리 보조 방법에 있어서, 상기 이미지 획득부를 통하여 대상 차량에 대한 대상 차량 이미지를 획득하는 단계; 상기 추가 정보 획득부를 통하여 상기 대상 차량의 특성과 관련된 대상 추가 정보를 획득하는 단계; 및 상기 처리부가 상기 대상 추가 정보 및 상기 대상 차량 이미지에 기초하여 상기 대상 차량에 대한 대상 차량 정보를 획득하는 단계; 를 포함하되, 상기 대상 차량에 대한 상기 차량 정보를 획득하는 단계는, 상기 대상 차량 이미지에 기초하여, 상기 차량 이미지에 기초하여 상기 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량에 대한 상기 대상 차량 정보를 획득하는 것을 더 포함하고, 상기 신경망 모델은 상기 차량 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분 및 상기 제1 특징 세트와 상기 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함하는, 차량 관리 보조 방법을 제공할 수 있다.According to an example, vehicle management including an image acquisition unit acquiring a vehicle image, an additional information acquisition unit acquiring additional information related to characteristics of the vehicle, and a processing unit acquiring vehicle information based on the vehicle image and the additional information. A vehicle management assisting method for obtaining information related to the exterior of the vehicle based on the vehicle image by using an auxiliary device, comprising: acquiring a target vehicle image of the target vehicle through the image acquiring unit; obtaining target additional information related to characteristics of the target vehicle through the additional information obtaining unit; and acquiring, by the processing unit, target vehicle information on the target vehicle based on the additional target information and the target vehicle image. Including, the obtaining of the vehicle information on the target vehicle comprises, based on the target vehicle image, using a neural network model learned to obtain the vehicle information based on the vehicle image, further comprising obtaining the target vehicle information for, wherein the neural network model is learned to obtain a first feature set based on the vehicle image and a first part comprising at least one convolutional neural network layer and the first feature and a second part learning to acquire a second feature set based on the set and the additional information.
상기 신경망 모델은 상기 차량 외부의 손상과 관련된 손상 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 상기 외부의 손상 여부와 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model may be trained to acquire damage information related to damage to the exterior of the vehicle, and the second feature set may include at least one feature value related to whether or not the exterior of the vehicle is damaged.
상기 신경망 모델은 상기 차량의 외부를 구성하는 부품과 관련된 부품 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 외부를 구성하는 부품과 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model may be trained to acquire part information related to a part constituting the exterior of the vehicle, and the second feature set may include at least one feature value related to the part constituting the exterior of the vehicle.
상기 차량의 특성과 관련된 추가 정보는, 상기 차량의 제조사, 색상 정보, 연식, 차종 중 적어도 하나에 기초하여 결정될 수 있다.The additional information related to the characteristics of the vehicle may be determined based on at least one of a manufacturer, color information, year, and model of the vehicle.
상기 차량의 특성과 관련된 추가 정보는, 상기 차량의 내부를 촬영하여 획득된 상기 차량 내부 이미지에 기초하여 획득될 수 있다.Additional information related to the characteristics of the vehicle may be obtained based on the vehicle interior image obtained by photographing the interior of the vehicle.
상기 제2 부분은 상기 제1 특징 세트 및 상기 추가 정보에 기초하여, 상기 대상 차량의 외부를 구성하는 적어도 하나의 부품과 관련된 상기 제2 특징 세트를 획득하되, 상기 제2 특징 세트는 상기 제1 부품이 분포하는 영역을 나타내는 제1 영역 특징 세트 및 상기 제2 부품이 분포하는 영역을 나타내는 제2 영역 특징 세트를 포함할 수 있다.The second part obtains the second feature set related to at least one part constituting the exterior of the target vehicle based on the first feature set and the additional information, wherein the second feature set is the first feature set. A first region feature set indicating a region where parts are distributed and a second region feature set indicating a region where the second part is distributed may be included.
상기 제2 부분은 상기 제1 특징 세트 및 상기 추가 정보에 기초하여, 상기 대상 차량의 외부에 위치하는 적어도 하나의 손상 영역과 관련된 상기 제2 특징 세트를 획득하되, 상기 제2 특징 세트는 상기 손상 영역의 위치를 나타내는 손상 영역 특징 세트를 포함할 수 있다.The second part obtains the second feature set related to at least one damaged area located outside the target vehicle based on the first feature set and the additional information, the second feature set comprising the damage It may include a set of damaged area features indicating the location of the area.
상기 차량 관리 보조 방법을 수행하는 프로그램을 저장하는 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.A computer readable recording medium storing a program for performing the vehicle management assistance method may be provided.
일 예에 따르면, 손상 이미지를 출력하는 출력부; 및 카메라에 의해 제1 시점에 촬영된 제1 이미지와 상기 카메라에 의해 제2 시점에 촬영된 제2 이미지를 기초로 상기 손상 이미지를 출력하기 위해 상기 출력부를 제어하는 제어부를 포함하되, 상기 제1 이미지는 차량의 외관에 관한 제1 영역이 촬영되되, 상기 제1 영역의 내부에는 적어도 하나 이상의 이상 영역인 고정 영역 및 가변 영역이 포함되어 있고, 상기 제2 이미지는 차량의 외관에 관한 제2 영역이 촬영되되, 상기 제2 영역의 내부에는 상기 고정 영역 중 적어도 일부 영역 및 상기 가변 영역 중 적어도 일부 영역이 포함되어 있고, 상기 손상 이미지는 상기 제1 이미지 및 상기 제2 이미지로부터 상기 가변 영역이 제거된 이미지이되, 상기 고정 영역은 차량의 손상에 대한 영역이고, 상기 가변 영역은 차량의 손상에 대한 영역이 아닌 영역이고, 상기 제1 시점과 제2 시점은 서로 다른 시점인 차량 관리 장치를 제공할 수 있다.According to one example, an output unit for outputting a damaged image; And a control unit for controlling the output unit to output the damaged image based on a first image captured by a camera at a first point of view and a second image captured by the camera at a second point in time, wherein the first The image is taken of a first area related to the exterior of the vehicle, and at least one fixed area and a variable area are included inside the first area, and the second image is a second area related to the exterior of the vehicle. is captured, and at least a partial area of the fixed area and at least a partial area of the variable area are included inside the second area, and the variable area is removed from the first image and the second image in the damaged image. However, the fixed area is an area for damage to the vehicle, the variable area is an area other than the area for damage to the vehicle, and the first and second views are different views. can
상기 제1 이미지 및 제2 이미지는 차량과 관련된 다수의 특징점 중 제1 특징점을 포함하고, 상기 제1 이미지의 상기 제1 특징점은 제1 좌표를 가지고, 상기 제2 이미지의 상기 제1 특징점은 제2 좌표를 가지며, 상기 제1 이미지에 포함된 상기 고정 영역을 대표하는 좌표는 제3 좌표이며, 상기 제2 이미지에 포함된 상기 고정 영역을 대표하는 좌표는 제4 좌표이며, 상기 제1 좌표와 제3 좌표 사이의 제1 거리와 상기 제2 좌표와 상기 제4 좌표 사이의 제2 거리는 서로 대응되는 차량 관리 장치를 제공할 수 있다.The first image and the second image include a first feature point among a plurality of feature points related to a vehicle, the first feature point of the first image has a first coordinate, and the first feature point of the second image has a first feature point. 2 coordinates, the coordinate representing the fixed area included in the first image is a third coordinate, the coordinate representing the fixed area included in the second image is a fourth coordinate, and the first coordinate and A first distance between third coordinates and a second distance between the second coordinate and the fourth coordinate may correspond to each other.
상기 제1 이미지에 포함된 상기 가변 영역을 대표하는 좌표는 제5 좌표이고, 상기 제2 이미지에 포함된 상기 가변 영역을 대표하는 좌표는 제6 좌표이며, 상기 제1 좌표와 제5 좌표 사이의 제3 거리는 상기 제2 좌표와 상기 제6 좌표 사이의 제4 거리와 다른 차량 관리 장치를 제공할 수 있다.The coordinate representing the variable region included in the first image is a fifth coordinate, the coordinate representing the variable region included in the second image is a sixth coordinate, and the distance between the first coordinate and the fifth coordinate is The third distance may provide a vehicle management device different from the fourth distance between the second coordinate and the sixth coordinate.
상기 제1 거리와 제2 거리의 차이는 상기 제3 거리와 상기 제4 거리의 차이보다 작은 차량 관리장치를 제공할 수 있다.A difference between the first distance and the second distance may be smaller than a difference between the third distance and the fourth distance.
상기 제어부는 상기 이상 영역에서 고정 영역과 가변 영역을 분류하여, 상기 가변 영역을 제거한 상기 손상 이미지를 출력하고, 상기 제1 이미지 및 제2 이미지는 차량과 관련된 다수의 특징점 중 제1 특징점을 포함하고, 상기 제1 이미지의 상기 제1 특징점은 제1 좌표를 가지고, 상기 제2 이미지의 상기 제1 특징점은 제2 좌표를 가지고, 상기 제1 이미지의 이상영역을 대표하는 좌표는 제7 좌표이고, 상기 제2 이미지의 이상영역을 대표하는 좌표는 제8 좌표이며, 상기 제어부는 상기 제1 좌표와 상기 제7 좌표 사이의 제5 거리와 상기 제2 좌표와 상기 제8 좌표 사이의 제6 거리에 기초하여 상기 고정 영역과 가변영역을 분류하는 차량 관리 장치를 제공할 수 있다.The control unit classifies a fixed area and a variable area in the abnormal area and outputs the damaged image from which the variable area is removed, wherein the first image and the second image include a first feature point among a plurality of feature points related to the vehicle, , the first feature point of the first image has a first coordinate, the first feature point of the second image has a second coordinate, and the coordinate representing the abnormal region of the first image is a seventh coordinate, Coordinates representing the abnormal region of the second image are eighth coordinates, and the controller determines a fifth distance between the first coordinate and the seventh coordinate and a sixth distance between the second coordinate and the eighth coordinate. Based on the above, it is possible to provide a vehicle management device that classifies the fixed area and the variable area.
상기 제어부는 상기 제5 거리와 제6 거리의 차이가 미리 정해진 값 이상인 경우 가변영역으로 판단하고, 상기 제5 거리와 제6 거리의 차이가 미리 정해진 값 미만인 경우 고정 영역으로 판단하는 차량 관리 장치를 제공할 수 있다.Wherein the control unit determines a variable area when the difference between the fifth distance and the sixth distance is equal to or greater than a predetermined value, and determines a fixed area when the difference between the fifth distance and the sixth distance is less than a predetermined value, the vehicle management device can provide
상기 가변 영역은 차량의 외부의 배경 영역인 차량 관리장치를 제공할 수 있다.The variable area may provide a vehicle management apparatus that is a background area outside the vehicle.
상기 가변 영역은 외부 광에 의해 외부 물체가 반사되어 이미지에 포함된 영역인 차량 관리 장치를 제공할 수 있다.The variable area may provide a vehicle management device that is an area included in an image where an external object is reflected by external light.
상기 손상 이미지는 제1 이미지에 상기 가변 영역이 제거된 이미지이고, 상기 제1 이미지는 상기 제2 이미지에 비해 차량이 이미지의 중앙영역에 가깝게 위치하는 이미지인 차량 관리 장치를 제공할 수 있다.The damaged image is an image in which the variable region is removed from the first image, and the first image is an image in which the vehicle is located closer to the central region of the image than the second image.
센서부로부터 신호를 수신하는 통신부를 더 포함하고, 상기 센서부는 제1 센서와 제2 센서를 포함하고, 상기 제1 센서는 차량의 진입 방향과 가까운 영역에 위치하고, 상기 제2 센서는 차량의 진입 방향과 먼 영역에 위치하는 차량 관리 장치를 제공할 수 있다.A communication unit for receiving a signal from the sensor unit is further included, the sensor unit includes a first sensor and a second sensor, the first sensor is located in a region close to the vehicle entry direction, and the second sensor is the vehicle entry direction. It is possible to provide a vehicle management device located in an area far from the direction.
상기 제1 시점과 상기 제2 시점은 시작시점과 종료시점 사이의 유효 기간 내의 시점이고, 상기 시작시점은 상기 통신부가 제1 센서로부터 제1 신호를 수신한 시점이고, 상기 종료시점은 상기 통신부가 제2 센서로부터 제2 신호를 수신한 시점이며. 상기 제1 이미지와 제2 이미지는 상기 유효 기간 내에 획득된 다수의 이미지에 포함되는 차량 관리 장치를 제공할 수 있다.The first time point and the second time point are points within an effective period between a start point and an end point, the start point is a point in time when the communication unit receives the first signal from the first sensor, and the end point is a point in time when the communication unit receives the first signal. A time point at which the second signal is received from the second sensor. The first image and the second image may provide a vehicle management device included in a plurality of images obtained within the valid period.
상기 시작 시점은 상기 제1 센서에 의해 차량이 감지된 다음 차량의 감지가 종료된 시점이고, 상기 종료 시점은 상기 제2 센서에 의해 차량이 최초로 감지된 시점인 차량 관리 장치를 제공할 수 있다.The start time is a time when the vehicle is detected by the first sensor and then the vehicle detection is ended, and the end time is a time when the vehicle is first detected by the second sensor.
상기 시작 시점은 상기 제1 센서에 의해 차량이 최초로 감지된 시점이고, 상기 종료 시점은 상기 제2 센서에 의해 차량이 감지된 다음 감지가 종료된 시점인 차량 관리 장치를 제공할 수 있다.The starting time point is a time point when the vehicle is initially detected by the first sensor, and the end time point is a time point when the vehicle is sensed by the second sensor and then the sensing is finished.
차단기로부터 개방 정보를 수신하는 통신부를 더 포함하고, 상기 제1 시점과 제2 시점은 시작시점과 종료시점 사이의 유효 기간 내의 시점이고, 상기 차단기가 개방된 시점은 종료 시점이고, 상기 차단기가 개방된 시점보다 미리 정의된 만큼의 이전의 시점은 시작 시점이며, 상기 제1 이미지와 제2 이미지는 상기 유효 기간 내에 획득된 다수의 이미지에 포함되는 차량 관리 장치를 제공할 수 있다.A communication unit for receiving open information from the circuit breaker, wherein the first time point and the second time point are time points within an effective period between a start time point and an end time point, the time point at which the circuit breaker is opened is an end time point, and the time point at which the circuit breaker is opened A time point prior to the specified time point by a predefined time point is a starting time point, and the first image and the second image are included in a plurality of images obtained within the valid period.
상기 카메라는 제1 카메라 및 제2 카메라를 포함하고, 상기 제1 카메라는 상기 제1 센서와 대응되는 영역에 위치하여, 차량의 일측면을 촬영하고, 상기 제2 카메라는 상기 제2 센서와 대응되는 영역에 위치하여 차량의 타측면을 촬영하는 차량 관리 장치를 제공할 수 있다.The camera includes a first camera and a second camera, the first camera is located in an area corresponding to the first sensor, and photographs one side of the vehicle, and the second camera corresponds to the second sensor. It is possible to provide a vehicle management device that is located in an area where the vehicle is located and takes pictures of the other side of the vehicle.
상기 제1 이미지 및 제2 이미지는 차량과 관련된 다수의 특징점 중 제1 특징점을 포함하고, 상기 제1 시점에 상기 카메라는 상기 제1 특징점과 제1 거리를 가지는 위치에 위치하고, 상기 제2 시점에 상기 카메라는 상기 제1 특징점과 제2 거리를 가지는 위치에 위치하고, 상기 제1 거리와 제2 거리는 상이한 차량 관리 장치를 제공할 수 있다.The first image and the second image include a first feature point among a plurality of feature points related to the vehicle, the camera is located at a position having a first distance from the first feature point at the first point of view, and at the second point of view The camera may be located at a position having a second distance from the first feature point, and the first distance and the second distance may be different from each other.
상기 차량 관리 장치는 모바일 디바이스이고, 상기 카메라는 상기 모바일 디바이스에 내장된 카메라인 차량 관리 장치를 제공할 수 있다.The vehicle management device may be a mobile device, and the camera may be a camera built into the mobile device.
상기 카메라는 시작 시점과 종료 시점 사이의 동영상을 촬영하고, 상기 제1 이미지와 상기 제2 이미지는 상기 동영상으로부터 추출된 이미지인 차량 관리 장치를 제공할 수 있다.The camera may capture a video between a start time and an end time, and the first image and the second image may be images extracted from the video.
일 예에 따르면, 차량 이미지에 기초하여 차량 외부의 손상과 관련된 정보를 획득하는 차량 손상 관리 장치에 있어서, 대상 차량의 외관을 촬영하여 획득된 적어도 하나의 대상 차량 이미지를 획득하는 이미지 획득부; 및 상기 적어도 하나의 대상 차량 이미지에 기초하여 상기 대상 차량의 외관 손상과 관련된 손상 정보를 획득하는 처리부; 를 포함하되, 상기 적어도 하나의 대상 차량 이미지는 상기 대상 차량의 일면을 촬영하여 획득된 제1 대상 차량 이미지를 포함하고, 상기 제1 대상 차량 이미지는, 상기 대상 차량에 대응되는 제1 영역 및 상기 대상 차량의 식별 정보가 위치되는 제2 영역을 포함하고- 상기 제1 영역은 상기 제2 영역보다 큼-, 상기 처리부는, 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제1 대상 차량 이미지에 기초하여 획득되고 상기 제1 영역과 관련된 상기 손상 정보를 획득하는 차량 손상 관리 장치를 제공할 수 있다.According to an example, an apparatus for managing damage to a vehicle that acquires information related to external damage of a vehicle based on a vehicle image includes: an image acquisition unit that acquires at least one target vehicle image obtained by photographing an exterior of a target vehicle; and a processing unit obtaining damage information related to external damage of the target vehicle based on the at least one target vehicle image. The at least one target vehicle image includes a first target vehicle image obtained by photographing one side of the target vehicle, wherein the first target vehicle image comprises a first region corresponding to the target vehicle and the A second area in which identification information of a target vehicle is located—the first area is greater than the second area—, wherein the processing unit determines vehicle type information of the target vehicle based on the second area and the vehicle type information and a vehicle damage management apparatus for obtaining the damage information obtained based on the first target vehicle image and related to the first region.
상기 손상 정보를 출력하는 출력부; 를 더 포함하되, 상기 출력부는 상기 대상 차량의 상기 손상 정보를 출력하는 차량 손상 관리 장치를 제공할 수 있다.an output unit outputting the damage information; Further comprising, but the output unit may provide a vehicle damage management device that outputs the damage information of the target vehicle.
상기 손상 정보는 상기 대상 차량의 손상에 대응되는 손상 영역 정보를 포함하고, 상기 출력부는 상기 대상 차량 이미지 및 상기 대상 차량 이미지에 중첩되는 상기 손상 영역 정보를 출력하는 차량 손상 관리 장치를 제공할 수 있다.The damage information includes damage area information corresponding to the damage of the target vehicle, and the output unit outputs the target vehicle image and the damage area information superimposed on the target vehicle image. .
사용자 입력을 획득하는 입력부;를 더 포함하고, 상기 처리부는, 상기 손상 정보의 출력에 응답하여, 상기 입력부를 통하여 상기 손상 정보에 대한 사용자 응답을 획득하는, 차량 손상 관리 장치를 제공할 수 있다.An input unit that obtains a user input; and the processing unit obtains a user response to the damage information through the input unit in response to an output of the damage information.
상기 처리부는 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득하는, 차량 손상 관리 장치를 제공할 수 있다.The processing unit may provide a vehicle damage management apparatus that obtains identification information of the target vehicle determined based on the second region.
상기 처리부는 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득하고, 상기 대상 차량의 식별 정보에 대응되는 상기 대상 차량의 손상 이력을 획득하고, 상기 손상 이력은, 상기 제1 대상 차량 이미지보다 먼저 촬영된 제2 대상 차량 이미지에 기초하여 획득되고 상기 대상 차량의 상기 외관 손상과 관련된 기존 손상 정보를 포함하는, 차량 손상 관리 장치를 제공할 수 있다.The processing unit obtains identification information of the target vehicle determined based on the second area, obtains a damage history of the target vehicle corresponding to the identification information of the target vehicle, and the damage history is determined based on the first target vehicle. It is possible to provide a vehicle damage management apparatus that is obtained based on a second target vehicle image taken prior to a vehicle image and includes existing damage information related to the exterior damage of the target vehicle.
상기 처리부는 상기 기존 손상 정보 및 상기 손상 정보에 기초하여, 상기 대상 차량의 상기 제1 대상 차량 이미지가 촬영된 시점에 대응되는 신규 손상 정보를 획득하는, 차량 손상 관리 장치를 제공할 수 있다.The processing unit may provide a vehicle damage management device that obtains new damage information corresponding to a time point when the first target vehicle image of the target vehicle was captured, based on the existing damage information and the damage information.
상기 손상 정보는, 상기 제1 대상 차량 이미지에 포함되는 상기 제2 영역과 관련된 제1 손상 정보 및 상기 제1 영역에 기초하여 획득되는 상기 대상 차량의 식별 정보와 연관하여 미리 저장된 제2 손상 정보에 기초하여 생성되는, 차량 손상 관리 장치를 제공할 수 있다.The damage information may include first damage information related to the second area included in the first target vehicle image and second damage information previously stored in association with identification information of the target vehicle obtained based on the first area. It is possible to provide a vehicle damage management device that is created based on the above.
상기 적어도 하나의 대상 차량 이미지는 상기 대상 차량의 상기 일면과 다른 타면을 촬영하여 획득된 제2 대상 차량 이미지를 더 포함하고, 상기 제2 대상 차량 이미지는 상기 대상 차량에 대응되는 제3 영역을 포함하고, 상기 처리부는 상기 제1 대상 차량 이미지의 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제2 대상 차량 이미지에 기초하여 획득되고 상기 제3 영역과 관련된 상기 손상 정보를 획득하는, 차량 손상 관리 장치를 제공할 수 있다.The at least one target vehicle image further includes a second target vehicle image obtained by photographing the other side of the target vehicle, wherein the second target vehicle image includes a third region corresponding to the target vehicle. and the processing unit determines vehicle type information of the target vehicle based on the second area of the first target vehicle image and the damage obtained based on the vehicle type information and the second target vehicle image and related to the third area. It is possible to provide a vehicle damage management device that acquires information.
상기 처리부는, 상기 제1 대상 영역 이미지 및 상기 차종 정보에 기초하여, 상기 제1 영역에 포함되고 상기 대상 차량의 제1 부품에 대응되는 제1 부품 영역 및 상기 제1 영역에 포함되고 상기 대상 차량의 제2 부품에 대응되는 제2 부품 영역을 포함하는 부품 정보를 획득하는, 차량 손상 관리 장치를 제공할 수 있다.The processing unit may, based on the first target region image and the vehicle type information, a first part region included in the first region and corresponding to a first part of the target vehicle and the target vehicle included in the first region It is possible to provide an apparatus for managing damage to a vehicle that obtains part information including a second part area corresponding to the second part of the vehicle.
상기 처리부는, 상기 손상 정보 및 상기 부품 정보에 기초하여, 상기 손상과 대응되는 부품 영역 정보를 획득하는, 차량 손상 관리 장치를 제공할 수 있다.The processing unit may provide an apparatus for managing damage to a vehicle that obtains part area information corresponding to the damage based on the damage information and the part information.
상기 처리부는 상기 제1 대상 차량 이미지로부터 상기 대상 차량의 번호판에 대응되는 상기 제2 영역을 획득하고, 상기 번호판에 대응되는 상기 제2 영역에 기초하여 상기 차종 정보를 획득하는 차량 손상 관리 방법을 제공할 수 있다.The processing unit obtains the second area corresponding to the license plate of the target vehicle from the first target vehicle image, and provides a vehicle damage management method for obtaining the vehicle model information based on the second area corresponding to the license plate. can do.
상기 처리부는, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하는 차량 손상 관리 방법을 제공할 수 있다.The processing unit may provide a vehicle damage management method for obtaining the damage information based on the target vehicle image by using a neural network model learned to acquire the damage information based on the target vehicle image.
상기 손상 정보는 상기 제1 영역 중 상기 차량 외부의 손상과 대응되는 영역을 나타내는 영역 정보를 포함하는 차량 손상 관리 장치를 제공할 수 있다.The damage information may provide a vehicle damage management apparatus including region information indicating a region corresponding to damage outside the vehicle among the first region.
일 예에 따르면, 차량 이미지를 획득하는 이미지 획득부 및 손상 정보를 획득하는 처리부를 포함하는 장치를 이용한 차량 손상 관리 방법에 있어서, 상기 이미지 획득부를 통하여, 대상 차량의 외관을 촬영하여 획득된 적어도 하나의 대상 차량 이미지를 획득하는 단계- 상기 적어도 하나의 대상 차량 이미지는 상기 대상 차량의 일면을 촬영하여 획득된 제1 대상 차량 이미지를 포함하고, 상기 제1 대상 차량 이미지는, 상기 대상 차량에 대응되는 제1 영역 및 상기 대상 차량의 식별 정보가 위치되는 제2 영역을 포함함-; 상기 처리부를 통하여, 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보를 획득하는 단계; 및 상기 처리부를 통하여, 차종 정보와 상기 제1 대상 차량 이미지에 기초하여 상기 대상 차량의 외관 손상과 관련된 손상 정보를 획득하는 단계; 를 포함하는 차량 손상 관리 방법을 제공할 수 있다.According to an example, in a vehicle damage management method using an apparatus including an image acquisition unit acquiring a vehicle image and a processing unit obtaining damage information, at least one obtained by photographing the exterior of a target vehicle through the image acquisition unit. Obtaining a target vehicle image of the at least one target vehicle image includes a first target vehicle image obtained by photographing one side of the target vehicle, wherein the first target vehicle image corresponds to the target vehicle including a first area and a second area where identification information of the target vehicle is located; acquiring vehicle type information of the target vehicle determined based on the second area through the processing unit; and acquiring damage information related to exterior damage of the target vehicle based on vehicle model information and the first target vehicle image through the processing unit. It is possible to provide a vehicle damage management method comprising a.
상기 손상 정보를 출력하는 단계; 를 더 포함하되, 상기 손상 정보는 상기 대상 차량의 손상에 대응되는 손상 영역 정보를 포함하고, 상기 손상 정보를 출력하는 것은 상기 대상 차량 이미지 및 상기 대상 차량 이미지에 중첩되는 상기 손상 영역 정보를 출력하는 것을 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.outputting the damage information; Further comprising, wherein the damage information includes damage area information corresponding to the damage of the target vehicle, and outputting the damage information outputs the damage area information overlapping the target vehicle image and the target vehicle image. It is possible to provide a vehicle damage management method further comprising.
일 예에 따르면, 상기 처리부를 통하여, 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득하는 단계; 를 더 포함하는, 차량 손상 관리 방법을 제공할 수 있다.According to an example, obtaining identification information of the target vehicle determined based on the second region through the processing unit; Further comprising, it is possible to provide a vehicle damage management method.
상기 처리부를 통하여, 상기 대상 차량의 식별 정보에 대응되는 상기 대상 차량의 손상 이력을 획득하는 단계-상기 손상 이력은, 상기 제1 대상 차량 이미지보다 먼저 촬영된 제2 대상 차량 이미지에 기초하여 획득되고 상기 대상 차량의 상기 외관 손상과 관련된 기존 손상 정보를 포함함-;를 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.Acquiring, through the processing unit, a damage history of the target vehicle corresponding to the identification information of the target vehicle - the damage history is obtained based on a second target vehicle image captured prior to the first target vehicle image, and It is possible to provide a vehicle damage management method that further includes; including existing damage information related to the exterior damage of the target vehicle.
상기 처리부를 통하여, 상기 기존 손상 정보 및 상기 손상 정보에 기초하여, 상기 대상 차량의 상기 제1 대상 차량 이미지가 촬영된 시점에 대응되는 신규 손상 정보를 획득하는 단계; 를 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.obtaining, through the processing unit, new damage information corresponding to a point in time when the first target vehicle image of the target vehicle was captured, based on the existing damage information and the damage information; It is possible to provide a vehicle damage management method further comprising.
상기 손상 정보는 상기 제1 영역에 포함되고 상기 대상 차량의 손상에 대응되는 손상 영역정보를 포함하는 차량 손상 관리 방법을 제공할 수 있다.The damage information may provide a vehicle damage management method including damage area information included in the first area and corresponding to the damage of the target vehicle.
상기 적어도 하나의 대상 차량 이미지는 상기 대상 차량의 상기 일면과 다른 타면을 촬영하여 획득된 제2 대상 차량 이미지를 더 포함하고, 상기 제2 대상 차량 이미지는 상기 대상 차량에 대응되는 제3 영역을 포함하고, 상기 손상 정보를 획득하는 단계는, 상기 제1 대상 차량 이미지의 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제2 대상 차량 이미지에 기초하여 획득되고 상기 제3 영역과 관련된 상기 손상 정보를 획득하는 것을 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.The at least one target vehicle image further includes a second target vehicle image obtained by photographing the other side of the target vehicle, wherein the second target vehicle image includes a third region corresponding to the target vehicle. The obtaining of the damage information may include obtaining the damage information based on vehicle model information of the target vehicle determined based on the second area of the first target vehicle image and the vehicle model information and the second target vehicle image, and A vehicle damage management method may further include acquiring the damage information related to the third region.
상기 처리부를 통하여, 상기 제1 대상 영역 이미지 및 상기 차종 정보에 기초하여, 상기 제1 영역에 포함되고 상기 대상 차량의 제1 부품에 대응되는 제1 부품 영역 및 상기 제1 영역에 포함되고 상기 대상 차량의 제2 부품에 대응되는 제2 부품 영역을 포함하는 부품 정보를 획득하는 단계; 를 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.Through the processing unit, based on the first target area image and the vehicle model information, a first part area included in the first area and corresponding to the first part of the target vehicle and the target included in the first area obtaining parts information including a second part area corresponding to a second part of the vehicle; It is possible to provide a vehicle damage management method further comprising.
상기 처리부를 통하여, 상기 손상 정보 및 상기 부품 정보에 기초하여, 상기 손상과 대응되는 부품 영역 정보를 획득하는 단계;를 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.The vehicle damage management method may further include obtaining part area information corresponding to the damage based on the damage information and the parts information through the processing unit.
상기 처리부를 통하여, 상기 제1 대상 차량 이미지로부터 상기 대상 차량의 번호판에 대응되는 상기 제2 영역을 획득하는 단계; 를 더 포함하고, 상기 차종 정보를 획득하는 단계는 상기 번호판에 대응되는 상기 제2 영역에 기초하여 상기 차종 정보를 획득하는 것을 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.obtaining the second area corresponding to the license plate of the target vehicle from the first target vehicle image through the processing unit; and obtaining the vehicle type information may further include obtaining the vehicle type information based on the second area corresponding to the license plate.
상기 손상 정보를 획득하는 단계는 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하는 것을 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.The acquiring of the damage information further comprises obtaining the damage information based on the target vehicle image by using a neural network model learned to obtain the damage information based on the target vehicle image. can provide.
상기 차량 손상 관리 장치는 사용자 입력을 획득하는 입력부를 더 포함하고, 상기 처리부가, 상기 손상 정보를 출력하는 것에 응답하여, 상기 입력부를 통하여 상기 손상 정보에 대한 사용자 응답을 획득하는 단계; 를 더 포함하는 차량 손상 관리 방법을 제공할 수 있다.The vehicle damage management apparatus further includes an input unit for obtaining a user input, and obtaining a user response to the damage information through the input unit in response to the processing unit outputting the damage information; It is possible to provide a vehicle damage management method further comprising.
일 예로, 상기 차량 손상 관리 방법을 수행하는 프로그램을 저장하는 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.For example, a computer readable recording medium storing a program for performing the vehicle damage management method may be provided.
일 예로, 차량의 이미지를 촬영하는 카메라; 사용자로부터 정보를 입력 받는 입력부; 무선신호를 송수신하는 통신부; 기존 손상 정보와 관련된 메시지를 표시하는 디스플레이부; 및 상기 카메라, 통신부 및 디스플레이부를 제어하는 제어부를 포함하되, 상기 사용자는 이전 사용자 및 현재 사용자를 포함하고, 상기 제어부는 상기 기존 손상 정보를 상기 디스플레이부를 통해 상기 현재 사용자에게 제공하고, 상기 기존 손상 정보에 대해 상기 현재 사용자가 동의하는 경우 상기 차량이 사용 가능한 상태가 되도록 변경해 주되, 상기 기존 손상 정보는 상기 이전 사용자가 촬영한 제1 이미지를 기초로 산출된 손상 정보이고, 상기 디스플레이부는 상기 기존 손상 정보에 대해 상기 현재 사용자가 동의 여부를 선택할 수 있는 제1 알림창을 표시하는 모바일 디바이스를 제공할 수 있다.For example, a camera for taking an image of a vehicle; an input unit that receives information from a user; Communication unit for transmitting and receiving radio signals; a display unit displaying a message related to existing damage information; and a controller for controlling the camera, the communication unit, and the display unit, wherein the user includes a previous user and a current user, and the controller provides the existing damage information to the current user through the display unit, and the existing damage information If the current user agrees to, the vehicle is changed so that the vehicle can be used, and the existing damage information is damage information calculated based on a first image taken by the previous user, and the display unit is the existing damage information. It is possible to provide a mobile device for displaying a first notification window through which the current user can select consent or not.
상기 제1 이미지는 상기 이전 사용자가 차량 반납 시 촬영한 이미지이며, 상기 기존 손상 정보는 상기 이전 사용자의 차량 이용 종료 시까지 발생한 손상 정보를 의미하는 것인 모바일 디바이스를 제공할 수 있다.The first image may be an image taken by the previous user when returning the vehicle, and the existing damage information may indicate damage information generated until the previous user ends using the vehicle.
상기 손상 정보는 상기 이전 사용자의 모바일 디바이스에 의해 전송된 상기 제1 이미지에 의해 업데이트된 정보인 모바일 디바이스를 제공할 수 있다.The damage information may provide a mobile device that is information updated by the first image transmitted by the mobile device of the previous user.
상기 디스플레이부는, 상기 기존 손상 정보에 대해 상기 현재 사용자가 동의하지 않는 경우 상기 현재 사용자에게 제2 이미지를 촬영하도록 요구하는 제2 알림창을 표시하고 상기 제어부는 상기 제2 이미지 촬영이 완료되면 상기 제2 이미지를 상기 통신부를 통해 서버로 전송하고 상기 차량이 사용 가능한 상태가 되도록 변경해주는 모바일 디바이스를 제공할 수 있다.The display unit displays a second notification window requesting the current user to capture a second image when the current user does not agree with the existing damage information, and the controller displays the second notification window when capturing the second image is completed. A mobile device that transmits an image to a server through the communication unit and changes the vehicle into a usable state may be provided.
상기 현재 사용자가 상기 기존 손상 정보에 대해 전부 동의하지 않는 경우, 상기 디스플레이부는 상기 현재 사용자에게 차량 전체 외관에 대한 제2 이미지를 촬영하도록 요구하는 제2 알림창을 표시하고, 상기 제어부는 상기 제2 이미지 촬영이 완료되면 상기 제2 이미지를 상기 통신부를 통해 상기 서버로 전송하고 상기 차량이 사용 가능한 상태가 되도록 변경해주는 모바일 디바이스를 제공할 수 있다.When the current user does not agree with all of the existing damage information, the display unit displays a second notification window requesting the current user to capture a second image of the entire exterior of the vehicle, and the control unit displays the second image When photographing is completed, a mobile device may be provided that transmits the second image to the server through the communication unit and changes the vehicle to a usable state.
상기 현재 사용자가 상기 기존 손상 정보에 대해 일부 동의하지 않는 경우, 상기 디스플레이부는 상기 현재 사용자에게 차량 외관 중 상기 현재 사용자가 동의하지 않은 부분에 대한 제2 이미지를 촬영하도록 요구하는 제2 알림창을 표시하고, 상기 제어부는 상기 제2 이미지 촬영이 완료되면 상기 제2 이미지를 상기 통신부를 통해 상기 서버로 전송하고 상기 차량이 사용 가능한 상태가 되도록 변경해주는 모바일 디바이스를 제공할 수 있다.When the current user does not agree with some of the existing damage information, the display unit displays a second notification window requesting the current user to take a second image of a part of the exterior of the vehicle to which the current user does not agree, and , The control unit may provide a mobile device that transmits the second image to the server through the communication unit when capturing the second image is completed and changes the vehicle to a usable state.
상기 디스플레이부는 촬영 가이드를 표시하되, 상기 촬영 가이드는 상기 현재 사용자가 상기 제2 이미지를 촬영하는 경우 상기 차량의 전체 외관 또는 상기 차량의 부품이 촬영될 수 있도록 가이드해주는 것인 모바일 디바이스를 제공할 수 있다.The display unit displays a photographing guide, and the photographing guide guides the entire exterior of the vehicle or parts of the vehicle to be photographed when the current user captures the second image. there is.
상기 촬영 가이드는 차량 정보에 기초하여 촬영을 가이드해줄 수 있되, 상기 차량 정보는 상기 현재 이용자가 입력한 정보 또는 차량 정보를 획득하도록 학습된 신경망 모델을 통하여 얻어질 수 있는 것인 모바일 디바이스를 제공할 수 있다.The photographing guide may guide photographing based on vehicle information, and the vehicle information may be obtained through information input by the current user or a neural network model trained to obtain vehicle information. can
상기 제어부는 상기 현재 사용자가 상기 제2 이미지를 촬영하는 경우 상기 촬영 가이드 내에 상기 차량이 일정 비율 이상 위치하는 경우 자동적으로 촬영 버튼을 실행하여 이미지를 저장하는 모바일 디바이스를 제공할 수 있다.The control unit may provide a mobile device that automatically executes a photographing button and stores the image when the vehicle is located within a predetermined ratio or more in the photographing guide when the current user captures the second image.
상기 디스플레이부는 촬영 맵을 표시하되, 상기 촬영 맵은 상기 현재 사용자가 상기 제2 이미지를 촬영하는 경우 상기 차량 외관의 주요 부위 중 적어도 일부가 상기 제2 이미지에 포함될 수 있도록 촬영을 가이드해주는 것인 모바일 디바이스를 제공할 수 있다.wherein the display unit displays a photographing map, and the photographing map guides photographing so that at least a part of main parts of the exterior of the vehicle are included in the second image when the current user photographs the second image. device can be provided.
상기 제어부는 상기 서버가 상기 제2 이미지와 상기 기존 손상 정보를 비교하여 상기 차량에 추가 손상이 발생되었는지 판단한 비교 결과를 상기 통신부를 통해 수신하고, 상기 제어부는 상기 디스플레이부를 통해 상기 비교 결과를 상기 현재 사용자에게 제공하며, 상기 디스플레이부는 상기 비교 결과에 대해 상기 현재 사용자가 동의 여부를 선택할 수 있는 제3 알림창을 표시하는 모바일 디바이스를 제공할 수 있다.The control unit receives a comparison result obtained by the server comparing the second image and the existing damage information and determining whether additional damage has occurred to the vehicle through the communication unit, and the control unit transmits the comparison result through the display unit to the current damage information. Provided to the user, the display unit may provide a mobile device for displaying a third notification window through which the current user can select whether to consent to the comparison result.
상기 제어부는 상기 비교 결과에 대해 상기 현재 사용자가 동의하는 경우 상기 차량이 사용 가능한 상태가 되도록 변경해주는 모바일 디바이스를 제공할 수 있다.The control unit may provide a mobile device that changes the vehicle into a usable state when the current user agrees with the comparison result.
상기 디스플레이부는 상기 비교 결과에 대해 상기 현재 사용자가 동의하지 않는 경우 이의 제기할 수 있는 메시지를 표시하고, 상기 제어부는 상기 현재 사용자가 상기 이의 제기를 완료하면 상기 차량이 사용 가능한 상태가 되도록 변경해주는 모바일 디바이스를 제공할 수 있다.The display unit displays a message for making an objection if the current user does not agree with the comparison result, and the control unit changes the vehicle to become usable when the current user completes the objection. device can be provided.
일 예로, 차량의 이미지를 촬영하는 카메라; 사용자로부터 정보를 입력 받는 입력부; 무선신호를 송수신하는 통신부; 차량 손상 정보와 관련된 메시지를 표시하는 디스플레이부; 및 상기 카메라, 통신부 및 디스플레이부를 제어하는 제어부를 포함하되, 상기 사용자는 이전 사용자 및 현재 사용자를 포함하고, 상기 디스플레이부는, 상기 현재 사용자의 차량 반납 시 상기 현재 이용자에게 제3 이미지를 촬영하도록 요구하는 제4 알림창을 표시하고, 상기 제어부는 상기 제3 이미지 촬영이 완료되면 상기 제3 이미지를 상기 통신부를 통해 서버로 전송하고 상기 차량의 반납 처리가 완료되도록 처리하는 모바일 디바이스를 제공할 수 있다.For example, a camera for taking an image of a vehicle; an input unit that receives information from a user; Communication unit for transmitting and receiving radio signals; a display unit displaying a message related to vehicle damage information; and a control unit controlling the camera, communication unit, and display unit, wherein the user includes a previous user and a current user, and the display unit requests the current user to take a third image when returning the vehicle of the current user. A fourth notification window may be displayed, and the control unit may transmit the third image to a server through the communication unit when capturing of the third image is completed, and process the vehicle return process to be completed.
상기 디스플레이부는 촬영 가이드를 표시하되, 상기 촬영 가이드는 상기 현재 사용자가 상기 제3 이미지를 촬영하는 경우 상기 차량의 전체 모습 또는 상기 차량의 부품이 촬영될 수 있도록 가이드해주는 것인 모바일 디바이스를 제공할 수 있다.The display unit displays a photographing guide, and the photographing guide guides the entire vehicle or parts of the vehicle to be photographed when the current user captures the third image. there is.
상기 디스플레이부는 촬영 맵을 표시하되, 상기 촬영 맵은 상기 현재 사용자가 상기 제3 이미지를 촬영하는 경우 상기 차량 외관의 주요 부위 중 적어도 일부가 상기 제2 이미지에 포함될 수 있도록 촬영을 가이드해주는 것인 모바일 디바이스를 제공할 수 있다.wherein the display unit displays a photographing map, and the photographing map guides photographing so that at least a part of main parts of the exterior of the vehicle may be included in the second image when the current user photographs the third image. device can be provided.
상기 제어부는 상기 서버가 상기 제3 이미지를 기존 손상 정보와 비교하여 상기 차량에 추가 손상이 발생되었는지 판단한 추가 손상 정보를 상기 통신부를 통해 수신하고, 상기 제어부는 상기 디스플레이부를 통해 상기 추가 손상 정보를 상기 현재 사용자에게 제공하며, 상기 디스플레이부는 상기 추가 손상 정보에 대해 상기 현재 사용자가 동의 여부를 선택할 수 있는 제5 알림창을 표시하는 모바일 디바이스를 제공할 수 있다.The control unit receives additional damage information determined by the server comparing the third image with existing damage information to determine whether additional damage has occurred to the vehicle through the communication unit, and the control unit transmits the additional damage information through the display unit. It is provided to the current user, and the display unit may provide a mobile device for displaying a fifth notification window through which the current user may select whether to consent to the additional damage information.
상기 추가 손상 정보는 상기 현재 사용자의 차량 이용 시작 시점부터 상기 현재 사용자의 차량 이용 종료 시점까지 발생한 손상 정보를 의미하는 것인 모바일 디바이스를 제공할 수 있다.The additional damage information may provide a mobile device that means damage information generated from the start of the current user's vehicle use to the end of the current user's vehicle use.
상기 제어부는 상기 추가 손상 정보에 대해 상기 현재 사용자가 동의하는 경우 상기 차량의 반납 처리가 완료되도록 처리하는 모바일 디바이스를 제공할 수 있다.The control unit may provide a mobile device that processes the vehicle return process to be completed when the current user agrees to the additional damage information.
상기 디스플레이부는 상기 추가 손상 정보에 대해 상기 현재 사용자가 동의하지 않는 경우 이의 제기할 수 있는 메시지를 표시하고, 상기 제어부는 상기 현재 사용자가 상기 이의 제기를 완료하면 상기 차량의 반납 처리가 완료될 수 있도록 처리하는 모바일 디바이스를 제공할 수 있다.If the current user does not agree with the additional damage information, the display unit displays a message for making an objection, and the controller controls the vehicle return process to be completed when the current user completes the objection. A mobile device for processing may be provided.
아래에서는 도면을 참조하여, 실시 예에 따른 차량관리 장치를 설명한다.Hereinafter, a vehicle management device according to an embodiment will be described with reference to the drawings.
1. 개요1. Overview
본 명세서에서는 차량의 상태를 관리하기 위한 장치, 방법 및 시스템 등에 대하여 설명한다. 이하에서는 차량의 상태를 관리하기 위한 장치 등에 대하여 몇몇 실시예를 들어 설명한다.In this specification, an apparatus, method, and system for managing the state of a vehicle will be described. Hereinafter, a device for managing a state of a vehicle and the like will be described with reference to some embodiments.
2. 차량 관리 시스템2. Vehicle Management System
일 실시예에 따르면, 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 시스템이 제공될 수 있다. According to an embodiment, a vehicle management system for managing a state of a vehicle using a photographed image of the vehicle may be provided.
차량 관리 시스템은 적어도 하나의 장치를 포함할 수 있다. 차량 관리 시스템은 적어도 하나의 카메라 모듈을 가지는 장치를 포함할 수 있다. 차량 관리 시스템은 적어도 하나의 제어부를 가지는 장치를 포함할 수 있다. 차량 관리 시스템은 사용자 입력을 획득하는 입력 모듈을 포함하는 장치를 적어도 하나 포함할 수 있다. 차량 관리 시스템은 저장 모듈을 가지는 장치를 적어도 하나 포함할 수 있다. 차량 관리 시스템은 통신 모듈을 가지는 장치를 적어도 하나 포함할 수 있다.A vehicle management system may include at least one device. The vehicle management system may include a device having at least one camera module. The vehicle management system may include a device having at least one control unit. The vehicle management system may include at least one device including an input module that obtains a user input. The vehicle management system may include at least one device having a storage module. The vehicle management system may include at least one device having a communication module.
차량 관리 시스템은 태블릿, 스마트폰, PC, 노트북 등의 사용자 장치를 포함할 수 있다. 사용자 장치는 디스플레이, 사용자 인터페이스, 통신 모듈, 카메라 모듈, 메모리 및/또는 컨트롤러를 포함할 수 있다.The vehicle management system may include user devices such as tablets, smart phones, PCs, and laptops. A user device may include a display, user interface, communication module, camera module, memory and/or controller.
차량 관리 시스템은 서버 장치를 포함할 수 있다. 서버 장치는 데이터 또는 프로그램을 저장할 수 있다. 서버 장치는 사용자 장치와 통신할 수 있다.The vehicle management system may include a server device. A server device may store data or programs. A server device may communicate with a user device.
차량 관리 시스템은 차량 촬영 장치를 포함할 수 있다. 차량 촬영 장치는 서버 장치 및/또는 사용자 장치와 통신할 수 있다.The vehicle management system may include a vehicle photographing device. The vehicle photographing device may communicate with a server device and/or a user device.
2.1 차량 관리 프로세스2.1 Vehicle Management Process
일 실시예에 따르면, 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 프로세스가 제공될 수 있다. 차량 관리 프로세스는 전술한 차량 관리 시스템에 의해 수행될 수 있다. According to one embodiment, a vehicle management process for managing a state of a vehicle using a photographed image of the vehicle may be provided. The vehicle management process may be performed by the aforementioned vehicle management system.
도 1을 참조하면, 차량 관리 프로세스는 차량과 관련된 차량 데이터를 획득하고(S110), 획득된 차량 데이터에 기초하여 차량 정보를 획득하고(S130), 차량 정보를 관리하고(S150), 차량 정보를 출력하는(S170) 것을 포함할 수 있다. 이하에서는 각 단계에 대하여 보다 구체적으로 설명한다.Referring to FIG. 1 , the vehicle management process acquires vehicle data related to the vehicle (S110), obtains vehicle information based on the obtained vehicle data (S130), manages the vehicle information (S150), and It may include outputting (S170). Hereinafter, each step will be described in more detail.
2.2 데이터 획득2.2 Data Acquisition
차량 관리 프로세스는 차량 관리에 필요한 차량 데이터를 획득하는 것을 포함할 수 있다. The vehicle management process may include acquiring vehicle data necessary for vehicle management.
차량 데이터는 다양한 형태로 마련될 수 있다. 예컨대, 차량 데이터는 이미지 데이터 또는 비-이미지 데이터일 수 있다. 차량 데이터는 장치에 미리 저장되거나 외부로부터 획득될 수 있다. 예컨대, 차량 데이터는 카메라 모듈을 통하여 획득되거나, 사용자 입력 모듈을 통하여 획득될 수 있다. Vehicle data may be prepared in various forms. For example, vehicle data may be image data or non-image data. Vehicle data may be pre-stored in the device or obtained from the outside. For example, vehicle data may be acquired through a camera module or through a user input module.
차량 데이터 및 차량 데이터의 획득에 대하여는 이하에서 구체적인 예시를 들어 보다 상세히 설명한다.The acquisition of vehicle data and vehicle data will be described in more detail below with specific examples.
2.2.1 이미지 데이터 획득2.2.1 Image data acquisition
일 실시예에 따르면, 차량 데이터는 차량을 촬영한 차량 이미지를 포함하는 이미지 데이터일 수 있다. 차량 이미지는 차량의 일부 부품을 포함하는 이미지일 수 있다. 차량 이미지는 차량을 식별하기 위한 식별 정보가 포함되도록 차량의 일부를 촬영하여 획득된 이미지일 수 있다. According to an embodiment, the vehicle data may be image data including a vehicle image obtained by photographing the vehicle. The vehicle image may be an image including some parts of the vehicle. The vehicle image may be an image obtained by photographing a part of the vehicle to include identification information for identifying the vehicle.
차량 데이터는 차량을 촬영한 차량 영상 데이터일 수 있다. 차량 데이터는 영상 데이터 및 영상 데이터로부터 추출된 이미지 데이터를 포함할 수 있다. 이하에서는 이미지 데이터를 기준으로 차량 데이터의 실시예에 대하여 설명한다. 다만, 차량 데이터는 이하에서 설명되는 형태의 차량 이미지와 대응되는 형태의 차량 영상 형태로 획득될 수도 있다. The vehicle data may be vehicle image data obtained by photographing the vehicle. The vehicle data may include image data and image data extracted from the image data. Hereinafter, an embodiment of vehicle data based on image data will be described. However, vehicle data may be acquired in the form of a vehicle image corresponding to a vehicle image of a form described below.
도 2는 일 실시예에 따른 차량 이미지를 설명하기 위한 도면이다. 2 is a diagram for describing a vehicle image according to an exemplary embodiment.
도 2의 (a)를 참조하면, 일 실시예에 따른 차량 이미지는 차량을 일 방향, 예컨대 측방에서 촬영하여 획득된 이미지일 수 있다. 차량 이미지는 일 방향에서, 프레임 내에 차량 전체가 들어오도록 촬영하여 획득된 이미지일 수 있다.Referring to (a) of FIG. 2 , a vehicle image according to an embodiment may be an image obtained by photographing a vehicle in one direction, for example, from the side. The vehicle image may be an image obtained by photographing the entire vehicle in a frame from one direction.
도 2의 (b)를 참조하면, 일 실시예에 따른 차량 이미지는 차량을 전방에서 촬영하여 획득된 이미지일 수 있다. 차량 이미지는 차량을 식별하기 위한 식별 정보를 포함할 수 있다. 식별 정보는 VIN(Vehicle Identification Number) 또는 차번일 수 있다. 도 2의 (b)를 참조하면, 일 실시예에 따른 차량 이미지는 차량의 VIN이 표시된 VIN 영역 또는 차번이 표시된 번호판 영역을 포함할 수 있다.Referring to (b) of FIG. 2 , a vehicle image according to an embodiment may be an image obtained by photographing the vehicle from the front. The vehicle image may include identification information for identifying the vehicle. The identification information may be a Vehicle Identification Number (VIN) or vehicle number. Referring to (b) of FIG. 2 , a vehicle image according to an exemplary embodiment may include a VIN area displaying a vehicle VIN or a license plate area displaying a vehicle number.
도 2의 (c)를 참조하면, 일 실시예에 따른 차량 이미지는 차량의 일부 부품, 예컨대 이 포함되도록 촬영된 이미지 일 수 있다.Referring to (c) of FIG. 2 , a vehicle image according to an embodiment may be an image captured to include some parts of the vehicle, for example.
일 실시예에 따르면, 차량 데이터는 복수의 차량 이미지를 포함할 수 있다. According to one embodiment, vehicle data may include a plurality of vehicle images.
복수의 차량 이미지는 서로 다른 시점에서 촬영된 하나 이상의 이미지들을 포함할 수 있다. 예컨대, 복수의 차량 이미지는 동일한 차량에 대하여 서로 다른 시점에 촬영된 이미지들을 포함할 수 있다. 복수의 차량 이미지는 동일한 차량을 기준으로, 동일한 방향(예컨대, 전방에서)에서 촬영된 이미지들을 포함할 수 있다. A plurality of vehicle images may include one or more images taken at different viewpoints. For example, a plurality of vehicle images may include images of the same vehicle captured at different times. The plurality of vehicle images may include images captured in the same direction (eg, from the front) based on the same vehicle.
도 3은 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다. 도 3을 참조하면, 이미지 데이터는 제1 시점에서 차량을 촬영한 제1 이미지(a), 제1 시점 이후인 제2 시점에서 차량을 촬영한 제2 이미지(b) 및 제3 시점에서 차량을 촬영한 제3 이미지(c)를 포함할 수 있다. 제1 이미지, 제2 이미지 및 제3 이미지는 하나의 영상 데이터로부터 추출된 이미지들일 수 있다. 제1 이미지, 제2 이미지 및 제3 이미지는 동일한 차량에 대하여 같은 방향, 예컨대 좌측에서, 촬영된 이미지일 수 있다.3 is a diagram for illustrating image data according to an exemplary embodiment. Referring to FIG. 3 , image data includes a first image (a) of a vehicle taken at a first point of view, a second image (b) of a vehicle taken at a second point of view after the first point of view, and a vehicle at a third point of view. It may include a third image (c) taken. The first image, the second image, and the third image may be images extracted from one image data. The first image, the second image, and the third image may be images captured from the same vehicle in the same direction, for example, from the left side.
복수의 차량 이미지는 차량을 다양한 방향에서 촬영하여 획득된 하나 이상의 이미지들을 포함할 수 있다. The plurality of vehicle images may include one or more images obtained by photographing the vehicle in various directions.
도 4는 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다. 도 4를 참조하면, 이미지 데이터는 차량의 좌측을 촬영하여 획득된 좌측 이미지(a), 차량의 우측을 촬영하여 획득된 우측 이미지(b), 차량의 전방을 촬영하여 획득된 전방 이미지(c) 및 차량의 후방을 촬영하여 획득된 후방 이미지(d)를 포함할 수 있다.4 is a diagram for illustrating image data according to an exemplary embodiment. Referring to FIG. 4 , image data includes a left image (a) obtained by photographing the left side of the vehicle, a right image (b) obtained by photographing the right side of the vehicle, and a front image (c) obtained by photographing the front of the vehicle. and a rear image (d) obtained by photographing the rear of the vehicle.
도 5는 다른 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다. 도 5를 참조하면, 이미지 데이터는 차량의 좌전방을 촬영하여 획득된 좌전방 이미지(a), 차량의 좌후방을 촬영하여 획득된 좌후방 이미지(b), 차량의 우전방을 촬영하여 획득된 우전방 이미지(c) 및 차량의 우후방을 촬영하여 획득된 우후방 이미지(d)를 포함할 수 있다.5 is a diagram for illustrating image data according to another exemplary embodiment. Referring to FIG. 5 , the image data is a left front image obtained by photographing the left front of the vehicle (a), a left rear image obtained by photographing the left rear of the vehicle (b), and an image obtained by photographing the right front of the vehicle. It may include a right front image (c) and a right rear image (d) obtained by photographing the right rear of the vehicle.
복수의 차량 이미지는 차량의 서로 다른 부분을 포함하도록 촬영된 하나 이상의 이미지들을 포함할 수 있다. The plurality of vehicle images may include one or more images taken to include different parts of the vehicle.
도 6은 일 실시예에 따른 이미지 데이터를 예시하기 위한 도면이다. 도 6을 참조하면, 이미지 데이터는 차량의 좌전방 휀더가 포함되도록 촬영하여 획득된 제1 이미지(a), 차량의 좌전방 도어가 포함되도록 촬영하여 획득된 제2 이미지(b), 차량의 좌후방 도어를 포함하도록 촬영하여 획득된 제3 이미지(c) 및 차량의 좌후방 휀더가 포함되도록 촬영하여 획득된 제4 이미지(d)를 포함할 수 있다. 6 is a diagram for illustrating image data according to an exemplary embodiment. Referring to FIG. 6 , image data includes a first image (a) obtained by photographing to include the left front fender of the vehicle, a second image (b) obtained by photographing to include the left front door of the vehicle, and the left side of the vehicle. A third image (c) obtained by photographing the rear door and a fourth image (d) obtained by photographing the left rear fender of the vehicle may be included.
일 실시예에 따르면, 차량이 아닌 다른 사물을 촬영한 이미지 데이터가 획득될 수도 있다. 예컨대, 차량 주변 사물을 촬영한 사물 이미지, 차량 주변 환경, 예컨대, 하늘을 촬영한 이미지, 운전자의 신분증 또는 면허증을 촬영한 이미지 등이 획득될 수 있다. According to an embodiment, image data obtained by photographing an object other than a vehicle may be obtained. For example, an object image obtained by photographing objects around the vehicle, an image obtained by photographing the surrounding environment of the vehicle, eg, an image obtained by photographing the sky, and an image obtained by photographing a driver's ID card or driver's license may be acquired.
이미지 데이터 또는 영상 데이터는 카메라 모듈을 통하여 획득될 수 있다. 이미지 데이터 또는 영상 데이터는 외부 장치, 예컨대, 카메라 모듈을 가지는 외부 장치로부터 획득될 수 있다. Image data or video data may be acquired through a camera module. Image data or video data may be obtained from an external device, for example, an external device having a camera module.
2.2.2 비-이미지 데이터 획득 2.2.2 Acquisition of non-image data
일 실시예에 따르면, 이미지가 아닌 비-이미지 형태의 차량 데이터가 획득될 수 있다. 차량 데이터는 비-이미지 데이터일 수 있다. 차량 데이터는 차량과 관련된 정보를 포함하는 비-이미지 데이터일 수 있다. According to one embodiment, vehicle data in the form of non-images other than images may be obtained. Vehicle data may be non-image data. Vehicle data may be non-image data including vehicle-related information.
차량 데이터는 차량의 제조사, 모델명, 연식, 제조 시기, 제조 장소, 제조자, 위치, 등록 기준지 등을 나타내는 차량 정보를 포함할 수 있다. The vehicle data may include vehicle information indicating the manufacturer, model name, year, manufacturing time, manufacturing place, manufacturer, location, and registration reference place of the vehicle.
차량 데이터는 차량의 종류를 나타내는 차종 정보를 포함할 수 있다. 차종 정보는 세단, 쿠페, 웨건, 컨버터블, 해치백, SUV, 밴, 트럭, 버스 등, 차량의 차종을 나타낼 수 있다. The vehicle data may include vehicle model information indicating the type of vehicle. The vehicle type information may indicate a vehicle type such as a sedan, a coupe, a wagon, a convertible, a hatchback, an SUV, a van, a truck, or a bus.
차량 데이터는 차량을 식별하기 위한 차량 식별 정보를 포함할 수 있다. 차량 식별 정보는 차량에 부여되는 차량 번호, 차량 식별 번호(VIN) 등을 포함할 수 있다.The vehicle data may include vehicle identification information for identifying the vehicle. The vehicle identification information may include a vehicle number assigned to the vehicle, a vehicle identification number (VIN), and the like.
일 실시예에 따르면, 비-이미지 형태의 추가 정보가 더 획득될 수 있다. 예컨대, 운전자 또는 차량 소유자의 인적사항을 나타내는 운전자 정보, 차량의 보험 유무, 보험 종류 등을 나타내는 보험 정보, 차량의 사고 이력 등을 포함하는 추가 정보가 더 획득될 수 있다.According to one embodiment, additional information in the form of a non-image may be further obtained. For example, additional information including driver information indicating personal information of the driver or vehicle owner, insurance information indicating whether or not the vehicle is insured, insurance type, and the like, and accident history of the vehicle may be further obtained.
비-이미지 데이터는 미리 저장되거나, 획득될 수 있다. 비-이미지 데이터는 사용자 입력을 획득하는 입력 모듈을 통하여 획득될 수 있다. 비-이미지 데이터는 사용자 인터페이스를 통하여 획득될 수 있다. 비-이미지 데이터는 외부 장치로부터 획득될 수 있다.Non-image data may be pre-stored or acquired. Non-image data may be obtained through an input module that obtains user input. Non-image data may be obtained through a user interface. Non-image data may be obtained from an external device.
2.2.3 데이터 처리2.2.3 Data processing
획득된 데이터에 대한 처리가 수행될 수 있다.Processing may be performed on the acquired data.
획득된 이미지 데이터에 대한 전처리(또는 후처리)가 수행될 수 있다. 예컨대, 획득된 이미지(예컨대, 차량 이미지)에 대하여, 밝기 변경, 채도 변경, 색상 변경, 색온도 변경, 휘도 변경, 크기 변경, 이미지 크롭, 화소 수 조정, 사이즈 변경, 가로와 세로의 비율 조정, 화소 선형화(pixel linearization), 필터링, 불량 화소 보정(dead pixel correction), 이미지 선명화(image sharpening), 기하학적 왜곡 보정(geometric distortion correction), 색도 억제(chroma suppression), 이미지 스케일링(image scaling), 디더링(dithering), 보간, 압축(compressing), 압축 해제(decompressing) 등의 처리가 수행될 수 있다. Pre-processing (or post-processing) may be performed on the acquired image data. For example, with respect to the acquired image (eg, vehicle image), brightness change, saturation change, color change, color temperature change, luminance change, size change, image cropping, pixel number adjustment, size change, horizontal and vertical ratio adjustment, pixel Pixel linearization, filtering, dead pixel correction, image sharpening, geometric distortion correction, chroma suppression, image scaling, dithering ( Processing such as dithering, interpolation, compression, and decompressing may be performed.
일 예로, 획득된 이미지 데이터에 대하여 노이즈 제거 처리가 수행될 수 있다. 차량 이미지에 대하여, 노이즈 제거 처리가 수행될 수 있다. 이미지에 포함된 배경 영역 또는 차량 영역에 위치되는 반사광, 얼룩 등의 노이즈, 즉, 차량 관리에 불필요한 이미지 정보를 제거하는 노이즈 제거 처리가 수행될 수도 있다. 이미지에 대하여, 가우시안 필터 등의 처리를 수행하여, 노이즈 제거 처리가 수행될 수 있다. 또는 이미지에 대하여, 노이즈 제거를 위하여 학습된 신경망 모델을 통하여 노이즈 제거 처리가 수행될 수 있다. For example, noise removal processing may be performed on the acquired image data. For the vehicle image, denoising processing may be performed. Noise elimination processing may be performed to remove noise such as reflected light and stains located in the background area or vehicle area included in the image, that is, image information unnecessary for vehicle management. Noise removal processing may be performed on the image by performing processing such as a Gaussian filter. Alternatively, with respect to the image, denoising processing may be performed through a neural network model trained for denoising.
도 7은 노이즈 제거 처리를 설명하기 위한 도면이다. 7 is a diagram for explaining noise elimination processing.
일 실시예에 따르면, 차량 이미지로부터 차량이 아닌 사물을 제거하는 노이즈 제거 처리가 수행될 수 있다. 도 7의 (a) 및 (b)를 참조하면, 일 실시예에 따른 노이즈 제거 처리는 차량에 대응되는 차량 영역 및 차량에 대응되지 않는 영역인 배경 영역을 포함하는 원본 이미지(a)를 획득하고, 배경 영역이 제거된 전처리된 이미지(b)를 획득하는 것을 포함할 수 있다. According to one embodiment, noise removal processing may be performed to remove non-vehicle objects from the vehicle image. Referring to (a) and (b) of FIG. 7 , in the noise removal process according to an exemplary embodiment, an original image (a) including a vehicle area corresponding to a vehicle and a background area not corresponding to the vehicle is obtained, and , obtaining a preprocessed image (b) from which the background region has been removed.
노이즈 제거 처리는 원본 이미지로부터 차량 영역을 획득하도록 학습된 신경망 모델을 이용하여 수행될 수 있다. 예컨대, 신경망 모델은 컨벌루션 신경망(CNN; Convolutional Neural Network) 레이어를 포함하고, 원본 이미지에 차량 영역이 마스킹된 복수의 이미지를 포함하는 학습 데이터에 기초하여, 원본 이미지로부터 차량 영역을 추출하도록 학습될 수 있다. 학습된 신경망 모델을 이용하여, 대상 원본 이미지로부터 차량 영역을 추출하고, 나머지 영역은 제거하는 노이즈 제거 처리가 수행될 수 있다. Denoising processing may be performed using a neural network model trained to obtain a vehicle area from an original image. For example, the neural network model may include a convolutional neural network (CNN) layer and be trained to extract a vehicle area from an original image based on training data including a plurality of images in which the vehicle area is masked from the original image. there is. A noise removal process may be performed to extract a vehicle area from the original target image and remove the remaining areas using the learned neural network model.
다른 일 실시예에 따르면, 차량 이미지로부터 차량 정보 획득에 방해가 되는 요소를 제거하기 위한 노이즈 제거 처리가 수행될 수 있다. 차량 정보 획득에 방해가 되는 요소를 제거하기 위한 노이즈 제거 처리는 차량에 대응되는 차량 영역 내에 포함되는 노이즈를 제거하는 것을 포함할 수 있다. 도 7의 (c) 및 (d)를 참조하면, 일 실시예에 따른 노이즈 제거 처리는 차량의 손상 정보를 획득하기 위한 차량 이미지를 획득하고, 차량 영역으로부터 차량의 손상과 무관한 반사광에 대응되는 반사광 영역을 제거하는 것을 포함할 수 있다.According to another embodiment, noise removal processing may be performed to remove elements that interfere with acquisition of vehicle information from a vehicle image. The noise removal process for removing elements obstructing vehicle information acquisition may include removing noise included in a vehicle area corresponding to the vehicle. Referring to (c) and (d) of FIG. 7 , noise removal processing according to an embodiment acquires a vehicle image for acquiring vehicle damage information, and corresponds to reflected light from a vehicle area unrelated to vehicle damage. It may include removing the specular light region.
노이즈 제거 처리는 원본 이미지로부터, 반사광이 제거된 이미지를 획득하도록 학습된 신경망 모델을 이용하여 수행될 수 있다. 예컨대, 신경망 모델은 컨벌루션 신경망 레이어를 포함하고, 원본 이미지에 반사광 영역이 마스킹된 복수의 이미지를 포함하는 학습 데이터(또는 반사광 영역을 포함하는 원본 이미지 및 반사광 영역이 수작업으로 제거된 이미지)에 기초하여, 원본 이미지로부터 반사광 영역이 제거된 이미지를 획득하도록 학습될 수 있다. 학습된 신경망 모델을 이용하여, 대상 원본 이미지로부터 반사광 영역이 제거된 이미지를 획득하는 노이즈 제거 처리가 수행될 수 있다. The denoising process may be performed using a neural network model trained to obtain an image from which reflected light has been removed from the original image. For example, the neural network model includes a convolutional neural network layer, and based on training data including a plurality of images in which the specular region is masked from the original image (or the original image including the specular region and the image from which the specular region is manually removed) , it can be learned to obtain an image from which the specular region is removed from the original image. A noise removal process may be performed to obtain an image from which specular regions are removed from the target original image by using the learned neural network model.
다른 일 예로, 복수의 이미지를 포함하는 이미지 데이터에 대하여 노이즈 제거 처리가 수행될 수 있다. 이미지 데이터가 복수의 이미지를 포함하는 경우, 각각의 이미지에 대하여 노이즈 제거 처리를 수행하거나, 하나 이상의 이미지를 함께 이용하여, 보다 정확도가 향상된 노이즈 제거 처리가 수행될 수 있다. As another example, noise removal processing may be performed on image data including a plurality of images. When the image data includes a plurality of images, noise removal processing may be performed on each image or noise removal processing with improved accuracy may be performed by using one or more images together.
복수의 원본 이미지에 기초하여, 배경 영역이 제거된 이미지를 획득하는 노이즈 제거 처리가 수행될 수 있다. 노이즈 제거 처리는 복수의 이미지를 획득하고, 위치가 변동되는 오브젝트(예컨대, 차량에 대응되는 오브젝트) 및 위치가 변동되지 않는 오브젝트(예컨대, 배경에 대응되는 오브젝트)를 구분하여, 위치가 변동되는 오브젝트 또는 위치가 변동되지 않는 오브젝트를 제거하는 것을 포함할 수 있다. 위치 변동은 이미지 프레임 내에서의 상대적인 위치 변동을 의미할 수 있다. 예컨대, 노이즈 제거 처리는 복수의 이미지를 획득하고, 위치가 변동되지 않는 오브젝트를 제거하여, 위치가 변동되는 오브젝트만을 포함하는 이미지를 획득하는 것을 포함할 수 있다. 또 예컨대, 노이즈 제거 처리는 복수의 이미지를 획득하고, 위치가 변동되는 오브젝트를 제거하여, 위치가 변동되지 아니하는 오브젝트만을 포함하는 이미지를 획득하는 것을 포함할 수 있다. 여기서 위치가 변동되는 오브젝트는 가변 영역으로 정의될 수 있고, 위치가 변동되지 아니하는 오브젝트는 고정 영역으로 정의될 수 있다.Based on the plurality of original images, noise removal processing may be performed to obtain an image from which the background area is removed. The noise removal process acquires a plurality of images, distinguishes between an object whose position is changed (eg, an object corresponding to a vehicle) and an object whose position is not changed (eg, an object corresponding to a background), and an object whose position is changed. Alternatively, it may include removing an object whose location does not change. The position change may mean a relative position change within an image frame. For example, the noise removal process may include acquiring a plurality of images, removing objects whose positions do not change, and obtaining an image including only objects whose positions change. Also, for example, the noise removal process may include acquiring a plurality of images, removing an object whose position is fluctuated, and acquiring an image including only an object whose position is not fluctuated. Here, an object whose location changes may be defined as a variable area, and an object whose location does not change may be defined as a fixed area.
도 8은 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다. 도 8을 참조하면, 차량 영역 및 배경 영역을 가지는 복수의 원본 이미지(a, b 및 c)를 획득하고, 복수의 원본 이미지(a, b 및 c)에 기초하여 배경 영역이 제거된 이미지(d)를 획득하는 노이즈 제거 처리가 수행될 수 있다. 도 8을 참조하면, 복수의 원본 이미지(a, b 및 c)에 기초하여, 이미지 내에서의 위치가 고정된 오브젝트인 배경에 대응되는 영역(즉, 배경 영역)이 제거되고, 이미지 내에서의 위치가 변경되는 오브젝트인 차량에 대응되는 영역(즉, 차량 영역)을 포함하는 이미지(d)가 획득될 수 있다. 8 is a diagram for illustrating noise removal processing using a plurality of images. Referring to FIG. 8 , a plurality of original images (a, b, and c) having a vehicle area and a background area are obtained, and an image (d) from which the background area is removed based on the plurality of original images (a, b, and c) is obtained. ) may be performed. Referring to FIG. 8 , based on a plurality of original images (a, b, and c), an area corresponding to a background (ie, a background area), which is an object whose position is fixed in the image, is removed, and An image d including an area corresponding to a vehicle, which is an object whose location is changed (ie, a vehicle area), may be acquired.
배경이 제거된 이미지(d)는 복수의 원본 이미지(a, b 및 c)중 어느 하나에 기초하여 생성될 수 있다. 예컨대, 노이즈 제거 처리는 복수의 원본 이미지(a, b 및 c)에 기초하여 배경 영역 및 차량 영역을 획득하고, 복수의 원본 이미지(a, b 및 c)중 어느 하나로부터 배경 영역을 제거하여, 노이즈 제거된 이미지(d)를 획득하는 것을 포함할 수 있다.The background-removed image (d) may be generated based on any one of the plurality of original images (a, b, and c). For example, the denoising process obtains a background area and a vehicle area based on a plurality of original images (a, b, and c), removes the background area from any one of the plurality of original images (a, b, and c), It may include obtaining a denoised image (d).
여기서, 복수의 원본 이미지(a, b 및 c) 중 적어도 2개의 이미지에 기초하여 노이즈 제거 처리가 수행될 수 있다. 상기 노이즈 제거 처리가 수행되는 이미지는 제1 이미지와 제2 이미지로 정의될 수 있다.Here, noise removal processing may be performed based on at least two images among the plurality of original images a, b, and c. The image on which the noise removal process is performed may be defined as a first image and a second image.
예를 들어, 도 8의 (a)는 제1 이미지로 정의될 수 있고, 도 8의 (b)는 제2 이미지로 정의될 수 있다. 상기 제1 이미지와 제2 이미지는 서로 다른 시점에 촬영된 이미지일 수 있다. 상기 제1 이미지는 제1 시점에 촬영된 이미지일 수 있고, 상기 제2 이미지는 제2 시점에 촬영된 이미지일 수 있다. 상기 제1 시점과 제2 시점은 서로 다른 시점일 수 있다.For example, (a) of FIG. 8 may be defined as a first image, and (b) of FIG. 8 may be defined as a second image. The first image and the second image may be images taken at different times. The first image may be an image captured at a first viewpoint, and the second image may be an image captured at a second viewpoint. The first viewpoint and the second viewpoint may be different from each other.
노이즈 제거 처리는 신경망 모델을 이용하여 수행될 수 있다. 신경망 모델은 컨벌루션 신경망 레이어를 포함하고, 차량 영역 및/또는 배경 영역이 마스킹된 복수의 차량 이미지를 포함하는 학습 데이터를 이용하여, 배경 영역이 제거된 이미지를 획득하도록 학습될 수 있다. 노이즈 제거 처리는 학습된 신경망 모델을 이용하여, 대상 원본 이미지들로부터 배경 영역이 제거된 차량 이미지를 획득하는 것을 포함할 수 있다. Denoising processing may be performed using a neural network model. The neural network model may include a convolutional neural network layer and may be trained to obtain an image from which the background area is removed using training data including a plurality of vehicle images in which the vehicle area and/or the background area are masked. The denoising process may include obtaining a vehicle image from which a background region is removed from target original images by using a trained neural network model.
복수의 원본 이미지에 기초하여, 반사광 등을 제거하기 위한 노이즈 제거 처리가 수행될 수 있다. 노이즈 제거 처리는 복수의 이미지를 획득하고, 위치가 변동되는 오브젝트(예컨대, 반사광에 대응되는 반사 영역) 및 위치가 변동되지 않는 오브젝트(예컨대, 차량 영역 또는 차량의 손상에 대응되는 손상 영역)를 구분하여, 위치가 변동되는 오브젝트 또는 위치가 변동되지 않는 오브젝트를 제거하는 것을 포함할 수 있다. 예컨대, 차량의 손상된 부분에 대응되는 손상 영역 및 차량의 표면에 의한 반사광에 대응되는 반사 영역을 포함하는 차량 이미지에 기초하여, 반사 영역이 제거된 차량 이미지를 획득하는 노이즈 제거 처리가 수행될 수 있다. 여기서 위치가 변동되는 오브젝트는 가변 영역으로 정의될 수 있고, 위치가 변동되지 아니하는 오브젝트는 고정 영역으로 정의될 수 있다. 즉, 상기 손상 영역은 고정영역으로 정의될 수 있고, 상기 반사 영역은 가변 영역으로 정의될 수 있다.Based on the plurality of original images, noise removal processing for removing reflected light or the like may be performed. The noise removal process acquires a plurality of images, and distinguishes between an object whose position changes (eg, a reflective area corresponding to reflected light) and an object whose position does not change (eg, a vehicle area or a damaged area corresponding to damage to a vehicle). Thus, it may include removing an object whose location is changed or an object whose location is not changed. For example, based on a vehicle image including a damaged area corresponding to a damaged part of the vehicle and a reflective area corresponding to light reflected by the surface of the vehicle, noise removal processing may be performed to obtain a vehicle image from which the reflective area is removed. . Here, an object whose location changes may be defined as a variable area, and an object whose location does not change may be defined as a fixed area. That is, the damaged area may be defined as a fixed area, and the reflective area may be defined as a variable area.
도 9는 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다. 도 9를 참조하면, 손상 영역 및 반사 영역을 포함하는 복수의 원본 이미지(a 및 b)를 획득하고, 반사 영역이 제거된 이미지(c)를 획득하는 노이즈 제거 처리가 수행될 수 있다. 도 9를 참조하면, 복수의 원본 이미지(a 및 b)에 기초하여, 이미지 내에서 또는 차량 영역 내에서 위치 또는 상태가 변경되는 반사 영역이 제거된 이미지(c)를 획득하는 노이즈 제거 처리가 수행될 수 있다.9 is a diagram for illustrating noise removal processing using a plurality of images. Referring to FIG. 9 , noise removal processing may be performed to obtain a plurality of original images (a and b) including a damaged area and a reflective area, and to obtain an image (c) from which the reflective area is removed. Referring to FIG. 9 , based on a plurality of original images (a and b), noise removal processing is performed to obtain an image (c) in which a reflective area whose position or state is changed in an image or in a vehicle area is removed. It can be.
반사 영역이 제거된 이미지(c)는 복수의 원본 이미지(a 및 b)중 어느 하나에 기초하여 생성될 수 있다. 예컨대, 노이즈 제거 처리는 복수의 원본 이미지(a 및 b)에 기초하여 반사 영역을 획득하고, 복수의 원본 이미지(a 및 b)중 어느 하나로부터 반사 영역을 제거하여, 노이즈 제거된 이미지를 획득하는 것을 포함할 수 있다.The image (c) from which the reflection area is removed may be generated based on any one of the plurality of original images (a and b). For example, the denoising process is to obtain a reflective area based on a plurality of original images (a and b), remove the reflective area from any one of the plurality of original images (a and b), and obtain a denoised image. may include
여기서, 복수의 원본 이미지(a, b 및 c) 중 적어도 2개의 이미지에 기초하여 노이즈 제거 처리가 수행될 수 있다. 상기 노이즈 제거 처리가 수행되는 이미지는 제1 이미지와 제2 이미지로 정의될 수 있다.Here, noise removal processing may be performed based on at least two images among the plurality of original images a, b, and c. The image on which the noise removal process is performed may be defined as a first image and a second image.
예를 들어, 도 9의 (a)는 제1 이미지로 정의될 수 있고, 도 9의 (b)는 제2 이미지로 정의될 수 있다. 상기 제1 이미지와 제2 이미지는 서로 다른 시점에 촬영된 이미지일 수 있다. 상기 제1 이미지는 제1 시점에 촬영된 이미지일 수 있고, 상기 제2 이미지는 제2 시점에 촬영된 이미지일 수 있다. 상기 제1 시점과 제2 시점은 서로 다른 시점일 수 있다.For example, (a) of FIG. 9 may be defined as a first image, and (b) of FIG. 9 may be defined as a second image. The first image and the second image may be images taken at different times. The first image may be an image captured at a first viewpoint, and the second image may be an image captured at a second viewpoint. The first viewpoint and the second viewpoint may be different from each other.
상기 노이즈 제거 처리는 상기 제1 이미지에서의 고정 영역과 가변 영역의 위치와 제2 이미지에서의 고정 영역과 가변 영역의 위치의 차이에 기초하여 수행될 수 있다. The noise removal process may be performed based on a difference between positions of the fixed and variable regions in the first image and positions of the fixed and variable regions in the second image.
상기 노이즈 제거 처리는 상기 제1 이미지와 제2 이미지에 포함되는 이상 영역의 거리 차이에 의해 고정 영역과 가변 영역이 분류되고, 분류된 고정 영역과 가변 영역 중 가변 영역을 제거하여 손상 이미지를 만드는 것에 의해 처리될 수 있다. 상기 손상 이미지는 상기 제1 이미지와 제2 이미지 중 차량이 이미지의 중앙영역에 가깝게 위치하는 이미지에서 가변 영역을 제거한 이미지일 수 있다.In the noise removal process, a fixed region and a variable region are classified according to a distance difference between the abnormal regions included in the first image and the second image, and the variable region is removed from the classified fixed and variable regions to create a damaged image. can be processed by The damaged image may be an image obtained by removing a variable region from an image in which the vehicle is located close to the center region of the first image and the second image.
예를 들어, 상기 제1 이미지는 제1 이상 영역과 제2 이상 영역을 포함하는 다수의 이상 영역을 포함하고, 상기 제2 이미지는 제3 이상 영역과 제4 이상 영역을 포함하는 다수의 이상 영역을 포함하고, 상기 제1 이상 영역과 상기 제3 이상 영역이 대응되고, 상기 제2 이상 영역과 제4 이상 영역이 대응되는 것으로 정의한다.For example, the first image includes a plurality of abnormal areas including a first abnormal area and a second abnormal area, and the second image includes a plurality of abnormal areas including a third abnormal area and a fourth abnormal area. Including, it is defined that the first abnormal area corresponds to the third abnormal area, and the second abnormal area corresponds to the fourth abnormal area.
상기 노이즈 제거처리는 제1 이미지에서의 각각의 이상 영역의 위치와 상기 제2 이미지에서의 각각의 이상 영역의 위치에 기초하여 고정영역과 가변 영역을 분류할 수 있다.The denoising process may classify a fixed region and a variable region based on the position of each abnormal region in the first image and the position of each abnormal region in the second image.
상기 이상 영역의 위치는 차량의 일부 영역을 기준으로 정의되는 상대적 위치일 수 있다. 즉, 제1 이미지와 제2 이미지에 포함된 차량의 다수의 특징점 중 어느 하나의 특징점을 제1 특징점으로 정의하는 경우 상기 이상 영역의 위치하는 상기 제1 특징점을 기준으로 정의될 수 있다.The position of the abnormal region may be a relative position defined based on a partial region of the vehicle. That is, when any one of the plurality of feature points of the vehicle included in the first image and the second image is defined as the first feature point, the first feature point located in the abnormal area may be defined as a reference.
상기 제1 특징점은 각각의 이미지에서 서로 다른 좌표를 가질 수 있다.The first feature point may have different coordinates in each image.
예를 들어, 상기 제1 이미지에서의 제1 특징점은 제1 좌표를 가지고, 상기 제2 이미지에서의 상기 제1 특징점은 제2 좌표를 가질 수 있다.For example, the first feature point in the first image may have a first coordinate, and the first feature point in the second image may have a second coordinate.
상기 이상 영역은 하나의 점이 아니라, 면적을 가지는 영역이므로, 상기 제1 특징점과의 비교를 위해서는 각 영역을 대표하는 좌표가 정의되어야 한다. 상기 노이즈 제거처리는 각 영역을 대표하는 좌표를 정의할 수 있다. 상기 노이즈 제거처리는 각 영역에 포함되는 다수의 좌표 중 어느 하나의 좌표를 대표하는 좌표로 정의할 수 있다. 예를 들어, 상기 노이즈 제거처리는 각 영역의 중앙의 좌표를 해당영역을 대표하는 좌표로 정의할 수 있다.Since the ideal area is not a single point but an area having an area, coordinates representing each area must be defined for comparison with the first feature point. In the noise removal process, coordinates representing each region may be defined. The noise removal process may be defined as a coordinate representing one of a plurality of coordinates included in each region. For example, in the noise removal process, coordinates of the center of each region may be defined as coordinates representing the corresponding region.
상기 제1 이미지의 제1 이상 영역을 대표하는 좌표는 제3 좌표료 정의될 수 있고, 상기 제2 이상 영역을 대표하는 좌표는 제4 좌표로 정의될 수 있다.Coordinates representing the first ideal region of the first image may be defined as third coordinates, and coordinates representing the second ideal region may be defined as fourth coordinates.
또한, 상기 제2 이미지에서 제3 이상 영역을 대표하는 좌표는 제5 좌표로 정의될 수 있고, 상기 제4 이상 영역을 대표하는 좌표는 제6 좌표로 정의될 수 있다.Also, coordinates representing the third ideal region in the second image may be defined as fifth coordinates, and coordinates representing the fourth ideal region may be defined as sixth coordinates.
상기 제1 좌표와 상기 제3 좌표 사이의 제1 거리와 상기 제2 좌표와 상기 제5 좌표 사이의 제2 거리는 서로 대응될 수 있다. 상기 제1 좌표와 상기 제4 좌표 사이의 제3 거리와 상기 제2 좌표와 상기 제6 좌표 사이의 제4 거리는 다를 수 있다.A first distance between the first coordinate and the third coordinate and a second distance between the second coordinate and the fifth coordinate may correspond to each other. A third distance between the first coordinate and the fourth coordinate may be different from a fourth distance between the second coordinate and the sixth coordinate.
상기 제1 거리와 상기 제2 거리의 차이는 상기 제3 거리와 상기 제4 거리의 차이보다 작을 수 있다.A difference between the first distance and the second distance may be smaller than a difference between the third distance and the fourth distance.
상기 노이즈 제거 처리는 상기 제1 거리와 상기 제2 거리의 차이 값과 상기 제3 거리와 상기 제4 거리의 차이 값에 의해 이상영역이 고정 영역인지 가변 영역인지 분류할 수 있다.In the noise removal process, whether the abnormal region is a fixed region or a variable region may be classified according to a difference value between the first distance and the second distance and a difference value between the third distance and the fourth distance.
상기 고정 영역은 차량 내에서 위치하는 상대 좌표가 변하지 않고, 상기 가변 영역은 차량 내에서 위치하는 상태 좌표가 변할 수 있다.In the fixed region, relative coordinates located in the vehicle do not change, and in the variable region, state coordinates located in the vehicle may change.
상기 노이즈 제거 처리는 상기 제1 거리와 상기 제2 거리의 차이 값이 미리 정해진 값 미만인 경우에 고정 영역으로 분류할 수 있고, 상기 제3 거리와 상기 제4 거리의 차이 값이 미리 정해진 값 이상인 경우 가변 영역으로 분류할 수 있다.The noise removal process may be classified as a fixed area when the difference between the first distance and the second distance is less than a predetermined value, and when the difference between the third distance and the fourth distance is greater than or equal to a predetermined value. It can be classified as a variable region.
즉, 상기 제1 이상 영역과 제3 이상 영역은 고정 영역으로 분류될 수 있고, 상기 제2 이상 영역과 제4 이상 영역은 가변 영역으로 분류될 수 있다.That is, the first and third abnormal regions may be classified as fixed regions, and the second and fourth abnormal regions may be classified as variable regions.
노이즈 제거 처리는 신경망 모델을 이용하여 수행될 수 있다. 신경망 모델은 컨벌루션 신경망 레이어를 포함하고, 반사 영역이 마스킹된 복수의 차량 이미지를 포함하는 학습 데이터를 이용하여, 반사 영역이 제거된 이미지를 획득하도록 학습될 수 있다. 노이즈 제거 처리는 학습된 신경망 모델을 이용하여, 대상 원본 이미지들로부터 반사 영역이 제거된 차량 이미지를 획득하는 것을 포함할 수 있다. Denoising processing may be performed using a neural network model. The neural network model may include a convolutional neural network layer and may be trained to obtain an image from which the reflective area is removed by using training data including a plurality of vehicle images in which the reflective area is masked. The denoising process may include obtaining a vehicle image from which reflection areas are removed from target original images by using the learned neural network model.
한편, 위 실시예들에서는 세 개 또는 두 개의 원본 이미지에 기초하여 노이즈 제거 처리된 이미지를 획득하는 경우를 기준으로 설명하였으나, 이는 예시에 불과하며, 노이즈 제거 처리는 보다 적거나 많은 수의 원본 이미지에 기초하여 수행될 수도 있다.On the other hand, in the above embodiments, it has been described based on the case of obtaining a denoised image based on three or two original images, but this is only an example, and the denoising process is performed on fewer or more original images. It may be performed based on.
획득된 비-이미지 데이터에 대한 전처리가 수행될 수 있다. Pre-processing may be performed on the acquired non-image data.
예컨대, 획득된 비-이미지 데이터는 차량 정보 획득에 용이한 형태로 변형될 수 있다. 비-이미지 데이터는 수치화될 수 있다. 비-이미지 데이터는 바이너리 데이터 형태로 변환될 수 있다. 복수의 비-이미지 데이터에 기초하여, 차량 정보 획득을 위한 점수가 계산될 수 있다. For example, the obtained non-image data may be transformed into a form that is easy to acquire vehicle information. Non-image data can be digitized. Non-image data may be converted into binary data form. Based on the plurality of non-image data, a score for obtaining vehicle information may be calculated.
2.3 차량 정보 획득2.3 Obtaining vehicle information
차량 관리 프로세스는 차량 데이터에 기초하여 차량 정보를 획득하는 것을 포함할 수 있다.The vehicle management process may include obtaining vehicle information based on vehicle data.
차량 정보는 대상 차량을 구성하는 부품과 관련된 부품 정보, 대상 차량 내/외부의 손상과 관련된 손상 정보, 대상 차량의 종류와 관련된 차종 정보 및/또는 대상 차량을 식별하기 위한 식별 정보를 포함할 수 있다. The vehicle information may include parts information related to parts constituting the target vehicle, damage information related to internal/external damage of the target vehicle, vehicle model information related to the type of the target vehicle, and/or identification information for identifying the target vehicle. .
차량 정보는 차량 데이터로부터 추출되거나, 차량 데이터를 처리하여 얻어질 수 있다. 차량 정보는 차량 데이터를 입력 데이터로 하여, 차량 정보를 획득하도록 설계된 알고리즘 또는 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 얻어질 수 있다. Vehicle information may be extracted from vehicle data or obtained by processing vehicle data. Vehicle information may be obtained using an algorithm designed to obtain vehicle information or a neural network model trained to obtain vehicle information, with vehicle data as input data.
차량 정보 획득을 위하여, 입력 이미지를 하나 이상의 라벨에 대하여 분류 또는 예측하는 분류기 알고리즘이 이용될 수 있다. 분류 또는 예측을 위하여, 다양한 형태의 알고리즘이 이용될 수 있다. 예컨대, K-최근접이웃(k-nearest neighbor), 서포트벡터머신(Support Vector Machine), 인공신경망(Artificial Neural Nerwork), 의사결정나무(Decision Tree), 자기조직화 맵(Self-organizing map), 논리적 회귀(Logistic regression) 등이 이용될 수 있다. For vehicle information acquisition, a classifier algorithm that classifies or predicts an input image for one or more labels may be used. For classification or prediction, various types of algorithms may be used. For example, k-nearest neighbor, support vector machine, artificial neural network, decision tree, self-organizing map, logical Logistic regression or the like may be used.
인공 신경망은 분류기, 하이브리드형 분류기 (Hybrid classifiers), 앙상블형 분류기 (Ensemble classifiers), 선형 회귀(Linear Regression) 신경망 등일 수 있다. 인공 신경망은 지도 학습, 비지도 학습 또는 강화 학습된 모델일 수 있다. Artificial neural networks may be classifiers, hybrid classifiers, ensemble classifiers, linear regression neural networks, and the like. An artificial neural network can be a supervised, unsupervised or reinforcement learned model.
도 10은 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다.10 is a diagram for explaining a neural network model for obtaining vehicle information according to an exemplary embodiment.
도 10을 참조하면, 일 실시예에 따른 신경망 모델은 분류기 형태로 마련될 수 있다. 일 실시예에 따르면, 신경망 모델은 입력 레이어(IL), 풀링 레이어(PL), 컨벌루션 신경망 레이어(CL), 전연결 레이어(FCL), 히든 레이어(HL) 및 출력 레이어(OL) 등을 포함하고, 입력 이미지에 기초하여 특징 벡터를 획득할 수 있다. 신경망 모델은 입력 이미지를 하나 이상의 라벨로 분류하는 분류기 형태로 마련될 수 있다. 또는 신경망 모델은 회귀 모델 형태로 마련될 수도 있다. 신경망 모델은 입력에 이미지에 기초하여, 특정 차량 정보에 대한 선형 출력값을 획득하는 회귀 모델로 마련될 수 있다.Referring to FIG. 10 , a neural network model according to an embodiment may be prepared in the form of a classifier. According to one embodiment, the neural network model includes an input layer (IL), a pooling layer (PL), a convolutional neural network layer (CL), a fully connected layer (FCL), a hidden layer (HL), an output layer (OL), and the like, , a feature vector can be obtained based on the input image. The neural network model may be provided in the form of a classifier that classifies an input image into one or more labels. Alternatively, the neural network model may be prepared in the form of a regression model. The neural network model may be prepared as a regression model that obtains a linear output value for specific vehicle information based on an image as an input.
신경망 모델은 차량의 일부를 촬영하여 획득된 차량 이미지를 입력으로 하여, 출력 정보를 획득할 수 있다. 출력 정보는 입력된 이미지가 대상 오브젝트를 포함하는지 여부를 나타낼 수 있다. 예컨대, 신경망 모델의 출력 레이어는 확률 함수가 부여된 출력 노드를 포함할 수 있다. 신경망 모델의 출력 레이어는 대상 이미지가 대상 오브젝트를 포함하는지 여부를 나타내는 확률 함수가 부여된 출력 노드를 포함할 수 있다. 출력 레이어는 하나 이상의 대상 오브젝트에 대하여, 입력 이미지가 각각의 대상 오브젝트를 포함하는지 여부를 나타내는 하나 이상의 확률 함수가 부여된 출력 노드를 포함할 수 있다.The neural network model may acquire output information by using a vehicle image obtained by photographing a part of the vehicle as an input. The output information may indicate whether an input image includes a target object. For example, an output layer of a neural network model may include an output node to which a probability function is assigned. The output layer of the neural network model may include an output node to which a probability function indicating whether the target image includes the target object is assigned. The output layer may include output nodes to which one or more probability functions indicating whether an input image includes each target object are assigned to one or more target objects.
차량 정보 획득을 위하여, 입력 이미지에 기초하여, 이미지에 포함된 하나 이상의 오브젝트의 세그멘테이션을 포함하는 세그멘테이션 맵(또는 이미지)를 획득하는 신경망 모델이 이용될 수 있다. 세그멘테이션 맵을 획득하기 위하여, 다양한 형태의 신경망이 이용될 수 있다. 예컨대, FCN(Fully Convolutional Network), SegNet, UNet, UNet++, DeConvNet 등이 이용될 수 있다.For vehicle information acquisition, a neural network model that acquires a segmentation map (or image) including segmentation of one or more objects included in the image based on an input image may be used. In order to obtain the segmentation map, various types of neural networks may be used. For example, Fully Convolutional Network (FCN), SegNet, UNet, UNet++, DeConvNet, and the like may be used.
도 11은 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다. 도 11을 참조하면, 일 실시예에 따른 신경망 모델은 영상 분할(Image Segmentation) 신경망 모델일 수 있다. 신경망 모델은 입력 레이어(IL), 다운샘플링을 수행하는 풀링 레이어(PL), 특징 맵을 획득하는 컨벌루션 신경망 레이어(CL), 세그멘테이션 맵을 획득하는 디컨벌루션 신경망 레이어(DCL), 업샘플링을 수행하는 언풀링 레이어(UPL) 및 출력 레이어(OL) 등을 포함할 수 있다.11 is a diagram for explaining a neural network model for obtaining vehicle information according to an exemplary embodiment. Referring to FIG. 11 , a neural network model according to an embodiment may be an image segmentation neural network model. The neural network model consists of an input layer (IL), a pooling layer (PL) that performs downsampling, a convolutional neural network layer (CL) that acquires feature maps, a deconvolutional neural network layer (DCL) that acquires segmentation maps, and a pooling layer (PL) that performs upsampling. It may include an unpooling layer (UPL) and an output layer (OL).
풀링 레이어는 최댓값 풀링, 최소값 풀링, 평균값 풀링 등을 수행할 수 있다. 언풀링 레이어는 풀링 레이어에 대응될 수 있다. 디컨벌루션 레이어는 중간(intermediate) 세그멘테이션 맵을 생성할 수 있다. 언풀링 레이어는 중간 세그멘테이션 맵을 업샘플링할 수 있다. 언풀링 레이어는 최대값 언풀링, 최근접 이웃 언풀링 등을 수행할 수 있다.The pooling layer may perform max pooling, min pooling, average pooling, and the like. An unpooling layer may correspond to a pooling layer. The deconvolution layer may generate an intermediate segmentation map. The unpooling layer may upsample the intermediate segmentation map. The unpooling layer can perform maximum value unpooling, nearest neighbor unpooling, and the like.
차량 정보 획득을 위하여, 입력 이미지로부터 하나 이상의 오브젝트를 검출하는 신경망 모델이 이용될 수 있다. 오브젝트의 검출을 위하여, 다양한 형태의 신경망 모델이 이용될 수 있다. YOLO(You Only Look Once), R-CNN, fast-RNN, faster R-CNN, SAS 딥러닝, SPPnet, 등을 이용하여 수행될 수 있다.For obtaining vehicle information, a neural network model that detects one or more objects from an input image may be used. For object detection, various types of neural network models may be used. It may be performed using You Only Look Once (YOLO), R-CNN, fast-RNN, faster R-CNN, SAS deep learning, SPPnet, and the like.
도 12는 일 실시예에 따른 차량 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다. 일 실시예에 따르면, 부품 정보 획득을 위하여, fast-RNN 모델이 이용될 수 있다. 예컨대, 도 12를 참조하면, 일 실시예에 따른 신경망 모델은 입력 레이어(OL), 컨벌루션 신경망 레이어(CNL), 특징 맵(FM), 영역 제안(region proposal) 신경망(RPN), 관심 영역(ROI; Reason of Interest) 바운딩 박스(RBB), ROI 풀링 레이어(RP) 및 전연결 레이어를 포함하는 딥러닝 신경망(DNN)을 포함할 수 있다. 12 is a diagram for explaining a neural network model for obtaining vehicle information according to an exemplary embodiment. According to an embodiment, a fast-RNN model may be used to acquire part information. For example, referring to FIG. 12 , the neural network model according to an embodiment includes an input layer (OL), a convolutional neural network layer (CNL), a feature map (FM), a region proposal neural network (RPN), and a region of interest (ROI). ; Reason of Interest) It may include a deep learning neural network (DNN) including a bounding box (RBB), an ROI pooling layer (RP), and a fully connected layer.
영역 제안 신경망은 이미지의 특징 맵에 기초하여, 하나 이상의 ROI(또는 오브젝트 제안) 또는 ROI의 바운딩 박스를 획득할 수 있다. 영역 제안 신경망은 개별 ROI(또는 오브젝트 제안) 또는 그 바운딩 박스에 대하여, 스코어를 획득할 수 있다. 스코어는 대상 ROI가 검출 대상 오브젝트에 일치하는 정도를 나타낼 수 있다. The region proposal neural network may obtain one or more ROIs (or object proposals) or bounding boxes of the ROIs based on the feature map of the image. The region proposal neural network may obtain a score for each ROI (or object proposal) or its bounding box. The score may represent the degree to which the target ROI matches the detection target object.
ROI 풀링 레이어는 개별 ROI에 대해 풀링을 수행할 수 있다. ROI 풀링 레이어는 개별 ROI에 대응되는 특징 맵에 대하여 풀링을 수행할 수 있다. ROI 풀링 레이어는 개별 ROI에 대하여 사이즈 조절을 수행할 수 있다. ROI 풀링 레이어는 미리 정해진 크기의 특징 맵을 획득할 수 있다. 전연결 신경망은 ROI 풀링 레이어를 통하여 획득된 특징 맵을 플래튼하여 획득된 값을 이용할 수 있다. The ROI pooling layer may perform pooling on individual ROIs. The ROI pooling layer may perform pooling on feature maps corresponding to individual ROIs. The ROI pooling layer may perform size adjustment on individual ROIs. The ROI pooling layer may obtain a feature map of a predetermined size. The fully-connected neural network may use a value obtained by flattening a feature map obtained through an ROI pooling layer.
신경망 모델은 전연결 신경망 레이어 및 전연결 신경망 레이어와 연결되는 은닉 레이어 및 출력 레이어를 통하여, 개별 ROI에 포함되는 오브젝트의 식별자 또는 개별 오브젝트의 바운딩 박스를 획득할 수 있다. The neural network model may obtain an identifier of an object included in an individual ROI or a bounding box of an individual object through a fully connected neural network layer and a hidden layer and an output layer connected to the fully connected neural network layer.
한편, 위에서 설명한 신경망 모델들은 예시에 불과하며, 본 명세서에서 설명하는 차량 정보의 획득이 이에 한정되지는 아니한다. 차량 정보의 획득은 본 명세서에서 설명되지 아니한 알고리즘 또는 신경망 모델을 이용하여 수행될 수 있다. Meanwhile, the neural network models described above are only examples, and acquisition of vehicle information described in this specification is not limited thereto. Acquisition of vehicle information may be performed using an algorithm or neural network model not described herein.
신경망 모델은 추가 정보를 추가 입력으로 이용하여, 차량 정보를 획득할 수 있다. 신경망 모델은 추가 정보에 기초하여 생성된 추가 입력 및 차량의 이미지에 기초하여, 차량 정보를 획득할 수 있다. 추가 입력은 차량의 종류, 모델명, 제조사, 연식 및/또는 색상 등의 추가 정보에 기초하여 획득될 수 있다. 추가 입력은 입력 이미지 또는 입력 이미지와 상이한 추가 이미지에 기초하여 획득된 특징값일 수 있다. The neural network model may acquire vehicle information by using additional information as an additional input. The neural network model may obtain vehicle information based on the image of the vehicle and the additional input generated based on the additional information. Additional input may be obtained based on additional information such as vehicle type, model name, manufacturer, year, and/or color. The additional input may be a feature value obtained based on an input image or an additional image different from the input image.
도 13은 일 실시예에 따른 신경망 모델을 예시하기 위한 도면이다. 도 13을 참조하면, 합성곱 신경망 네트워크 및 전연결 레이어, 은닉 레이어 및 출력 레이어 등을 포함하는 신경망(예컨대, 이미지 기반 분류기 신경망)은 추가 정보를 더 이용하여 차량 정보를 획득할 수 있다. 예컨대, 분류기 모델은 합성곱 신경망 및 적어도 하나의 전연결 레이어를 포함하고, 적어도 하나의 전연결 레이어는 합성곱 신경망을 통하여 획득된 특징값 및 추가 정보에 기초하여 획득된 추가 입력값(AI)에 대응되는 하나 이상의 노드를 포함할 수 있다. 분류기 모델은 추가 입력값(AI)을 입력값으로 하는 적어도 하나의 노드를 포함할 수 있다. 13 is a diagram for illustrating a neural network model according to an embodiment. Referring to FIG. 13 , a convolutional neural network and a neural network including a fully connected layer, a hidden layer, and an output layer (eg, an image-based classifier neural network) may further use additional information to obtain vehicle information. For example, the classifier model includes a convolutional neural network and at least one fully connected layer, and the at least one fully connected layer corresponds to an additional input value (AI) obtained based on feature values and additional information obtained through the convolutional neural network. It may include one or more corresponding nodes. The classifier model may include at least one node having an additional input value (AI) as an input value.
추가 정보는 도 11에서 예시한 신경망 모델의 경우에도 유사하게 이용될 수 있다. 예컨대, 일 실시예에 따른 영역 분할 신경망 모델은 인코딩 파트 및 디코딩 파트를 포함하고, 추가 정보에 기초하여 생성된 추가 입력을 더 이용하여 차량 정보를 획득할 수 있다. 영역 분할 신경망 모델은 추가 정보에 기초하여 생성된 추가 입력을 이용하는 하나 이상의 노드를 포함할 수 있다. 영역 분할 신경망 모델은 추가 정보에 기초하여 생성된 추가 입력을 파라미터로 이용하는 하나 이상의 레이어를 포함할 수 있다. Additional information may be similarly used in the case of the neural network model illustrated in FIG. 11 . For example, the region segmentation neural network model according to an embodiment includes an encoding part and a decoding part, and vehicle information may be obtained by further using an additional input generated based on additional information. A region segmentation neural network model may include one or more nodes that use additional inputs generated based on additional information. The region segmentation neural network model may include one or more layers using additional inputs generated based on additional information as parameters.
추가 정보는 도 12에서 예시한 신경망 모델의 경우에도 유사하게 이용될 수 있다. 예컨대, 일 실시예에 따른 신경망 모델은 입력 레이어, 컨벌루션 신경망 레이어, 특징 맵, 영역 제안(region proposal) 신경망, 관심 영역(ROI; Reason of Interest) 레이어, ROI 풀링 레이어 및 전연결 신경망을 포함하고, 전연결 신경망은 추가 정보에 기초하여 생성된 추가 입력을 입력값으로 하는 적어도 하나의 노드를 포함하는 레이어를 포함할 수 있다. Additional information may be similarly used in the case of the neural network model illustrated in FIG. 12 . For example, a neural network model according to an embodiment includes an input layer, a convolutional neural network layer, a feature map, a region proposal neural network, a reason of interest (ROI) layer, an ROI pooling layer, and a fully connected neural network, The fully-connected neural network may include a layer including at least one node having an additional input generated based on additional information as an input value.
일 실시예에 따르면, 차량 이미지 및 추가 정보에 기초하여 차량 정보를 획득하는 차량 관리 보조 장치가 제공될 수 있다. According to an embodiment, a vehicle management assistance device for obtaining vehicle information based on a vehicle image and additional information may be provided.
차량 이미지에 기초하여 차량 외부와 관련된 차량 정보를 획득하는 차량 관리 보조 장치는, 차량의 외부를 촬영하여 획득된 차량 이미지를 획득하는 이미지 획득부, 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부 및 차량 이미지에 기초하여 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 차량 정보를 획득하는 처리부를 포함할 수 있다. The vehicle management assistant device for obtaining vehicle information related to the exterior of the vehicle based on the vehicle image includes an image acquisition unit that acquires a vehicle image obtained by photographing the outside of the vehicle, and additional information acquisition that obtains additional information related to characteristics of the vehicle. and a processing unit that obtains vehicle information by using a neural network model learned to obtain vehicle information based on the unit and the vehicle image.
신경망 모델은 차량 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분 및 제1 특징 세트와 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함할 수 있다.The neural network model is trained to obtain a first feature set based on the vehicle image and is trained to acquire a second feature set based on a first part and a first feature set including at least one convolutional neural network layer and additional information. It may include a second part.
신경망 모델은 분류기 또는 분할(segmentation) 모델일 수 있다. 신경망 모델은 CNN, FCN(Fully Convolutional Network), SegNet, UNet, UNet++, DeConvNet 등의 형태로 마련될 수 있다.A neural network model may be a classifier or segmentation model. The neural network model may be prepared in the form of a CNN, Fully Convolutional Network (FCN), SegNet, UNet, UNet++, or DeConvNet.
신경망 모델은 차량 이미지에 기초하여 특징 세트를 획득하도록 학습될 수 있다. 신경망 모델은 차량 이미지에 기초하여 차량의 부품 정보 또는 손상 정보를 획득하도록 학습될 수 있다. 신경망 모델은 부품 정보가 라벨링된 차량 이미지 또는 손상 정보가 라벨링된 차량 이미지를 포함하는 학습 데이터를 이용하여 학습될 수 있다. A neural network model may be trained to obtain a set of features based on vehicle images. A neural network model may be trained to obtain parts information or damage information of a vehicle based on vehicle images. The neural network model may be trained using training data including a vehicle image labeled with part information or a vehicle image labeled with damage information.
신경망 모델은 차량 이미지 및 추가 정보에 기초하여 손상 정보 또는 부품 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 추가 정보 및 추가 정보와 연관되고 손상 정보 또는 부품 정보가 라벨링된 차량 이미지를 포함하는 학습 데이터에 기초하여 학습될 수 있다. 추가 정보는 이미지 또는 비-이미지 정보일 수 있다. 차량의 특성과 관련된 추가 정보는, 차량의 제조사, 색상 정보, 연식, 차종 중 적어도 하나에 기초하여 결정될 수 있다. 차량의 특성과 관련된 추가 정보는, 차량의 내부를 촬영하여 획득된 차량 내부 이미지에 기초하여 획득될 수도 있다. A neural network model can be trained to obtain damage information or parts information based on vehicle images and additional information. The neural network model may be learned based on training data including additional information and vehicle images associated with the additional information and labeled with damage information or parts information. Additional information may be image or non-image information. The additional information related to the characteristics of the vehicle may be determined based on at least one of a vehicle manufacturer, color information, year model, and vehicle model. Additional information related to characteristics of the vehicle may be obtained based on a vehicle interior image obtained by photographing the interior of the vehicle.
처리부는 이미지 획득부를 통하여 대상 차량의 외부를 촬영하여 획득된 대상 차량 이미지를 획득하고, 추가 정보 획득부를 통하여 대상 차량의 특성과 관련된 대상 추가 정보를 획득하고, 대상 차량 이미지에 기초하여 신경망 모델을 이용하여 대상에 대한 대상 차량 정보를 획득할 수 있다.The processing unit obtains a target vehicle image acquired by photographing the outside of the target vehicle through an image acquisition unit, obtains target additional information related to characteristics of the target vehicle through an additional information acquisition unit, and uses a neural network model based on the target vehicle image. Thus, target vehicle information on the target may be obtained.
신경망 모델은 차량 외부의 손상과 관련된 손상 정보를 획득하도록 학습될 수 있다. 제1 특징 세트는 차량의 부품, 종류, 색상, 구성, 형태 등을 나타내는 적어도 하나의 특징 값을 포함할 수 있다. 제2 특징 세트는 차량의 외부의 손상 여부와 관련된 적어도 하나의 특징 값을 포함할 수 있다. 제2 특징 세트는 차량의 외부 손상 유무를 나타내는 특징 값을 포함할 수 있다. 제2 특징 세트는 차량의 외부 손상의 종류를 나타내는 하나 이상의 특징 값을 포함할 수 있다. 특징 세트를 구성하는 특징 값은 확률 함수의 값으로 획득될 수 있다. A neural network model can be trained to acquire damage information related to damage outside the vehicle. The first feature set may include at least one feature value representing a part, type, color, configuration, shape, and the like of the vehicle. The second feature set may include at least one feature value related to whether or not the exterior of the vehicle is damaged. The second feature set may include a feature value indicating whether or not the vehicle has external damage. The second set of features may include one or more feature values indicative of the type of external damage to the vehicle. A feature value constituting a feature set may be obtained as a value of a probability function.
신경망 모델은 차량의 외부를 구성하는 부품과 관련된 부품 정보를 획득하도록 학습될 수 있다. 제1 특징 세트는 차량의 부품, 종류, 색상, 구성, 형태 등을 나타내는 적어도 하나의 특징 값을 포함할 수 있다. 제2 특징 세트는 차량의 외부를 구성하는 부품과 관련된 적어도 하나의 특징 값을 포함할 수 있다. 제2 특징 세트는 차량을 구성하는 부품의 종류를 나타내는 하나 이상의 특징 값을 포함할 수 있다. 각 특징 값은, 입력된 차량 이미지에 특정 부품이 포함되는지 여부 또는 포함할 확률을 나타낼 수 있다. The neural network model may be trained to acquire part information related to parts constituting the exterior of the vehicle. The first feature set may include at least one feature value representing a part, type, color, configuration, shape, and the like of the vehicle. The second feature set may include at least one feature value related to a component constituting the exterior of the vehicle. The second feature set may include one or more feature values representing the types of parts constituting the vehicle. Each feature value may represent whether or not a specific part is included in the input vehicle image or a probability of including the specific part.
제2 부분은 제1 특징 세트 및 추가 정보에 기초하여, 차량의 외부를 구성하는 적어도 하나의 부품과 관련된 제2 특징 세트를 획득할 수 있다. 제2 특징 세트는 제1 부품이 분포하는 영역을 나타내는 제1 영역 특징 세트 및 제2 부품이 분포하는 영역을 나타내는 제2 영역 특징 세트를 포함할 수 있다.The second part may acquire a second feature set related to at least one part constituting the exterior of the vehicle, based on the first feature set and the additional information. The second feature set may include a first region feature set representing a region in which the first component is distributed and a second region feature set representing a region in which the second component is distributed.
제2 부분은 제1 특징 세트 및 추가 정보에 기초하여, 대상 차량의 외부에 위치하는 적어도 하나의 손상 영역과 관련된 제2 특징 세트를 획득할 수 있다. 제2 특징 세트는 손상 영역의 위치를 나타내는 손상 영역 특징 세트를 포함할 수 있다. The second part may obtain a second feature set related to at least one damaged region located outside the target vehicle, based on the first feature set and the additional information. The second feature set may include a damage region feature set indicating the location of the damaged region.
다른 일 실시예에 따르면, 차량 이미지 및 추가 정보에 기초하여 차량 정보를 획득하는 차량 관리 보조 방법이 제공될 수 있다. 차량 관리 보조 방법에 대하여, 특별한 설명이 없는 한, 전술한 차량 관리 보조 장치에 관한 내용이 유사하게 적용될 수 있다.According to another embodiment, a vehicle management assistance method for obtaining vehicle information based on a vehicle image and additional information may be provided. Regarding the vehicle management assistance method, unless otherwise specified, the above-described vehicle management assistance device may be similarly applied.
도 30은 일 실시예에 따른 차량 관리 보조 방법을 설명하기 위한 도면이다.30 is a diagram for explaining a vehicle management assistance method according to an exemplary embodiment.
차량 이미지를 획득하는 이미지 획득부, 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부 및 차량 이미지와 추가 정보에 기초하여 차량 정보를 획득하는 처리부를 포함하는 차량 관리 보조 장치를 이용하여, 차량 이미지에 기초하여 차량의 외부와 관련된 정보를 획득하는 차량 관리 보조 방법이 제공될 수 있다.Using a vehicle management assistance device including an image acquisition unit that acquires a vehicle image, an additional information acquisition unit that acquires additional information related to characteristics of the vehicle, and a processing unit that obtains vehicle information based on the vehicle image and the additional information, A vehicle management assistance method for obtaining information related to the exterior of a vehicle based on an image may be provided.
도 30을 참조하면, 차량 관리 보조 방법은 대상 차량 이미지를 획득하는 단계(S3010), 대상 차량의 특성과 관련된 대상 추가 정보를 획득하는 단계(S3030) 및 대상 차량 이미지 및 대상 추가 정보에 기초하여 대상 차량 정보를 획득하는 단계(S3050)를 더 포함할 수 있다. Referring to FIG. 30 , the vehicle management assistance method includes acquiring a target vehicle image (S3010), acquiring target additional information related to characteristics of the target vehicle (S3030), and targeting the target vehicle based on the target vehicle image and target additional information. Acquiring vehicle information (S3050) may be further included.
차량 관리 보조 방법은, 이미지 획득부를 통하여 대상 차량에 대한 대상 차량 이미지를 획득하는 단계(S3010)를 포함할 수 있다. 대상 차량 이미지는 차량을 임의의 방향에서 촬영한 이미지일 수 있다. 또는, 대상 차량 이미지는 차량을 정면, 측면 또는 후면에서 촬영한 이미지일 수 있다. The vehicle management assistance method may include acquiring a target vehicle image for the target vehicle through an image acquisition unit (S3010). The target vehicle image may be an image of a vehicle photographed from an arbitrary direction. Alternatively, the target vehicle image may be an image taken from the front, side, or rear of the vehicle.
차량 관리 보조 방법은, 추가 정보 획득부를 통하여 대상 차량의 특성과 관련된 대상 추가 정보를 획득하는 단계(S3030)를 포함할 수 있다. The vehicle management assistance method may include acquiring target additional information related to characteristics of the target vehicle through the additional information acquisition unit (S3030).
차량 관리 보조 방법은, 처리부가 대상 추가 정보 및 대상 차량 이미지에 기초하여 대상 차량에 대한 대상 차량 정보를 획득하는 단계(S3050)를 포함할 수 있다. The vehicle management assistance method may include obtaining, by a processing unit, target vehicle information on the target vehicle based on the target additional information and the target vehicle image (S3050).
대상 차량에 대한 차량 정보를 획득하는 단계(S3050)는, 대상 차량 이미지에 기초하여, 차량 이미지에 기초하여 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여, 대상 차량에 대한 대상 차량 정보를 획득하는 것을 더 포함할 수 있다. Obtaining vehicle information about the target vehicle (S3050) includes obtaining target vehicle information about the target vehicle by using a neural network model trained to obtain vehicle information based on the vehicle image based on the target vehicle image. may include more.
신경망 모델은 차량 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분 및 제1 특징 세트와 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함할 수 있다.The neural network model is trained to obtain a first feature set based on the vehicle image and is trained to acquire a second feature set based on a first part and a first feature set including at least one convolutional neural network layer and additional information. It may include a second part.
신경망 모델은 차량 외부의 손상과 관련된 손상 정보를 획득하도록 학습되고, 제2 특징 세트는 차량의 외부의 손상 여부와 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model is trained to acquire damage information related to damage to the exterior of the vehicle, and the second feature set may include at least one feature value related to whether or not the exterior of the vehicle is damaged.
신경망 모델은 차량의 외부를 구성하는 부품과 관련된 부품 정보를 획득하도록 학습되고, 제2 특징 세트는 차량의 외부를 구성하는 부품과 관련된 적어도 하나의 특징 값을 포함할 수 있다.The neural network model is trained to acquire part information related to a part constituting the exterior of the vehicle, and the second feature set may include at least one feature value related to the part constituting the exterior of the vehicle.
차량의 특성과 관련된 추가 정보는, 차량의 제조사, 색상 정보, 연식, 차종 중 적어도 하나에 기초하여 결정될 수 있다.The additional information related to the characteristics of the vehicle may be determined based on at least one of a vehicle manufacturer, color information, year model, and vehicle model.
차량의 특성과 관련된 추가 정보는, 차량의 내부를 촬영하여 획득된 차량 내부 이미지에 기초하여 획득될 수 있다.Additional information related to characteristics of the vehicle may be obtained based on an image of the inside of the vehicle obtained by photographing the inside of the vehicle.
제2 부분은 제1 특징 세트 및 추가 정보에 기초하여, 대상 차량의 외부를 구성하는 적어도 하나의 부품과 관련된 제2 특징 세트를 획득할 수 있다. 제2 특징 세트는 제1 부품이 분포하는 영역을 나타내는 제1 영역 특징 세트 및 제2 부품이 분포하는 영역을 나타내는 제2 영역 특징 세트를 포함할 수 있다. The second part may acquire a second feature set related to at least one part constituting the exterior of the target vehicle based on the first feature set and the additional information. The second feature set may include a first region feature set representing a region in which the first component is distributed and a second region feature set representing a region in which the second component is distributed.
제2 부분은 제1 특징 세트 및 추가 정보에 기초하여, 대상 차량의 외부에 위치하는 적어도 하나의 손상 영역과 관련된 제2 특징 세트를 획득할 수 있다. 제2 특징 세트는 손상 영역의 위치를 나타내는 손상 영역 특징 세트를 포함할 수 있다.The second part may obtain a second feature set related to at least one damaged region located outside the target vehicle, based on the first feature set and the additional information. The second feature set may include a damage region feature set indicating the location of the damaged region.
본 명세서에서 설명하는 차량 관리 보조 방법은, 각 방법을 수행하는 프로그램을 저장하는 컴퓨터 판독 가능한 기록 매체의 형태로 제공될 수 있다. The vehicle management assistance methods described in this specification may be provided in the form of a computer readable recording medium storing a program for performing each method.
한편, 신경망 모델은 학습 데이터를 이용하여 학습될 수 있다. 학습 데이터는 획득 대상 정보에 따라 달리 마련될 수 있다. 구체적인 학습 데이터의 형태 및 신경망 모델의 학습에 대하여는 각 정보의 획득과 관련하여 이하에서 보다 상세하게 설명한다. Meanwhile, the neural network model may be learned using training data. Learning data may be prepared differently according to the information to be acquired. The form of specific learning data and the learning of the neural network model will be described in more detail below in relation to the acquisition of each information.
이하에서는 각 차량 정보의 종류 및 획득 방법에 대하여 설명한다.Hereinafter, the type and acquisition method of each vehicle information will be described.
2.3.1 부품 정보 획득2.3.1 Obtaining Part Information
차량을 구성하는 부품과 관련된 부품 정보가 획득될 수 있다.Part information related to parts constituting the vehicle may be obtained.
일 실시예에 따르면, 부품 정보는 차량을 구성하는 부품의 수, 종류, 이름, 식별 정보 등을 포함할 수 있다. According to an embodiment, parts information may include the number, types, names, and identification information of parts constituting a vehicle.
부품 정보는 비-이미지 데이터에 기초하여 획득될 수 있다. 부품 정보는 차량의 종류, 모델명, 제조사, 연식 및/또는 색상 등의 차량 정보를 더 고려하여 결정될 수 있다. 부품 정보는 차량 정보에 기초하여, 미리 저장된 부품 정보 데이터베이스로부터 획득될 수 있다.Part information may be obtained based on non-image data. Part information may be determined by further considering vehicle information such as vehicle type, model name, manufacturer, year, and/or color. Parts information may be obtained from a part information database stored in advance based on vehicle information.
부품 정보는 이미지 데이터에 기초하여 획득될 수 있다. 부품 정보는 이미지 데이터에 기초하여 획득된 차량 정보(예컨대, 차량의 종류, 모델명, 제조사, 색상 등)에 기초하여, 미리 저장된 부품 정보 데이터베이스로부터 획득될 수 있다. 부품 정보는 이미지 데이터 및 신경망 모델을 이용하여 획득된 차량 정보에 기초하여, 미리 저장된 부품 정보 데이터베이스로부터 획득될 수 있다.Part information may be obtained based on image data. Part information may be obtained from a pre-stored part information database based on vehicle information (eg, vehicle type, model name, manufacturer, color, etc.) obtained based on image data. Part information may be obtained from a pre-stored part information database based on image data and vehicle information acquired using a neural network model.
부품 정보는 부품의 수, 종류, 이름, 식별 정보 등이 차종, 모델명, 제조사, 연식 등의 구분 정보와 매칭되어 저장된 부품 정보 데이터베이스에 기초하여 획득될 수 있다. 예컨대, 부품 정보 데이터베이스는 특정 모델의 특정 연식 차량을 구성하는 부품의 수, 종류, 이름 및 각 부품에 대응되는 식별 정보를 해당 모델의 해당 연식과 매칭하여 저장할 수 있다. Part information may be obtained based on a parts information database in which the number, type, name, and identification information of parts are matched with classification information such as vehicle type, model name, manufacturer, and year. For example, the parts information database may match and store the number, type, name, and identification information corresponding to each part constituting a vehicle of a particular model year of a particular model with a corresponding year of the corresponding model.
다른 일 실시예에 따르면, 부품 정보는 차량 이미지에 포함되고 각 부품에 대응되는 부품 영역 정보를 포함할 수 있다. 부품 영역 정보는 차량 이미지에 포함되는 개별 부품 영역의 경계(boundary)를 포함할 수 있다. 부품 영역 정보는 차량 이미지 내에 포함되는 부품 영역 및 각 부품 영역에 대응되는 부품의 명칭 또는 식별 번호를 포함할 수 있다. According to another embodiment, the part information may include part area information included in the vehicle image and corresponding to each part. The parts area information may include boundaries of individual parts areas included in the vehicle image. The part area information may include a part area included in the vehicle image and a name or identification number of a part corresponding to each part area.
부품 정보는 차량 이미지에 포함된 서로 다른 부품에 대응되는 영역에 대하여 형식을 달리하여 마스킹된 부품 영역 정보를 포함할 수 있다. 부품 정보는 차량 이미지에 포함된 서로 다른 부품에 대응되는 영역에 대하여 다른 색상으로 마스킹된 부품 영역 정보 또는 서로 다른 부품에 대응되는 영역에 상이한 태그로 라벨링된 부품 영역 정보를 포함할 수 있다. The part information may include masked part area information in a different format for areas corresponding to different parts included in the vehicle image. The part information may include part area information masked with different colors for areas corresponding to different parts included in the vehicle image or part area information labeled with different tags in areas corresponding to different parts.
도 14는 일 실시예에 따른 부품 영역 정보를 설명하기 위한 도면이다. 도 14를 참조하면, 부품 영역 정보는 차량 이미지 내의 각 부품에 대응되는 부품 영역 정보를 포함할 수 있다. 14 is a diagram for explaining part area information according to an exemplary embodiment. Referring to FIG. 14 , part area information may include part area information corresponding to each part in a vehicle image.
도 14의 (a)를 참조하면, 부품 정보는 차량의 좌전방에서 촬영된 이미지에 포함되는 차량의 헤드라이트에 대응되는 헤드라이트 영역 정보(HL), 차량의 앞범퍼에 대응되는 앞범퍼 영역 정보(FB), 차량의 좌전방 휀더에 대응되는 좌전방 휠 영역 정보(LFF), 차량의 좌전방 도어에 대응되는 좌전방 도어 영역 정보(LFD), 차량의 좌후방 도어에 대응되는 좌후방 도어 영역 정보(LRD), 차량의 번호판에 대응되는 번호판 영역 정보(NP), 차량의 후방 휀더에 대응되는 좌후방 휀더 영역 정보(LRF), 차량의 후드에 대응되는 후드 영역 정보(HO)등을 포함할 수 있다. 각 영역 정보는 각 영역에 대응되는 부품의 명칭 또는 식별 정보와 연관되어 저장될 수 있다. Referring to (a) of FIG. 14 , parts information includes headlight area information (HL) corresponding to the headlight of the vehicle included in an image captured from the left front of the vehicle, and front bumper area information corresponding to the front bumper of the vehicle. (FB), left front wheel area information (LFF) corresponding to the left front fender of the vehicle, left front door area information (LFD) corresponding to the left front door of the vehicle, left rear door area corresponding to the left rear door of the vehicle Information (LRD), license plate area information (NP) corresponding to the license plate of the vehicle, left rear fender area information (LRF) corresponding to the rear fender of the vehicle, hood area information (HO) corresponding to the hood of the vehicle, etc. can Each region information may be associated with a name or identification information of a part corresponding to each region and stored.
도 14의 (b)를 참조하면, 부품 영역 정보는 차량의 전방에서 촬영된 차량 이미지 내의 각 부품에 대응되는 부품 영역 정보를 포함할 수 있다. 도 14의 (b)를 참조하면, 부품 정보는 차량의 전방 이미지에 포함되는 차량의 헤드라이트에 대응되는 헤드라이트 영역 정보(LHL, RHL), 차량의 앞범퍼에 대응되는 앞범퍼 영역 정보(FB), 차량의 번호판에 대응되는 번호판 영역 정보(NP), 차량의 사이드 미러에 대응되는 사이드 미러 영역 정보(LSM, RSM), 차량의 앞유리에 대응되는 앞유리 영역 정보(FG), 차량의 엠블럼에 대응되는 엠블럼 영역 정보(EM), 차량의 후드에 대응되는 후드 영역 정보(HO) 등을 포함할 수 있다. 각 영역 정보는 각 영역에 대응되는 부품의 명칭 또는 식별 정보와 연관되어 저장될 수 있다.Referring to (b) of FIG. 14 , part area information may include part area information corresponding to each part in a vehicle image captured from the front of the vehicle. Referring to (b) of FIG. 14 , part information includes headlight area information (LHL, RHL) corresponding to the headlights of the vehicle included in the front image of the vehicle, and front bumper area information (FB) corresponding to the front bumper of the vehicle. ), license plate area information (NP) corresponding to the license plate of the vehicle, side mirror area information (LSM, RSM) corresponding to the side mirror of the vehicle, windshield area information (FG) corresponding to the vehicle's windshield, vehicle emblem Emblem area information (EM) corresponding to , hood area information (HO) corresponding to the hood of the vehicle, and the like may be included. Each region information may be associated with a name or identification information of a part corresponding to each region and stored.
도 14에서는 차량의 좌전방 및 전방에서 촬영된 이미지를 기준으로 부품 영역 정보를 설명하였으나, 이는 예시일 뿐이며, 다양한 방향에서 촬영된 차량 이미지에 대하여 부품 영역 정보가 획득될 수 있다.In FIG. 14 , parts area information has been described based on images captured from the left front and front sides of the vehicle, but this is only an example, and parts area information may be obtained for vehicle images captured from various directions.
일 실시예에 따르면, 부품 정보는 신경망 모델을 이용하여 획득될 수 있다. 부품 정보는 객체 인식(object recognition)을 수행하는 신경망 모델을 이용하여 획득될 수 있다. 부품 정보는 도 10 내지 13과 관련하여 전술한 신경망 모델을 이용하여 획득될 수 있다. According to one embodiment, part information may be obtained using a neural network model. Part information may be obtained using a neural network model that performs object recognition. Part information may be obtained using the neural network model described above with reference to FIGS. 10 to 13 .
신경망 모델은 차량 이미지를 입력으로 하여, 부품 정보를 획득할 수 있다. 신경망 모델은 입력된 차량 이미지에 포함된 부품의 종류 또는 이름을 획득할 수 있다. 신경망 모델은 입력된 차량 이미지에 특정 부품이 포함되는지 여부를 획득할 수 있다. The neural network model may acquire parts information by using a vehicle image as an input. The neural network model may obtain the type or name of a part included in the input vehicle image. The neural network model may acquire whether a specific part is included in the input vehicle image.
일 실시예에 따르면, 신경망 모델의 출력 레이어는 입력 이미지가 특정 부품을 포함하는지 여부를 나타내는 확률 함수를 포함할 수 있다. 또 예컨대, 출력 레이어는 하나 이상의 대상 부품에 대하여, 입력 이미지가 각각의 대상 부품을 포함하는지 여부를 나타내는 하나 이상의 확률 함수를 포함할 수 있다.According to an embodiment, an output layer of the neural network model may include a probability function representing whether an input image includes a specific part. Also, for example, the output layer may include one or more probability functions indicating whether the input image includes each target part with respect to one or more target parts.
다른 일 실시예에 따르면, 부품 정보는 도 12와 관련하여 전술한 신경망 모델을 이용하여 획득될 수 있다. 부품 정보는 신경망 모델을 통하여 획득되고 개별 부품에 대응되는 영역을 표시하는 영역 정보를 포함할 수 있다. According to another embodiment, part information may be obtained using the neural network model described above with reference to FIG. 12 . Part information may include area information obtained through a neural network model and displaying areas corresponding to individual parts.
도 15를 참조하면, 일 실시예에 따른 신경망 모델은 차량의 일부가 촬영된 이미지(a)를 입력으로 하여 차량 이미지에 포함된 부품에 대한 부품 정보를 획득할 수 있다. 신경망 모델은 부품 정보를 획득하는 신경망 모델을 이용하여 입력된 이미지에 포함된 부품을 식별하고, 식별된 부품에 대응되는 부품 정보를 획득할 수 있다. 신경망 모델은 차량의 일부가 촬영된 이미지(a)에 기초하고 부품 정보를 획득하는 신경망 모델을 이용하여 입력된 이미지에 좌전방 도어가 포함되었음을 나타내는 부품 정보를 획득할 수 있다. Referring to FIG. 15 , the neural network model according to an embodiment may obtain part information about parts included in a vehicle image by taking an image (a) of a part of a vehicle as an input. The neural network model may identify a part included in the input image by using the neural network model for obtaining part information, and obtain part information corresponding to the identified part. The neural network model may obtain part information indicating that the left front door is included in the input image by using a neural network model that obtains part information based on the image (a) in which a part of the vehicle is photographed.
도 15를 참조하면, 일 실시예에 따른 신경망 모델은 차량의 일부가 촬영된 이미지(a)를 입력으로 하여 차량 이미지에 포함된 부품에 대응되는 부품 영역 정보를 획득할 수 있다. 신경망 모델은 신경망 모델을 이용하여 차량 이미지에 포함된 부품을 식별하고 식별된 부품에 대응되는 영역(또는 세그멘테이션)을 획득할 수 있다. 도 16의 (b)를 참조하면, 신경망 모델은 차량 이미지에 포함된 좌전방 도어에 대응되는 영역 정보를 획득할 수 있다. Referring to FIG. 15 , the neural network model according to an embodiment may obtain part region information corresponding to a part included in a vehicle image by receiving an image (a) of a part of a vehicle as an input. The neural network model may use the neural network model to identify parts included in the vehicle image and obtain a region (or segmentation) corresponding to the identified parts. Referring to (b) of FIG. 16 , the neural network model may acquire area information corresponding to the left front door included in the vehicle image.
도 16을 참조하면, 일 실시예에 따른 신경망 모델은 차량의 일 측면이 촬영된 이미지(a)를 입력으로 하여 차량 이미지에 포함된 하나 이상의 부품에 대한 부품 정보를 획득할 수 있다. 신경망 모델은 차량의 일부가 촬영된 이미지(a)에 기초하고 부품 정보를 획득하는 신경망 모델을 이용하여 입력된 이미지에 좌전방 도어, 좌후방 도어, 좌전방 휀더 및 좌후방 휀더가 포함되었음을 나타내는 부품 정보를 획득할 수 있다.Referring to FIG. 16 , the neural network model according to an embodiment may obtain part information on one or more parts included in a vehicle image by taking an image (a) of a side of the vehicle as an input. The neural network model is based on the image (a) of a part of the vehicle and uses a neural network model that acquires parts information to indicate that the input image includes the left front door, left rear door, left front fender, and left rear fender. information can be obtained.
신경망 모델은 차량 이미지를 입력으로 하여, 하나 이상의 부품에 대응되는 영역이 표시된 세그멘테이션 맵을 획득할 수 있다. 예컨대, 신경망 모델은 제1 부품에 대응되는 제1 영역 및 제2 부품에 대응되는 제2 영역이 서로 달리 표시된 세그멘테이션 맵을 획득할 수 있다. The neural network model may obtain a segmentation map in which regions corresponding to one or more parts are displayed by taking a vehicle image as an input. For example, the neural network model may acquire a segmentation map in which a first region corresponding to a first component and a second region corresponding to a second component are marked differently.
도 16을 참조하면, 신경망 모델은 차량의 일 측면이 촬영된 이미지(a)를 입력으로 하여 차량 이미지에 포함된 부품에 하나 이상의 부품에 대응되는 부품 영역 정보(b)를 획득할 수 있다. 신경망 모델은 이미지 내에 포함된 개별 부품에 대응되는 복수의 영역에 대하여, 서로 달리 표시된(예컨대, 상이한 색상으로 마스킹된) 이미지(b)를 획득할 수 있다. 도 16의 (b)를 참조하면, 신경망 모델은 차량 이미지에 포함된 좌전방 도어, 좌후방 도어, 좌전방 휀더 및 좌후방 휀더에 대응되는 영역 정보를 획득할 수 있다. Referring to FIG. 16 , the neural network model may obtain part area information (b) corresponding to one or more parts included in the vehicle image by taking an image (a) of a side of the vehicle as an input. The neural network model may acquire an image (b) marked differently (eg, masked with different colors) with respect to a plurality of regions corresponding to individual parts included in the image. Referring to (b) of FIG. 16 , the neural network model may acquire area information corresponding to a left front door, a left rear door, a left front fender, and a left rear fender included in a vehicle image.
또 다른 일 실시예에 따르면, 부품 정보는 도10 내지 13과 관련하여 전술한 신경망 모델을 이용하여 획득될 수 있다. 부품 정보는 신경망 모델을 통하여 획득되고 개별 부품에 대응되는 영역을 표시하는 바운딩 박스를 포함할 수 있다. According to another embodiment, part information may be obtained using the neural network model described above with reference to FIGS. 10 to 13 . Part information is obtained through a neural network model and may include a bounding box displaying a region corresponding to an individual part.
신경망 모델은 전연결 레이어 및 전연결 레이어와 연결되는 은닉 레이어 및 출력 레이어를 통하여, 개별 ROI에 포함되는 오브젝트의 식별자 또는 개별 ROI의 바운딩 박스를 획득할 수 있다. 신경망 모델은 차량 이미지를 입력으로 하여, 차량 이미지에 포함되는 개별 부품에 대한 ROI 바운딩 박스를 획득할 수 있다. 신경망 모델은 차량 이미지를 입력으로 하여, 차량 이미지에 포함되는 개별 ROI에 대응되는 개별 부품 영역에 대한 분류 결과를 획득할 수 있다.The neural network model may obtain an identifier of an object included in an individual ROI or a bounding box of an individual ROI through a pre-connected layer and a hidden layer and an output layer connected to the fully-connected layer. The neural network model may obtain ROI bounding boxes for individual parts included in the vehicle image by taking the vehicle image as an input. The neural network model may obtain a classification result for an individual part region corresponding to an individual ROI included in the vehicle image by taking the vehicle image as an input.
신경망 모델은 부품 정보를 획득하도록 학습되어 마련될 수 있다. 신경망 모델은 부품 정보가 라벨링된 복수의 차량 이미지를 포함하는 부품 학습 데이터를 이용하여 학습될 수 있다. A neural network model may be trained and prepared to acquire part information. The neural network model may be trained using part learning data including a plurality of vehicle images labeled with part information.
부품 학습 데이터는 복수의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 차량에 대하여 서로 다른 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 차량에 대하여 동일한 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 다양한 종류, 모델 또는 제조사의 차량을 촬영하여 획득된 복수의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 단일 종류, 모델 또는 제조사의 차량을 촬영하여 획득된 복수의 차량 이미지를 포함할 수 있다.Part learning data may include a plurality of vehicle images. Part learning data may include a plurality of vehicle images photographed from different directions with respect to the vehicle. Part learning data may include a plurality of vehicle images photographed in the same direction with respect to the vehicle. Part learning data may include a plurality of vehicle images obtained by photographing vehicles of various types, models, or manufacturers. Part learning data may include a plurality of vehicle images obtained by photographing a vehicle of a single type, model, or manufacturer.
부품 학습 데이터는, 이미지에 포함되는 하나 이상의 부품에 각각 대응되는 부품 라벨이 부여된 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 다양한 종류의 차량을 촬영하여 획득되고 부품 라벨이 부여된 차량 이미지를 포함할 수 있다. 부품 라벨은 차량의 종류, 모델 또는 제조사 별로 달리 부여될 수 있다. The part learning data may include a vehicle image to which part labels respectively corresponding to one or more parts included in the image are assigned. Part learning data may include vehicle images obtained by photographing various types of vehicles and having part labels attached thereto. Part labels may be assigned differently for each vehicle type, model, or manufacturer.
부품 학습 데이터는 서로 다른 부품에 대하여 형식을 달리하여 마스킹된(또는 라벨링된) 차량 이미지를 적어도 하나 포함할 수 있다. 차량 이미지는 서로 다른 부품에 대하여 다른 색상으로 마스킹된(또는 라벨링된) 차량 이미지 또는 서로 다른 부품에 대응되는 영역에 대하여 상이한 태그로 라벨링된 차량 이미지를 적어도 하나 포함할 수 있다. The component learning data may include at least one masked (or labeled) vehicle image with different formats for different components. The vehicle image may include at least one vehicle image masked (or labeled) with different colors for different parts or vehicle images labeled with different tags for regions corresponding to different parts.
부품 학습 데이터는 다양한 부품에 대하여 마스킹된 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 하나 이상의 부품 영역, 예컨대, 좌전방 도어에 대응되는 좌전방 도어 영역 정보 및/또는 차량의 앞범퍼에 대응되는 앞범퍼 영역 정보(FB)를 포함할 수 있다. 부품 학습 데이터는 하나 이상의 공통되는 부품 영역 정보를 포함하고 차량에 대하여 서로 다른 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 적어도 일부 상이한 부품 영역 정보를 포함하는 하나 이상의 차량 이미지를 포함할 수 있다. 부품 학습 데이터는 이미지 내에 포함되는 모든 부품 대응 영역에 각 대응 부품 정보로 마스킹된 하나 이상의 차량 이미지를 포함할 수 있다. Part learning data may include masked vehicle images for various parts. The part learning data may include one or more part areas, eg, left front door area information corresponding to the left front door and/or front bumper area information FB corresponding to the front bumper of the vehicle. The part learning data may include a plurality of vehicle images that include one or more pieces of common part area information and are photographed from different directions with respect to the vehicle. The part learning data may include one or more vehicle images including at least some different part area information. The part learning data may include one or more vehicle images masked with corresponding part information in all parts corresponding regions included in the image.
도 17은 일 실시예에 따른 부품 학습 데이터를 예시하기 위한 도면이다. 도 17을 참조하면, 부품 학습 데이터는, 다양한 모델의 차량을 촬영하여 획득되고, 특정 부품, 예컨대, 좌전방 도어에 대응되는 영역이 라벨링된 복수의 차량 이미지를 포함할 수 있다. 복수의 차량 이미지는 서로 다른 종류의 차량을 촬영하여 획득될 수 있다. 17 is a diagram for illustrating part learning data according to an embodiment. Referring to FIG. 17 , part learning data may include a plurality of vehicle images acquired by photographing vehicles of various models and labeled with a region corresponding to a specific part, for example, a left front door. A plurality of vehicle images may be acquired by photographing different types of vehicles.
도 18은 다른 일 실시예에 따른 부품 학습 데이터를 예시하기 위한 도면이다. 도 18을 참조하면, 부품 학습 데이터는, 다양한 모델의 차량을 촬영하여 획득되고, 복수의 부품, 예컨대, 좌전방 도어, 좌후방 도어, 좌전방 휀더, 좌후방 휀더에 대응되는 영역이 서로 달리 라벨링된 복수의 차량 이미지를 포함할 수 있다.18 is a diagram for illustrating part learning data according to another embodiment. Referring to FIG. 18, part learning data is obtained by photographing vehicles of various models, and regions corresponding to a plurality of parts, for example, a left front door, a left rear door, a left front fender, and a left rear fender are labeled differently. may include a plurality of vehicle images.
도 17 및 18에서는 부품 학습 데이터가, 차량에 대하여 동일한 방향에서 촬영된 복수의 차량 이미지를 포함하는 경우를 기준으로 설명하였으나 이는 예시에 불과하며 부품 학습 데이터는 다양한 방향에서 촬영된 차량 이미지를 포함할 수 있다. In FIGS. 17 and 18, the case where the part learning data includes a plurality of vehicle images photographed in the same direction with respect to the vehicle has been described, but this is only an example and the part learning data may include vehicle images photographed in various directions. can
신경망 모델은 부품 학습 데이터를 이용하여, 차량 이미지에 기초하여 부품 정보를 획득하도록 지도, 비지도 또는 강화 학습될 수 있다. 신경망 모델은 역전파 방식을 이용하여 학습될 수 있다.The neural network model may be supervised, unsupervised, or reinforced-learned to obtain part information based on vehicle images using part learning data. A neural network model may be trained using a backpropagation method.
신경망 모델은 위에서 설명한 부품 학습 데이터를 이용하여, 차량 이미지를, 차량 이미지에 포함된 부품에 따라 분류하도록 학습될 수 있다. 신경망 모델은 차량 이미지에 포함된 부품에 대응되는 라벨이 부여된 차량 이미지를 포함하는 학습 데이터를 이용하여, 차량 이미지를, 차량 이미지에 포함된 부품에 따라 분류하도록 학습될 수 있다. The neural network model may be trained to classify the vehicle image according to the parts included in the vehicle image using the component learning data described above. The neural network model may be trained to classify vehicle images according to parts included in the vehicle image, using training data including vehicle images to which a label corresponding to a part included in the vehicle image is assigned.
신경망 모델은 부품 학습 데이터를 통하여 차량 이미지가 특정 부품을 포함하는지 여부를 획득하도록 학습될 수 있다. 신경망 모델은 부품 학습 데이터를 통하여, 복수의 부품에 대하여 각 부품이 대상 이미지에 포함되는지 여부를 획득하도록 학습될 수 있다.The neural network model may be trained to obtain whether a vehicle image includes a specific part through parts learning data. The neural network model may be trained to acquire whether each part is included in a target image for a plurality of parts through part learning data.
신경망 모델은 부품 학습 데이터를 통하여, 차량 이미지에 특정 부품이 분포하는 영역에 대한 영역 정보를 획득하도록 학습될 수 있다. 신경망 모델은 차량 이미지에 포함된 개별 부품의 종류 및 개별 부품에 대응되는 영역이 라벨링된 차량 이미지를 포함하는 부품 학습 데이터를 통하여, 차량 이미지에 특정 부품이 분포하는 영역에 대한 영역 정보를 획득하도록 학습될 수 있다. The neural network model may be trained to obtain region information about a region in which a specific part is distributed in a vehicle image through part learning data. The neural network model learns to acquire region information about the region where a specific part is distributed in a vehicle image through part learning data including vehicle images in which the types of individual parts included in the vehicle image and regions corresponding to the individual parts are labeled. It can be.
신경망 모델은 부품 학습 데이터를 통하여, 차량 이미지에 특정 부품이 분포하는 영역에 대한 영역 정보를 획득하도록 학습될 수 있다. 신경망 모델은 부품 학습 데이터를 통하여, 차량 이미지에 포함된 복수의 부품 각각에 대하여, 각 부품이 분포하는 영역에 대한 영역 정보를 획득하도록 학습될 수 있다.The neural network model may be trained to obtain region information about a region in which a specific part is distributed in a vehicle image through part learning data. The neural network model may be trained to obtain area information about a region in which each part is distributed, for each of a plurality of parts included in the vehicle image, through part learning data.
신경망 모델은 복수의 부품 학습 데이터를 이용하여 학습될 수도 있다. 신경망 모델은 제1 차종의 차량(또는 제1 제조사의 차량)을 촬영하여 학습된 차량 이미지를 포함하는 제1 부품 학습 데이터 및 제2 차종의 차량(또는 제2 제조사의 차량)을 촬영하여 학습된 차량 이미지를 포함하는 제2 부품 학습 데이터를 이용하여 학습될 수 있다.The neural network model may be learned using a plurality of component learning data. The neural network model is trained by taking a first part learning data including a vehicle image learned by taking a vehicle of the first type (or a vehicle of the first manufacturer) and a vehicle of the second type (or a vehicle of the second manufacturer). It may be learned using the second component learning data including the vehicle image.
한편, 복수의 신경망 모델이 학습 및 이용될 수도 있다. 제1 신경망 모델은 제1 부품 학습 데이터에 기초하여 학습되고, 제2 신경망 모델은 제2 부품 학습 데이터에 기초하여 학습될 수 있다.Meanwhile, a plurality of neural network models may be learned and used. The first neural network model may be learned based on the first component learning data, and the second neural network model may be learned based on the second component learning data.
신경망 모델은 차량 이미지 및 추가 정보에 기초하여 부품 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량의 종류, 모델명, 제조사, 색상 등의 추가 정보를 더 이용하여 부품 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량 이미지에 기초하여 획득된 제1 특징 세트 및 추가 정보에 기초하여 획득된 제2 특징 세트에 기초하여 부품 정보를 획득하도록 학습될 수 있다.A neural network model can be trained to obtain parts information based on vehicle images and additional information. The neural network model may be trained to obtain parts information by further using additional information such as vehicle type, model name, manufacturer, and color. The neural network model may be trained to obtain part information based on a first feature set obtained based on the vehicle image and a second feature set obtained based on the additional information.
신경망 모델은 차량 이미지 및 다른 이미지에 기초하여 부품 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량 이미지에 기초하여 획득된 제1 특징 세트 및 다른 이미지(예컨대, 배경을 촬영한 배경 이미지 등)에 기초하여 획득된 제2 특징 세트에 기초하여, 부품 정보를 획득하도록 학습될 수 있다.A neural network model can be trained to obtain parts information based on vehicle images and other images. The neural network model may be trained to obtain part information based on a first feature set obtained based on a vehicle image and a second feature set obtained based on another image (eg, a background image obtained by photographing a background). there is.
2.3.2 손상 정보 획득2.3.2 Obtain damage information
차량 외관의 손상과 관련된 손상 정보가 획득될 수 있다. Damage information related to damage to the exterior of the vehicle may be obtained.
손상 정보는 차량 외관의 긁힘, 찍힘, 찌그러짐, 부서짐, 유실, 깨짐, 크랙 등의 손상과 관련된 정보일 수 있다. 손상 정보는, 차량 외관 손상의 종류, 위치, 정도, 개수, 발생 시기 등에 대한 정보를 포함할 수 있다.The damage information may be information related to damage such as scratches, dents, dents, breakage, loss, cracks, or the like on the exterior of the vehicle. The damage information may include information about the type, location, degree, number, occurrence time, and the like of damage to the exterior of the vehicle.
손상 정보는 차량 이미지에 포함되고 손상이 발생한 위치와 대응되는 손상 영역 정보를 포함할 수 있다. 손상 영역 정보는 차량 이미지에 포함되는 하나 이상의 손상 부위를 지시할 수 있다. 손상 영역 정보는 차량 이미지에 포함되고 손상 부위에 대응되는 영역을 시각적으로 구분하기 위한 표시를 포함할 수 있다. 손상 영역 정보는 손상 부위의 경계(boundary)를 포함할 수 있다. 손상 영역 정보는 손상 부위를 표시하는 바운딩 박스(Bounding Box)를 포함할 수 있다. 손상 영역 정보는 차량 이미지 내에서 손상 부위의 좌표 정보를 포함할 수 있다. 손상 영역 정보는 바운딩 박스의 차량 이미지 내에서의 모서리 좌표 정보를 포함할 수 있다. 손상 영역 정보는 차량에 대한 손상 부위의 위치 정보 또는 좌표 정보를 포함할 수 있다. 손상 영역 정보는 차량의 특정 부품(예컨대, 번호판의 중심선, 엠블럼 등)을 기준으로 한 손상 부위의 절대 위치 정보(예컨대, 좌표 정보)를 포함할 수 있다. The damage information may include damage area information included in the vehicle image and corresponding to a location where the damage occurs. The damaged area information may indicate one or more damaged areas included in the vehicle image. The damaged area information may include a mark for visually distinguishing an area included in the vehicle image and corresponding to the damaged area. The damaged area information may include a boundary of the damaged area. Damage area information may include a bounding box indicating a damaged area. The damaged area information may include coordinate information of a damaged part in the vehicle image. The damaged area information may include corner coordinate information of the bounding box within the vehicle image. The damaged area information may include location information or coordinate information of a damaged part of the vehicle. Damaged area information may include absolute positional information (eg, coordinate information) of a damaged part based on a specific part of the vehicle (eg, the center line of a license plate, an emblem, etc.).
손상 정보는 차량 이미지 내에 포함되는 손상 부위에 대응되는 손상 영역 정보 및 해당 손상 부위와 관련되고 손상 영역 정보와 매칭되는 정보(예를 들어, 손상 발생 시기, 손상 종류, 손상 정도 등)를 포함할 수 있다.The damage information may include damaged area information corresponding to a damaged area included in the vehicle image and information related to the damaged area and matched with the damaged area information (eg, time of occurrence of damage, type of damage, degree of damage, etc.) there is.
도 19는 일 실시예에 따른 손상 정보를 설명하기 위한 도면이다. 도 19의 (a)를 참조하면, 손상 정보는 차량 이미지에 포함된 차량 외관 손상과 관련된 정보를 포함할 수 있다. 손상 정보는 차량 이미지에 부여된 태그 내지 메타데이터의 형태로 획득될 수 있다. 도 19의 (b)를 참조하면, 손상 정보는 차량 이미지 내에서 손상 부위를 강조하기 위한 표시를 포함할 수 있다. 도 19의 (c)를 참조하면, 손상 정보는 차량 이미지 내에서 손상이 위치할 가능성이 높은 영역을 나타내기 위한 표시, 예컨대 히트맵을 포함할 수 있다. 도 19의 (d)를 참조하면, 손상 정보는 차량 이미지 내에서 손상이 위치하는 영역을 표시하기 위한 바운딩 박스를 포함할 수 있다. 19 is a diagram for explaining damage information according to an exemplary embodiment. Referring to (a) of FIG. 19 , damage information may include information related to damage to the exterior of a vehicle included in a vehicle image. Damage information may be obtained in the form of a tag or metadata assigned to a vehicle image. Referring to (b) of FIG. 19 , damage information may include a mark for emphasizing a damaged part in a vehicle image. Referring to (c) of FIG. 19 , the damage information may include a mark indicating a region where damage is likely to be located in a vehicle image, for example, a heat map. Referring to (d) of FIG. 19 , damage information may include a bounding box for displaying an area where damage is located in a vehicle image.
손상 정보는 이미지 데이터에 기초하여 획득될 수 있다. 손상 정보는 차량 이미지에 기초하여 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여 획득될 수 있다. 손상 정보는 도 10 내지 13과 관련하여 전술한 신경망 모델을 이용하여 획득될 수 있다. Damage information may be obtained based on image data. Damage information may be obtained using a neural network model trained to obtain damage information based on vehicle images. Damage information may be obtained using the neural network model described above with reference to FIGS. 10 to 13 .
신경망 모델은 차량의 일부를 촬영하여 획득된 차량 이미지를 입력으로 하여 손상 정보를 획득할 수 있다. 신경망 모델은 입력된 차량 이미지에 기초하여, 촬영된 차량에 손상된 부분이 존재하는지 여부를 획득할 수 있다. 신경망 모델은 입력된 차량 이미지에 기초하여, 촬영된 차량의 특정 영역 내에 손상된 부분이 존재하는지 여부를 획득할 수 있다. 신경망 모델의 출력 레이어는 차량 이미지에 손상 영역이 포함되는지 여부를 나타내는 확률값을 획득하는 출력 노드를 포함할 수 있다. 신경망 모델은 입력된 차량 이미지에 기초하여, 하나 이상의 손상 종류에 대하여, 촬영된 차량에 손상 영역이 포함되는지 여부를 획득할 수 있다. 신경망 모델의 출력 레이어는 차량 이미지에 복수의 손상 종류에 각각 대응되는 손상 영역이 포함되는지 여부를 나타내는 확률값을 획득하는 복수의 출력 노드를 포함할 수 있다.The neural network model may acquire damage information by using a vehicle image acquired by photographing a part of the vehicle as an input. The neural network model may obtain whether or not there are damaged parts in the photographed vehicle based on the input vehicle image. The neural network model may acquire whether or not a damaged part exists in a specific area of the photographed vehicle based on the input vehicle image. The output layer of the neural network model may include an output node that obtains a probability value indicating whether the vehicle image includes the damaged area. The neural network model may obtain whether or not a damaged area is included in the photographed vehicle for one or more types of damage based on the input vehicle image. The output layer of the neural network model may include a plurality of output nodes that obtain probability values representing whether or not the vehicle image includes damage regions corresponding to a plurality of damage types.
신경망 모델은 차량의 일부를 촬영하여 획득된 차량 이미지에 기초하여 손상 영역을 획득할 수 있다. 신경망 모델은 차량 이미지로부터 차량 외부 손상에 대응되는 영역을 검출할 수 있다. 신경망 모델은 차량 이미지에 포함되고 차량 외부 손상에 대응되는 영역에 대한 바운딩 박스 또는 세그멘테이션을 획득할 수 있다. 신경망 모델은, 복수의 손상 영역에 대한 세그멘테이션을 획득할 수도 있다. 신경망 모델은 히트맵을 획득할 수도 있다. 신경망 모델은 도 19의 (c)에서 예시하는 것과 같이 손상이 위치하는 영역을 표시하기 위한 히트맵 형태의 샐리언시 맵을 획득할 수 있다. The neural network model may obtain a damaged area based on a vehicle image obtained by photographing a part of the vehicle. The neural network model may detect an area corresponding to external damage of the vehicle from the vehicle image. The neural network model may obtain a bounding box or segmentation for a region included in the vehicle image and corresponding to external damage of the vehicle. The neural network model may obtain segmentation of a plurality of damaged regions. The neural network model may obtain a heat map. As exemplified in (c) of FIG. 19 , the neural network model may acquire a salience map in the form of a heat map for displaying an area where damage is located.
도 20을 참조하면, 일 실시예에 따른 신경망 모델은 차량의 일부가 촬영된 이미지(a)를 입력으로 하여 손상 부위에 대응되는 손상 영역 정보를 획득할 수 있다. 손상 부위를 나타내는 손상 영역 정보는, 신경망 모델을 통하여 획득된 바운딩 박스(B1)를 포함할 수 있다. 도 20을 참조하면, 일 실시예에 따른 신경망 모델은 차량의 일 측면이 촬영된 이미지(b)를 입력으로 하여 손상 부위에 대응되는 손상 영역 정보(B2)를 획득할 수 있다. 손상 부위를 나타내는 손상 영역 정보는, 신경망 모델을 통하여 획득된 바운딩 박스를 포함할 수 있다. 손상 영역 정보는, 각 바운딩 박스에 대응되는 손상 영역에 대하여, 대응되는 손상 종류를 더 포함할 수 있다. 손상 종류는 신경망 모델의 분류기 부분에 의해 획득될 수 있다.Referring to FIG. 20 , the neural network model according to an embodiment may obtain information on a damaged area corresponding to a damaged area by using an image (a) of a part of a vehicle as an input. The damage area information representing the damaged area may include a bounding box B1 obtained through a neural network model. Referring to FIG. 20 , the neural network model according to an embodiment may acquire damaged area information B2 corresponding to the damaged area by taking an image (b) of one side of the vehicle as an input. The damaged area information indicating the damaged area may include a bounding box obtained through a neural network model. The damaged area information may further include a damage type corresponding to the damaged area corresponding to each bounding box. The damage type can be obtained by the classifier part of the neural network model.
신경망 모델은 손상 정보를 획득하도록 학습될 수 있다. 신경망 모델은 손상 정보가 라벨링된 복수의 차량 이미지를 포함하는 손상 학습 데이터를 이용하여 학습될 수 있다. A neural network model can be trained to obtain damage information. The neural network model may be learned using damage learning data including a plurality of vehicle images labeled with damage information.
손상 학습 데이터는 복수의 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 차량에 대하여 서로 다른 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 차량에 대하여 동일한 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 다양한 종류, 모델 또는 제조사의 손상 차량을 촬영하여 획득된 복수의 손상 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 단일 종류, 모델 또는 제조사의 손상 차량을 촬영하여 획득된 복수의 손상 차량 이미지를 포함할 수 있다.Damage learning data may include a plurality of vehicle images. The damage learning data may include a plurality of vehicle images taken from different directions with respect to the vehicle. The damage learning data may include a plurality of vehicle images taken in the same direction with respect to the vehicle. The damage learning data may include a plurality of damaged vehicle images obtained by photographing damaged vehicles of various types, models, or manufacturers. The damage learning data may include a plurality of damaged vehicle images obtained by photographing a damaged vehicle of a single type, model, or manufacturer.
손상 학습 데이터는 손상 유무를 나타내는 손상 라벨이 부여된 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 다양한 종류의 차량을 촬영하여 획득되고 손상 라벨이 부여된 차량 이미지를 포함할 수 있다. 손상 라벨은 손상의 종류(예컨대, 긁힘, 찍힘, 파손 등)에 따라 달리 부여될 수 있다.The damage learning data may include a vehicle image to which a damage label representing the presence or absence of damage is assigned. The damage learning data may include vehicle images acquired by photographing various types of vehicles and assigned damage labels. The damage label may be given differently according to the type of damage (eg, scratch, dent, breakage, etc.).
손상 학습 데이터는 손상 영역에 마스킹된 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 하나 이상의 손상 영역에 대하여 마스킹(또는 라벨링)된 차량 이미지를 포함할 수 있다. 손상 학습 데이터는 복수 종류의 손상 영역에 대하여 서로 달리 마스킹(또는 라벨링)된 차량 이미지를 포함할 수 있다. 예컨대, 손상 학습 데이터는 제1 종류의 손상(예를 들어, 긁힘)에 대하여 제1 색상으로 표시되고, 제2 종류의 손상(예를 들어, 찌그러짐)에 대하여 제2 색상으로 표시된 차량 이미지를 포함할 수 있다. The damage learning data may include a vehicle image masked in the damage area. The damage learning data may include a vehicle image masked (or labeled) with respect to one or more damage areas. The damage learning data may include vehicle images in which a plurality of types of damage areas are masked (or labeled) differently. For example, the damage learning data includes a vehicle image displayed in a first color for a first type of damage (eg, scratch) and a second color for a second type of damage (eg, dent). can do.
도 21은 손상 학습 데이터를 예시하기 위한 도면이다. 도 21의 (a)를 참조하면 손상 학습 데이터는, 손상 부위가 마스킹(M1)된 차량 이미지를 포함할 수 있다. 도 21의 (b)를 참조하면, 손상 학습 데이터는, 제1 종류의 손상(예를 들어, 찌그러짐)이 위치하는 손상 부위에 대하여 제1 색상으로 마스킹(M2)되고, 제2 종류의 손상(예를 들어, 긁힘)이 위치하는 손상 부위에 대하여 제2 색상으로 마스킹(M3)된 차량 이미지를 포함할 수 있다.21 is a diagram for illustrating impairment learning data. Referring to (a) of FIG. 21 , damage learning data may include a vehicle image in which a damaged part is masked (M1). Referring to (b) of FIG. 21 , the damage learning data is masked (M2) with a first color for a damaged portion where the first type of damage (eg, distortion) is located, and the second type of damage ( For example, a vehicle image masked (M3) with a second color with respect to a damaged portion where a scratch is located may be included.
도 21에서는 손상 학습 데이터가, 차량에 대하여 동일한 방향에서 촬영된 복수의 차량 이미지를 포함하는 경우를 기준으로 설명하였으나 이는 예시에 불과하며 손상 학습 데이터는 다양한 방향에서 촬영된 차량 이미지를 포함할 수 있다. In FIG. 21, the case where the impairment learning data includes a plurality of vehicle images photographed in the same direction with respect to the vehicle has been described, but this is only an example and the impairment learning data may include vehicle images photographed in various directions. .
신경망 모델은 위에서 설명한 손상 학습 데이터를 이용하여 학습될 수 있다. 신경망 모델은 손상 학습 데이터를 이용하여, 차량 이미지에 기초하여 손상 정보를 획득하도록 지도, 비지도 또는 강화 학습될 수 있다. 신경망 모델은 역전파 방식을 이용하여 학습될 수 있다.The neural network model may be learned using the damage learning data described above. The neural network model may be supervised, unsupervised, or reinforced-learned to obtain damage information based on vehicle images using the damage learning data. A neural network model may be trained using a backpropagation method.
신경망 모델은 차량 이미지를 손상 여부가 라벨링된 차량 이미지를 포함하는 손상 학습 데이터를 이용하여 손상 부위를 포함하는지 여부에 따라 분류하도록 학습될 수 있다. 신경망 모델은 차량 이미지를 차량 이미지에 포함된 손상의 종류에 따라 분류하도록 학습될 수 있다. 신경망 모델은 복수 종류의 손상의 유무에 대하여 라벨링된 차량 이미지를 포함하는 손상 학습 데이터를 통하여, 복수의 손상에 대하여, 대상 이미지가 각 종류의 손상을 포함하는지 여부를 획득하도록 학습될 수 있다.The neural network model may be trained to classify vehicle images according to whether or not they include a damaged part using damage learning data including vehicle images labeled with or without damage. A neural network model may be trained to classify vehicle images according to the type of damage included in the vehicle images. The neural network model may be trained to acquire whether a target image includes each type of damage with respect to a plurality of damages through damage learning data including vehicle images labeled with respect to the presence or absence of multiple types of damage.
신경망 모델은 손상 학습 데이터를 통하여 손상 영역 정보를 획득하도록 학습될 수 있다. 신경망 모델은 하나 이상의 종류의 손상에 대하여 손상 부위에 마스킹된 차량 이미지를 포함하는 손상 학습 데이터를 이용하여 대상 이미지로부터 손상 영역을 검출하도록 학습될 수 있다. 신경망 모델은 복수 종류의 손상 영역에 대하여 라벨링된 차량 이미지를 포함하는 손상 학습 데이터를 통하여, 차량 이미지에 포함된 복수의 손상 각각에 대하여, 각 손상이 분포하는 영역 및/또는 종류에 대한 영역 정보를 획득하도록 학습될 수 있다.The neural network model may be trained to obtain damage area information through damage learning data. The neural network model may be trained to detect a damaged area from a target image using damage training data including an image of a vehicle masked to the damaged area for one or more types of damage. The neural network model provides area information about the area and/or type of each damage for each of a plurality of damages included in the vehicle image through damage learning data including vehicle images labeled for a plurality of types of damage areas. can be learned to acquire.
신경망 모델은 복수의 손상 학습 데이터를 이용하여 학습될 수도 있다. 신경망 모델은 제1 종류의 손상(예컨대, 긁힘)을 가지는 차량을 촬영하여 학습된 차량 이미지를 포함하는 제1 손상 학습 데이터 및 제2 종류의 손상(예컨대, 찌그러짐)을 가지는 차량을 촬영하여 학습된 차량 이미지를 포함하는 제2 손상 학습 데이터를 이용하여 학습될 수 있다.The neural network model may be learned using a plurality of impairment learning data. The neural network model is trained by photographing a vehicle having a first type of damage (eg, scratch) and first damage learning data including a vehicle image learned by photographing a vehicle having a second kind of damage (eg, dent). It may be learned using the second damage learning data including the vehicle image.
한편, 복수의 신경망 모델이 학습 및 이용될 수도 있다. 제1 신경망 모델은 제1 손상 학습 데이터에 기초하여 학습되고, 제2 신경망 모델은 제2 손상 학습 데이터에 기초하여 학습될 수 있다. 제2 손상 학습 데이터는 제1 손상 학습 데이터와 적어도 일부 상이할 수 있다. Meanwhile, a plurality of neural network models may be learned and used. A first neural network model may be learned based on the first impairment learning data, and a second neural network model may be learned based on the second impairment learning data. The second impairment learning data may be at least partially different from the first impairment learning data.
신경망 모델은 차량 이미지 및 추가 정보에 기초하여 손상 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량의 종류, 모델명, 제조사, 색상 등의 추가 정보를 더 이용하여 손상 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량 이미지에 기초하여 획득된 제1 특징 세트 및 추가 정보에 기초하여 획득된 제2 특징 세트에 기초하여 손상 정보를 획득하도록 학습될 수 있다.A neural network model can be trained to obtain damage information based on vehicle images and additional information. The neural network model may be trained to obtain damage information by further using additional information such as vehicle type, model name, manufacturer, and color. The neural network model may be trained to obtain damage information based on a first feature set obtained based on the vehicle image and a second feature set obtained based on the additional information.
신경망 모델은 차량 이미지 및 다른 이미지에 기초하여 손상 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 차량 이미지에 기초하여 획득된 제1 특징 세트 및 다른 이미지(예컨대, 배경을 촬영한 배경 이미지 등)에 기초하여 획득된 제2 특징 세트에 기초하여, 손상 정보를 획득하도록 학습될 수 있다.A neural network model can be trained to obtain damage information based on vehicle images and other images. The neural network model may be trained to obtain damage information based on a first feature set obtained based on a vehicle image and a second feature set obtained based on another image (eg, a background image obtained by photographing a background). there is.
일 실시예에 따르면, 손상 정보는 부품 정보와 함께 이용될 수 있다. 이와 관련하여서는, 이하에서 보다 상세히 설명한다. According to one embodiment, damage information may be used along with parts information. In this regard, it will be described in more detail below.
2.3.3 차량 종류 정보 획득2.3.3 Obtaining vehicle type information
차량의 종류에 관련된 차종 정보가 획득될 수 있다.Vehicle type information related to the type of vehicle may be obtained.
차종 정보는, 세단, 쿠페, 웨건, 컨버터블, 해치백, SUV, 밴, 트럭, 버스 등 차량의 차종을 나타낼 수 있다. The vehicle type information may indicate a vehicle type such as a sedan, a coupe, a wagon, a convertible, a hatchback, an SUV, a van, a truck, or a bus.
차종 정보는 비-이미지 데이터에 기초하여 획득될 수 있다. 차종 정보는 차량의 등록번호, VIN, 모델명 등에 기초하여 획득될 수 있다. 차종 정보는 미리 저장된 데이터베이스로부터 획득될 수 있다. Vehicle model information may be obtained based on non-image data. Vehicle type information may be obtained based on vehicle registration number, VIN, model name, and the like. Vehicle type information may be obtained from a pre-stored database.
차종 정보는 이미지 데이터를 이용하여 획득될 수 있다. 차종 정보는 차량 이미지에 기초하여 차종 정보를 획득하도록 학습된 신경망 모델을 이용하여 획득될 수 있다. 차종 정보는 도 10과 관련하여 전술한 신경망 모델을 이용하여 획득될 수 있다.Vehicle type information may be obtained using image data. Vehicle type information may be obtained using a neural network model trained to obtain vehicle type information based on vehicle images. Vehicle type information may be obtained using the neural network model described above with reference to FIG. 10 .
신경망 모델은 차량 이미지에 기초하여 차종 정보를 획득할 수 있다. 신경망 모델은 복수의 차종 라벨에 대하여 차량 이미지를 분류할 수 있다. 예컨대, 신경망 모델은, 적어도 하나의 합성곱 신경망 레이어 및 하나 이상의 출력 노드를 가지는 출력 레이어를 포함할 수 있다. 신경망 모델은 합성곱 신경망 레이어를 통하여 차량 이미지에 기초하여 차종과 관련된 특징 세트를 획득하고, 특징 세트에 기초하여 적어도 하나의 차종 라벨에 대한 확률값을 획득하는 출력 노드를 포함할 수 있다.The neural network model may obtain vehicle type information based on the vehicle image. The neural network model may classify vehicle images with respect to a plurality of vehicle model labels. For example, the neural network model may include at least one convolutional neural network layer and an output layer having one or more output nodes. The neural network model may include an output node that obtains a feature set related to a vehicle model based on a vehicle image through a convolutional neural network layer and obtains a probability value for at least one vehicle model label based on the feature set.
신경망 모델은 차종 정보를 획득하도록 학습될 수 있다. 신경망 모델은 차종 정보가 라벨링된 복수의 차량 이미지를 포함하는 차종 학습 데이터를 이용하여 학습될 수 있다. 신경망 모델은 차종 학습 데이터를 이용하여, 차량 이미지에 기초하여 손상 정보를 획득하도록 지도, 비지도 또는 강화 학습될 수 있다. 신경망 모델은 역전파 방식을 이용하여 학습될 수 있다. A neural network model may be trained to acquire vehicle type information. The neural network model may be learned using vehicle model learning data including a plurality of vehicle images labeled with vehicle model information. The neural network model may be supervised, unsupervised, or reinforced-learned to obtain damage information based on a vehicle image using model learning data. A neural network model may be trained using a backpropagation method.
차종 학습 데이터는 복수의 차량 이미지를 포함할 수 있다. 차종 학습 데이터는 차량에 대하여 서로 다른 방향 또는 동일한 방향에서 촬영된 복수의 차량 이미지를 포함할 수 있다. 차종 학습 데이터는 제1 제조사의 제1 차종 차량을 촬영하여 획득되고, 제1 차종 라벨이 부여된 이미지 및 제2 제조사의 제1 차종 차량을 촬영하여 획득되고 제1 차종 라벨이 부여된 이미지를 포함할 수 있다.The vehicle type learning data may include a plurality of vehicle images. The vehicle type learning data may include a plurality of vehicle images photographed in different directions or in the same direction with respect to the vehicle. The vehicle model learning data includes an image obtained by photographing a first vehicle model of a first manufacturer and to which the first vehicle model label has been assigned, and an image obtained by photographing a first vehicle model of a second manufacturer and to which the first vehicle model label is attached. can do.
차종 학습 데이터는 복수의 차종에 대하여, 각각 다양한 색상 또는 제조사의 차량을 촬영하여 획득된 복수의 차량 이미지를 포함할 수 있다. 예컨대, 차종 학습 데이터는, 다양한 제조사의 제1 차종(예를 들어, SUV)에 속하는 차량을 촬영하여 획득되고 제1 차종 라벨이 부여된 복수의 이미지를 포함하는 제1 이미지 세트 및 다양한 제조사의 제2 차종(예를 들어, 세단)에 속하는 차량을 촬영하여 획득되고 제2 차종 라벨이 부여된 복수의 이미지를 포함하는 제2 이미지 세트를 포함할 수 있다.The vehicle type learning data may include a plurality of vehicle images obtained by photographing vehicles of various colors or manufacturers, respectively, for a plurality of vehicle types. For example, the vehicle model learning data may include a first image set including a plurality of images obtained by photographing vehicles belonging to first vehicle types (eg, SUVs) of various manufacturers and to which first vehicle model labels are assigned, and first image sets of various manufacturers. A second image set including a plurality of images obtained by photographing vehicles belonging to two vehicle types (eg, sedans) and to which a second vehicle model label is assigned may be included.
신경망 모델은 대상 이미지가 특정 차종을 촬영한 이미지인지 여부를 획득하도록 학습될 수 있다. 신경망 모델은 제1 차종과 관련된 이미지임을 나타내는 제1 라벨이 부여된 제1 이미지 및 및 제1 차종과 관련된 이미지가 아님을 나타내는 제2 라벨이 부여된 제2 이미지를 포함하는 차종 학습 데이터를 이용하여 차량 이미지를 제1 차종 포함 여부에 따라 분류하도록 학습될 수 있다. A neural network model may be trained to acquire whether a target image is an image of a specific vehicle model. The neural network model uses vehicle model training data including a first image to which a first label is assigned indicating that the image is related to the first vehicle type and a second image to which a second label is assigned indicating that the image is not related to the first vehicle type. It may be learned to classify vehicle images according to whether or not they include the first vehicle type.
신경망 모델은 차종 학습 데이터를 이용하여, 차량 이미지를 차종에 따라 분류하도록 학습될 수 있다. 신경망 모델은, 제1 차종과 관련된 이미지임을 나타내는 제1 라벨이 부여된 제1 이미지, 제2 차종과 관련된 이미지임을 나타내는 제2 라벨이 부여된 제2 이미지를 포함하는 차종 학습 데이터를 이용하여, 차량 이미지를 관련 차종에 따라 분류하도록 학습될 수 있다. The neural network model may be trained to classify vehicle images according to vehicle types using vehicle model learning data. The neural network model uses vehicle model learning data including a first image to which a first label is attached indicating an image related to a first vehicle type and a second image to which a second label is attached indicating an image related to a second vehicle type, It can be learned to classify images according to the relevant car type.
복수의 신경망 모델이 학습 및 이용될 수도 있다. 제1 신경망 모델은 제1 차종과 관련된 제1 차종 학습 데이터에 기초하여 학습되고, 제2 신경망 모델은 제2 차종과 관련된 제2 차종 학습 데이터에 기초하여 학습될 수 있다. 제2 차종 학습 데이터는 제1 차종 학습 데이터와 적어도 일부 상이할 수 있다. 제1 차종 학습 데이터는 제1 차종 관련 여부가 라벨링된 차량 이미지를 포함하고, 제2 차종 학습 데이터는 제1 차종과 상이한 제2 차종 관련 여부가 라벨링된 차량 이미지를 포함할 수 있다. Multiple neural network models may be trained and used. The first neural network model may be learned based on first vehicle model training data related to the first vehicle type, and the second neural network model may be learned based on second vehicle model training data related to the second vehicle type. The second vehicle model learning data may be at least partially different from the first vehicle model learning data. The first vehicle type learning data may include a vehicle image labeled with the first vehicle type, and the second vehicle type learning data may include a vehicle image labeled with a second vehicle type different from the first vehicle type.
일 실시예에 따르면, 차종 정보에 기초하여, 차량 촬영 가이드가 제공될 수 있다. 이와 관련하여서는, 이하에서 보다 상세히 설명한다. According to an embodiment, a vehicle photographing guide may be provided based on vehicle model information. In this regard, it will be described in more detail below.
2.3.4 식별 정보 획득2.3.4 Obtaining identification information
차량을 식별하기 위한 차량 식별 정보가 획득될 수 있다.Vehicle identification information for identifying the vehicle may be obtained.
차량 식별 정보는 차량의 등록 번호, VIN 등일 수 있다.The vehicle identification information may be a vehicle registration number, VIN, and the like.
차량 식별 정보는 비-이미지 데이터에 기초하여 획득될 수 있다. 차량 식별 정보는 사용자입력을 통하여 획득될 수 있다. 차량 식별 정보는 미리 저장된 데이터베이스로부터 획득될 수 있다. Vehicle identification information may be obtained based on non-image data. Vehicle identification information may be obtained through user input. Vehicle identification information may be obtained from a pre-stored database.
차량 식별 정보는 이미지 데이터에 기초하여 획득될 수 있다. 차량 식별 정보는 차량의 번호판에 대응되는 영역을 포함하는 차량 이미지에 기초하여 획득될 수 있다. 차량 식별 정보는 차량의 전면부 또는 후면부를 촬영하여 획득된 이미지로부터 획득될 수 있다. 차량 식별 정보는 차량 식별 정보를 획득하는 알고리즘, 프로그램 또는 신경망 모델을 통하여 획득될 수 있다. Vehicle identification information may be obtained based on image data. Vehicle identification information may be obtained based on a vehicle image including an area corresponding to a license plate of the vehicle. The vehicle identification information may be obtained from an image obtained by photographing the front or rear of the vehicle. Vehicle identification information may be obtained through an algorithm, program, or neural network model that obtains vehicle identification information.
차량 식별 정보는, 전처리된 이미지에 기초하여 획득될 수 있다. 예컨대, 차량 식별 정보는 그레이스케일, 경계 강조(e.g., Thresholding), 컨투어링, 회전 등의 전처리를 통하여 획득된 이미지로부터 획득될 수 있다. 차량 식별 정보는 차량 이미지 내에 포함되고 식별 정보에 대응되는 영역에 기초하여 획득될 수 있다. Vehicle identification information may be obtained based on the preprocessed image. For example, the vehicle identification information may be obtained from an image acquired through preprocessing such as gray scale, boundary enhancement (e.g., thresholding), contouring, rotation, and the like. Vehicle identification information may be obtained based on an area included in the vehicle image and corresponding to the identification information.
식별 정보에 대응되는 영역은 수평/수직 에지 방식을 이용하여 차량 이미지로부터 추출될 수 있다. 예컨대, 식별 정보에 대응되는 영역은 차량 이미지에서 수평 및 수직 에지 영상을 검출하고 에지로 나타나는 직사각형을 후보 영역으로 설정하여 추출될 수 있다. An area corresponding to the identification information may be extracted from the vehicle image using a horizontal/vertical edge method. For example, an area corresponding to the identification information may be extracted by detecting horizontal and vertical edge images in a vehicle image and setting a rectangle appearing as an edge as a candidate area.
식별 정보에 대응되는 영역은 명암 변화를 통하여 획득될 수 있다. 예컨대, 식별 정보에 대응되는 영역은 차량 이미지의 수평 방향으로 한 줄을 읽어 들일 때 번호판의 숫자나 문자 부위에서 명암 값이 음에서 양으로 혹은 양에서 음으로 연속적인 명암 변화 벡터를 가지는 것을 이용하여 명암 변화가 대칭적으로 일어나는 곳에 번호판 영역이 있음을 추정하고, 추정된 좌표로부터 대상 영역을 확장하여 획득될 수 있다. An area corresponding to the identification information may be obtained through a contrast change. For example, the area corresponding to the identification information uses the fact that the contrast value has a continuous contrast vector from negative to positive or positive to negative in the number or letter area of the license plate when a line is read in the horizontal direction of the vehicle image. It can be obtained by estimating that there is a license plate area where the contrast change occurs symmetrically, and extending the target area from the estimated coordinates.
식별 정보에 대응되는 영역은 템플릿을 이용하여 획득될 수 있다. 예컨대, 식별 정보에 대응되는 영역은, 기준 원형 집합을 차량 영상에 적용하여, 즉, 표준 패턴에 입력된 영상을 정합시켜 문자를 인식시키는 템플릿을 이용하여 획득될 수 있다. An area corresponding to the identification information may be obtained using a template. For example, the area corresponding to the identification information may be obtained by applying a reference circular set to a vehicle image, that is, using a template that recognizes a character by matching an input image to a standard pattern.
식별 정보에 대응되는 영역은 색상 정보를 이용하여 획득될 수 있다. An area corresponding to the identification information may be obtained using color information.
식별 정보에 대응되는 영역은 허프 변환을 이용하여 획득될 수 있다. 예컨대, 식별 정보에 대응되는 영역은 소벨 연산자를 이용하여 차량 이미지로부터 에지를 검출한 후 허프 변환을 이용하여 수직 직선군과 수평 직선군을 탐색하여 추출될 수 있다. An area corresponding to the identification information may be obtained using Hough transform. For example, the region corresponding to the identification information may be extracted by detecting an edge from the vehicle image using a Sobel operator and then searching for a group of vertical straight lines and a group of horizontal straight lines using Hough transform.
식별 정보에 대응되는 영역은 run-length를 이용하여 획득될 수도 있다. 예컨대, 식별 정보에 대응되는 영역은, 이웃 방향의 기울기를 이용하여 이진 영상을 얻은 다음 임의의 각도인 세타로 투영하고 이때 투영되는 직선을 run-length 방법을 적용하여 후보 영역을 찾고, 수직을 이루는 두 직선의 비가 2:1인 위치를 검출하여 획득될 수 있다.The area corresponding to the identification information may be obtained using run-length. For example, for the region corresponding to the identification information, a binary image is obtained by using the gradient in the neighboring direction, and then projected at an arbitrary angle, theta, and a run-length method is applied to the projected straight line to find a candidate region. It can be obtained by detecting a position where the ratio of the two straight lines is 2:1.
식별 정보에 대응되는 영역에 대한 전처리가 수행될 수 있다. 예컨대, 기울기 보정을 위한 회전, 아핀 변환, 선형 회귀, 등의 처리가 수행될 수 있다. 또는 음영 보정을 위한 전처리가 수행될 수 있다. 또는, 노이즈 제거를 위한 전처리가 수행될 수도 있다. Pre-processing may be performed on a region corresponding to the identification information. For example, processing such as rotation for tilt correction, affine transformation, linear regression, and the like can be performed. Alternatively, preprocessing for shading correction may be performed. Alternatively, preprocessing for noise removal may be performed.
차량 식별 정보는 번호판을 인식하는 알고리즘을 이용하여 획득될 수 있다. 차량 식별 정보는 OCR(Optical Character Recognition, 광학 문자 인식) 알고리즘을 이용하여 획득될 수 있다. 차량 식별 정보는, Tesseract, OpenCV, EAST detector, Python 등을 통하여 구현된 OCR 알고리즘을 이용하여 획득될 수 있다. Vehicle identification information may be obtained using an algorithm for recognizing license plates. Vehicle identification information may be obtained using an Optical Character Recognition (OCR) algorithm. Vehicle identification information may be obtained using an OCR algorithm implemented through Tesseract, OpenCV, EAST detector, Python, or the like.
차량 식별 정보는 신경망 모델을 통하여 획득될 수 있다. 신경망 모델은 차량 이미지에 기초하여 차량 식별 정보를 획득할 수 있다. 신경망 모델은 차량의 전면부를 촬영하여 획득된 차량 전면 이미지 및/또는 차량의 후면부를 촬영하여 획득된 차량 후면 이미지에 기초하여 차량 식별 정보를 획득할 수 있다. 신경망 모델은 차량 전면 이미지에 포함되고 차량의 번호판에 대응되는 전면 번호판 영역 또는 차량 후면 이미지에 포함되고 차량의 번호판에 대응되는 후면 번호판 영역에 기초하여 차량 식별 정보를 획득할 수 있다. 신경망 모델은 차량 이미지에 포함되고 VIN에 대응되는 VIN 영역에 기초하여 차량 식별 정보를 획득할 수 있다. Vehicle identification information may be obtained through a neural network model. The neural network model may obtain vehicle identification information based on the vehicle image. The neural network model may obtain vehicle identification information based on a vehicle front image obtained by photographing the front of the vehicle and/or a vehicle rear image obtained by photographing the rear of the vehicle. The neural network model may obtain vehicle identification information based on a front license plate area included in the vehicle front image and corresponding to the license plate of the vehicle or a rear license plate area included in the vehicle rear image and corresponding to the vehicle license plate. The neural network model may obtain vehicle identification information based on a VIN area included in the vehicle image and corresponding to the VIN.
신경망 모델은 합성곱 신경망을 포함할 수 있다. 신경망 모델은 순환 신경망(RNN; Recurrent Neural Network) 및/또는 장단기 메모리(LSTM; Long Short Term Memory)를 포함할 수 있다. 신경망 모델은 합성곱 신경망을 통하여 차량 이미지로부터 특징 세트를 획득할 수 있다. 신경망 모델은 장단기 메모리 또는 순환 신경망을 통하여, 특징 세트에 기초하여 차량 이미지에 대응되는 차량 식별 정보(예컨대, 차량 번호 또는 VIN)을 획득할 수 있다. The neural network model may include a convolutional neural network. The neural network model may include a recurrent neural network (RNN) and/or a long short term memory (LSTM). The neural network model may obtain a feature set from the vehicle image through a convolutional neural network. The neural network model may acquire vehicle identification information (eg, vehicle number or VIN) corresponding to a vehicle image based on a feature set through a long-term memory or a recurrent neural network.
신경망 모델은 차량 식별 정보를 획득하도록 학습될 수 있다. 신경망 모델은 차량 식별 정보 또는 차량 식별 정보를 구성하는 문자 정보가 라벨링된 차량 이미지를 포함하는 식별 학습 데이터를 이용하여, 차량 이미지에 기초하여 차량 식별 정보를 획득하도록 학습될 수 있다. 신경망 모델은 식별 학습 데이터를 이용하여, 차량 이미지에 기초하여 손상 정보를 획득하도록 지도, 비지도 또는 강화 학습될 수 있다. 신경망 모델은 역전파 방식을 이용하여 학습될 수 있다.A neural network model may be trained to obtain vehicle identification information. The neural network model may be trained to obtain vehicle identification information based on a vehicle image using identification learning data including vehicle identification information or a vehicle image labeled with character information constituting the vehicle identification information. The neural network model may be supervised, unsupervised, or reinforced-learned to obtain damage information based on vehicle images using identification learning data. A neural network model may be trained using a backpropagation method.
식별 정보 학습 데이터는 다양한 환경에서 촬영되고 차량의 식별 정보가 라벨링된 차량 이미지를 포함할 수 있다. 식별 정보 학습 데이터는 야간, 주간, 새벽, 우천, 안개, 강설 등의 환경에서 촬영되고 식별 정보 라벨이 부여된 차량 이미지를 포함할 수 있다. The identification information learning data may include vehicle images photographed in various environments and labeled with vehicle identification information. The identification information learning data may include a vehicle image photographed in an environment such as night, daytime, dawn, rain, fog, or snow and to which an identification information label is attached.
식별 정보 학습 데이터는 차량의 식별 정보에 대응되는 영역이 표시된 차량 이미지를 포함할 수 있다. 식별 정보 학습 데이터는 차량의 식별 정보에 대응되는 영역에 마스킹되고 식별 정보 라벨이 부여된 하나 이상의 이미지를 포함할 수 있다.The identification information learning data may include a vehicle image in which an area corresponding to the identification information of the vehicle is displayed. The identification information learning data may include one or more images to which an identification information label is assigned and masked to a region corresponding to vehicle identification information.
식별 정보 학습 데이터는 차량의 전면을 촬영하여 획득되고 차량의 식별 번호를 나타내는 라벨이 부여된 차량의 전면 이미지 및/또는 차량의 후면을 촬영하여 획득되고 차량의 식별 번호를 나타내는 라벨이 부여된 차량의 후면 이미지를 포함할 수 있다.Identification information learning data is an image of the front of a vehicle obtained by photographing the front of the vehicle and labeled with the identification number of the vehicle and/or an image of the front of the vehicle obtained by photographing the rear of the vehicle and labeled with the identification number of the vehicle. A back image may be included.
식별 정보 학습 데이터는 차량의 식별 정보에 대응되는 영역에 대한 식별 영역 이미지를 포함할 수 있다. 예컨대, 식별 정보 학습 데이터는 차량의 전면 번호판을 촬영하여 획득되고 식별 번호 라벨이 부여된 전면 번호판 이미지, 차량의 후면 번호판을 촬영하여 획득되고 식별 번호 라벨이 부여된 후면 번호판 이미지 및/또는 차량의 VIN을 촬영하여 획득되고 식별 번호(VIN)가 부여된 VIN 이미지를 포함할 수 있다. The identification information learning data may include an identification area image for an area corresponding to vehicle identification information. For example, the identification information learning data is a front license plate image obtained by photographing the front license plate of the vehicle and assigned an identification number label, a rear license plate image obtained by photographing the rear license plate of the vehicle and assigned an identification number label, and/or a VIN of the vehicle. It may include a VIN image obtained by photographing and assigned an identification number (VIN).
일 실시예에 따르면, 차량의 운전자(또는 소유자)를 식별하기 위한 운전자 식별 정보가 획득될 수 있다. 운전자 식별 정보는, 사용자 입력 등의 비-이미지 데이터 또는 운전자의 신분증을 촬영한 이미지 등의 이미지 데이터에 기초하여 획득될 수 있다. 운전자 식별 정보가 이미지 데이터에 기초하여 획득되는 경우, 전술한 알고리즘, 프로그램 또는 신경망 모델이 유사하게 이용될 수 있다.According to one embodiment, driver identification information for identifying the driver (or owner) of the vehicle may be obtained. Driver identification information may be obtained based on non-image data such as user input or image data such as an image of a driver's identification card. When driver identification information is obtained based on image data, the above-described algorithm, program, or neural network model may be similarly used.
차량의 식별 정보 또는 운전자 식별 정보는 각각 차량 또는 운전자의 이력 관리에 이용될 수 있다. 이와 관련하여서는 차량 정보 관리 항목에서 보다 상세히 설명한다.Vehicle identification information or driver identification information may be used for vehicle or driver history management, respectively. This will be described in more detail in the vehicle information management section.
2.3.5 차량 정보 획득 실시예 1 2.3.5 Obtaining
일 실시예에 따르면, 부품 별 손상을 나타내는 부품-손상 정보가 획득될 수 있다. According to an embodiment, part-damage information representing damage for each part may be obtained.
도 22를 참조하면, 부품-손상 정보는 차량 이미지 획득부(221), 부품 정보 획득부(223), 손상 정보 획득부(225) 및 부품-손상 정보 획득부(227)를 포함하는 장치(220)에 의해 획득될 수 있다. 이하에서는 도 22를 참조하여 부품-손상 정보의 획득에 대하여 설명한다. Referring to FIG. 22 , part-damage information is obtained by a vehicle
차량 이미지 획득부(221)는 차량의 외관을 촬영하여 획득된 차량 이미지를 획득할 수 있다. 차량 이미지 획득부(221)는 카메라 모듈을 통하여 차량 이미지를 획득하거나, 외부 장치로부터 차량 이미지를 획득할 수 있다.The vehicle
부품 정보 획득부(223)는 차량 이미지에 기초하여 차량을 구성하는 부품 정보를 획득할 수 있다. 부품 정보 획득부(223)는 입력된 대상 차량 이미지에 포함된 부품의 종류(또는 식별 정보) 및 각 부품에 대응되는 부품 영역 정보를 획득할 수 있다. 부품 정보에 관하여는 부품 정보 획득과 관련하여 설명된 내용이 적용될 수 있다. The parts
손상 정보 획득부(225)는 차량 이미지에 기초하여 차량 외관의 손상과 관련된 손상 정보를 획득할 수 있다. 손상 정보 획득부(225)는 입력된 대상 차량 이미지에 손상 부위가 존재하는지 여부 및/또는 대상 차량 이미지로부터 손상 부위에 대응되는 손상 영역 정보를 획득할 수 있다. 손상 정보에 관하여는 손상 정보 획득과 관련하여 설명된 내용이 적용될 수 있다.The damage
부품-손상 정보 획득부(227)는 부품 정보 및 손상 정보에 기초하여 대상 이미지에 포함된 개별부품 별 손상 정보를 나타내는 부품-손상 정보를 획득할 수 있다. 부품-손상 정보는 대상 이미지에 포함된 개별 부품 별로 손상 부위가 존재하는지 여부, 손상의 개수 및/또는 손상 부위를 나타내는 손상 영역 정보를 포함할 수 있다.The part-damage
예를 들어, 부품-손상 정보 획득부(227)는 부품 정보 및 손상 정보를 획득하고, 부품 영역 정보 및 손상 영역 정보에 기초하여 개별 부품에 대응되는 부품 영역과 중첩되는 손상 영역이 존재하는지 판단할 수 있다. 부품-손상 정보 획득부(227)는 특정 부품에 대응되는 부품 영역과 중첩되는 손상 영역이 존재하는 경우 해당 부품에 손상이 존재함을 지시하는(또는 손상의 수를 나타내는) 부품-손상 정보를 획득할 수 있다. 부품-손상 정보 획득부(227)는 특정 부품에 대응되는 부품 영역과 중첩되는 손상 영역이 존재하는 경우 해당 부품에 존재하는 손상 부위의 위치를 표시하는 부품-손상 영역 정보를 획득할 수 있다.For example, the part-damage
구체적인 예로, 입력된 대상 차량 이미지가 제1 부품 및 제2 부품과 관련되고, 제1 부품은 대상 차량 이미지의 제1 영역과 대응되고 제2 부품은 대상 차량 이미지의 제2 영역과 대응되는 경우, 부품 정보는, 제1 부품 식별 정보, 제2 부품 식별 정보, 제1 부품 식별 정보에 대응되는 제1 영역 및 제2 부품 식별 정보에 대응되는 제2 영역을 포함할 수 있다. 대상 차량의 제1 부품에 손상이 발생된 경우, 손상 정보는 대상 차량 이미지에 손상 영역이 포함됨을 나타내고, 손상 영역의 위치를 나타내는 손상 영역 정보를 포함할 수 있다. 이때, 부품-손상 정보 획득부(227)는, 대상 차량 이미지 내에서 손상 영역 정보를 제1 영역 및 제2 영역과 비교하고, 손상 영역이 보다 많이 중첩되는 제1 영역에 손상이 존재하는 것으로 판단할 수 있다. 부품-손상 정보 획득부(227)는 제1 부품에 손상이 존재함을 지시하는 부품-손상 정보를 획득할 수 있다. As a specific example, when the input target vehicle image is related to a first part and a second part, the first part corresponds to the first area of the target vehicle image and the second part corresponds to the second area of the target vehicle image, The part information may include first part identification information, second part identification information, a first area corresponding to the first part identification information, and a second area corresponding to the second part identification information. When damage occurs to the first part of the target vehicle, the damage information indicates that the target vehicle image includes the damaged area and may include damaged area information indicating the location of the damaged area. At this time, the part-damage
도 23은 일 실시예에 따른 차량 정보의 획득을 설명하기 위한 도면이다. 도 23을 참조하면, 부품 정보 획득부는 차량 이미지(a)에 기초하여, 각 부품에 대응되는 영역 정보를 포함하는 세그멘테이션 이미지(b)를 획득할 수 있다. 손상 정보 획득부는 동일한 차량 이미지(a)에 기초하여, 손상이 위치하는 영역을 나타내는 바운딩 박스(BB) 또는 바운딩 박스(BB)를 포함하는 이미지(c)를 획득할 수 있다. 부품-손상 정보 획득부는 바운딩 박스(BB)의 위치 및 각 부품에 대응되는 세그멘테이션에 기초하여, 부품 별 손상 정보를 획득할 수 있다. 도 23을 참조하면, 부품-손상 정보 획득부는, 바운딩 박스(BB)의 분포 좌표 및 세그멘테이션 정보에 기초하여, 차량의 좌전방 도어 및 좌후방 도어에 손상이 위치하는 것을 나타내는 부품-손상 정보를 획득할 수 있다. 23 is a diagram for explaining acquisition of vehicle information according to an exemplary embodiment. Referring to FIG. 23 , the parts information acquisition unit may acquire a segmentation image (b) including region information corresponding to each part based on the vehicle image (a). The damage information acquisition unit may acquire a bounding box BB indicating a region where damage is located or an image (c) including the bounding box BB, based on the same vehicle image (a). The part-damage information obtaining unit may obtain damage information for each part based on the location of the bounding box BB and the segmentation corresponding to each part. Referring to FIG. 23 , the parts-damage information acquisition unit acquires parts-damage information indicating that damage is located in the left front door and the left rear door of the vehicle based on the distribution coordinates and segmentation information of the bounding box BB. can do.
2.3.6 차량 정보 획득 실시예 2 2.3.6 Vehicle
일 실시예에 따르면, 부품 정보와 손상 정보에 기초하여 부품 별 손상을 나타내는 부품-손상 정보가 획득될 수 있다. According to an embodiment, part-damage information representing damage for each part may be obtained based on the part information and the damage information.
도 24를 참조하면, 부품-손상 정보는 차량 이미지 획득부(241), 부품 정보 획득부(243), 손상 정보 획득부(245) 및 부품-손상 정보 획득부(247)를 포함하는 장치(240)에 의해 획득될 수 있다. 차량 이미지 획득부(241), 부품 정보 획득부(243) 및 손상 정보 획득부(245)에 대하여 특별한 설명이 없는 한 위에서 설명된 내용이 유사하게 적용될 수 있다. 이하에서는 도 24를 참조하여 부품-손상 정보의 획득에 대하여 설명한다. Referring to FIG. 24 , parts-damage information is obtained by a vehicle
부품 정보 획득부(243)는 개별 부품에 대응되는 부품 영역(예를 들어, 부품 영역의 세그멘테이션 또는 바운딩 박스)을 획득할 수 있다. The part
손상 정보 획득부(245)는 차량 이미지에 포함되는 개별 부품에 대응되는 부품 영역에 기초하여, 대상 부품 영역에 손상이 포함되는지 여부, 대상 부품 영역에 포함되는 손상의 종류, 수를 나타내는 손상 정보 및/또는 대상 부품 영역 중 손상이 위치하는 손상 영역 정보를 획득할 수 있다. 손상 정보 획득부(245)는 개별 부품 영역 별로 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여, 개별 부품 별 손상 정보를 획득할 수 있다. The damage
부품-손상 정보 획득부(247)는 개별 부품 별 손상과 관련된 손상 정보에 기초하여, 대상 이미지에 따른 부품-손상 정보를 획득할 수 있다. 부품-손상 정보는 대상 이미지에 포함된 개별 부품 별로 손상 부위가 존재하는지 여부, 손상의 개수 및/또는 손상 부위를 나타내는 손상 영역 정보를 포함할 수 있다.The part-damage
구체적인 예로, 입력된 대상 차량 이미지가 제1 부품 및 제2 부품과 관련되고, 제1 부품은 대상 차량 이미지의 제1 영역과 대응되고 제2 부품은 대상 차량 이미지의 제2 영역과 대응되는 경우, 부품 정보는, 제1 부품 식별 정보, 제2 부품 식별 정보, 제1 부품 식별 정보에 대응되는 제1 영역 및 제2 부품 식별 정보에 대응되는 제2 영역을 포함할 수 있다. 대상 차량의 제1 부품에 손상이 발생된 경우, 손상 정보 획득부(245)는, 제1 영역에 손상이 위치함을 나타내는 제1 손상 정보 및 제1 영역에 포함되는 손상 영역의 위치를 나타내는 제1 손상 영역 정보를 획득할 수 있다. 손상 정보 획득부는 제2 부품에 손상이 존재하지 아니함을 나타내는 손상 정보를 획득할 수 있다. 부품-손상 정보 획득부(247)는, 손상 정보 및 손상 영역 정보에 기초하여, 제1 부품 및 제2 부품에 대한 부품-손상 정보를 획득할 수 있다.As a specific example, when the input target vehicle image is related to a first part and a second part, the first part corresponds to the first area of the target vehicle image and the second part corresponds to the second area of the target vehicle image, The part information may include first part identification information, second part identification information, a first area corresponding to the first part identification information, and a second area corresponding to the second part identification information. When damage occurs to the first part of the target vehicle, the damage
2.3.7 차량 정보 획득 실시예 3 2.3.7 Obtaining
일 실시예에 따르면, 부품 정보와 손상 정보에 기초하여 부품 별 손상을 나타내는 부품-손상 정보가 획득될 수 있다. According to an embodiment, part-damage information representing damage for each part may be obtained based on the part information and the damage information.
도 25를 참조하면, 부품-손상 정보는 차량 이미지 획득부(251), 차종 정보 획득부(253), 부품 정보 획득부(255), 손상 정보 획득부(257) 및 부품-손상 정보 획득부(259)를 포함하는 장치(250)에 의해 획득될 수 있다. 차량 이미지 획득부(251), 부품 정보 획득부(253) 및 손상 정보 획득부(255)에 대하여 특별한 설명이 없는 한 위에서 설명된 내용이 유사하게 적용될 수 있다. 이하에서는 도 25를 참조하여 부품-손상 정보의 획득에 대하여 설명한다. Referring to FIG. 25, parts-damage information is obtained by a vehicle
차종 정보 획득부(253)는 차량 이미지에 기초하여 대상 차량의 차종과 관련된 차종 정보를 획득할 수 있다. 차종 정보 획득부(253)는 사용자 입력 또는 미리 저장된 데이터베이스를 통하여 획득될 수도 있다. The vehicle model
부품 정보 획득부(255)는 차종 정보에 기초하여 부품 정보를 획득할 수 있다. 부품 정보 획득부는 차종 정보와 차량 이미지를 함께 고려하여 부품 정보를 획득할 수 있다. 부품 정보 획득부(255)는 차종 정보를 추가 입력으로 이용하고 차량 이미지에 기초하여 특징 세트를 획득하는 신경망 모델을 이용하여 부품 정보를 획득할 수 있다. 부품 정보 획득부(255)는 차종 별로 미리 마련된 부품 정보 및/또는 부품 영역 정보를 이용하여 차량 이미지와 부품 영역 정보를 맵핑함으로써 부품 정보 및/또는 부품 영역 정보를 획득할 수 있다. The parts
일반적으로, 차종 별로 차량을 구성하는 부품이 달라지는 경향이 있어, 차종을 함께 고려하여 부품 또는 부품 영역을 판단할 경우, 정확도가 향상될 수 있다. 한편, 여기에서는 차종 정보가 차량 이미지에 기초하여 획득되는 경우를 기준으로 설명하였으나, 차종 정보는 사용자 입력 또는 미리 저장된 데이터 등으로부터 획득될 수도 있다. In general, since parts constituting a vehicle tend to be different for each vehicle type, accuracy may be improved when a part or a part region is determined in consideration of the vehicle model. Meanwhile, although vehicle type information is obtained based on a vehicle image, the vehicle type information may be obtained from a user input or pre-stored data.
부품-손상 정보 획득부(257)는 부품 정보 및 손상 정보에 기초하여 부품-손상 정보를 획득할 수 있다. 부품-손상 정보의 획득과 관련하여서는, 도 22 및 23과 관련하여 전술한 내용이 유사하게 적용될 수 있다. The part-damage
2.4 차량 정보 관리2.4 Vehicle information management
차량 관리 프로세스는 차량 정보를 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 전술한 부품 정보, 손상 정보, 차량 종류 정보 및/또는 식별 정보를 관리하는 것을 포함할 수 있다. The vehicle management process may include managing vehicle information. Managing vehicle information may include managing the aforementioned parts information, damage information, vehicle type information, and/or identification information.
차량 정보를 관리하는 것은 차량 정보를 시계열적으로 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 차량 정보를 분류하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 하나 이상의 정보를 연관하여 관리하는 것을 포함할 수 있다.Managing vehicle information may include time-sequentially managing vehicle information. Managing vehicle information may include classifying vehicle information. Managing vehicle information may include managing one or more pieces of information in association with each other.
이하에서는 차량 정보의 관리에 대하여 몇몇 실시예를 들어 설명한다. Hereinafter, management of vehicle information will be described with reference to some embodiments.
2.4.1 이력 관리2.4.1 History management
차량 정보를 관리하는 것은 차량 정보를 이력 관리하는 것을 포함할 수 있다. 차량 정보를 이력 관리하는 것은 서로 다른 시점에 획득된 하나 이상의 차량 정보를 시계열적으로 나열 및/또는 관리하는 것을 의미할 수 있다. Managing vehicle information may include history management of vehicle information. History management of vehicle information may mean time-sequential listing and/or management of one or more pieces of vehicle information obtained at different times.
차량 정보를 관리하는 것은 하나 이상의 부품 정보에 기초하여, 부품 정보를 시계열적으로 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 개별 부품 별로, 해당 부품의 교체, 결손, 손상 등을 나타내는 부품 정보를 각 부품 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 차량 정보를 관리하는 것은 제1 시점에 제1 부품이 파손되었음을 나타내는 제1 정보를 획득하고, 제1 시점 이후인 제2 시점에 제1 부품이 교체되었음을 나타내는 제2 정보를 획득하고, 제1 정보 및 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다. 제1 정보 또는 제2 정보는 차량 이미지에 기초하여 획득될 수 있다. Managing vehicle information may include time-sequentially managing part information based on one or more parts information. Managing vehicle information may mean managing part information indicating replacement, defect, damage, etc. of the corresponding part for each individual part along with time information indicating a time when each part information was acquired. For example, managing vehicle information may include obtaining first information indicating that a first part is damaged at a first time point, obtaining second information indicating that the first part has been replaced at a second time point after the first time point, and It may include managing first information and second information in chronological order. The first information or the second information may be obtained based on the vehicle image.
차량 정보를 관리하는 것은 하나 이상의 손상 정보에 기초하여 손상 정보(또는 부품-손상 정보)를 시계열적으로 관리하는 것을 포함할 수 있다. 차량 관리 프로세스는 특정 차량에 대하여, 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 차량 정보를 관리하는 것은 제1 시점에 제1 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 시점 이후인 제2 시점에 제1 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 정보 및 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다. 제1 정보 또는 제2 정보는 차량 이미지에 기초하여 획득될 수 있다. 제1 정보 또는 제2 정보는 각 손상에 대응되는 영역 정보를 포함할 수 있다. Managing vehicle information may include time-sequentially managing damage information (or part-damage information) based on one or more pieces of damage information. The vehicle management process may mean managing damage information representing damage to a specific vehicle together with time information representing a time when the damage information was acquired. For example, managing vehicle information acquires first information indicating that a first damage has occurred to a first vehicle at a first time point, and second damage has occurred to the first vehicle at a second time point after the first time point. It may include obtaining second information indicating, and managing the first information and the second information in chronological order. The first information or the second information may be obtained based on the vehicle image. The first information or the second information may include area information corresponding to each damage.
차량 정보를 관리하는 것은 하나 이상의 이미지에 기초하여 손상 정보를 시계열적으로 관리하는 것을 포함할 수 있다. 예컨대, 차량 정보를 관리하는 것은 제1 시점에 획득된 제1 차량 이미지에 기초하여 획득된 제1 손상 정보 및 제1 시점 이후인 제2 시점에 획득된 제2 차량 이미지에 기초하여 획득된 제2 손상 정보를 시간을 고려하여 관리하는 것을 포함할 수 있다. Managing vehicle information may include time-sequentially managing damage information based on one or more images. For example, managing vehicle information may include first damage information obtained based on a first vehicle image obtained at a first point in time and second damage information obtained based on a second vehicle image obtained at a second point in time after the first point in time. It may include managing damage information in consideration of time.
차량 정보를 관리하는 것은 사용자 정보를 고려하여 수행될 수 있다. 예컨대, 차량 정보를 관리하는 것은, 제1 사용자에 의해 제1 시점에 촬영된 제1 차량 이미지에 기초하여 획득된 제1 손상 정보 및 제1 사용자에 의해 제2 시점에 촬영된 제2 차량 이미지에 기초하여 획득된 제2 손상 정보를 시간을 고려하여 관리하는 것을 포함할 수 있다. Managing vehicle information may be performed in consideration of user information. For example, managing vehicle information may include first damage information obtained based on a first vehicle image taken at a first time by a first user and a second vehicle image taken at a second time by a first user. It may include managing the second damage information obtained based on the time in consideration.
사용자 정보를 고려하여 차량 정보를 관리하는 것은, 이하의 온-사이트 차량 관리 프로세스 및 모바일 베이스 차량 관리 프로세스에서 보다 상세히 설명한다.Managing vehicle information in consideration of user information is described in more detail in the following on-site vehicle management process and mobile-based vehicle management process.
2.4.2 손상 이력 관리 실시예 1 - 신규 손상2.4.2 Damage History Management Example 1 - New Damage
손상 정보의 이력 관리는 새롭게 발생한 신규 손상에 대한 신규 손상 정보를 획득하는 것을 포함할 수 있다. 손상 정보의 이력 관리는 동일한 차량을 다양한 시점에 촬영하여 획득된 복수의 이미지에 기초하여, 신규 손상 정보를 획득하는 것을 포함할 수 있다.History management of damage information may include acquiring new damage information for newly occurring new damage. History management of damage information may include obtaining new damage information based on a plurality of images obtained by photographing the same vehicle at various times.
신규 손상 정보는 복수의 손상 정보에 기초하여 획득될 수 있다. 신규 손상 정보는 제1 시점에 대응되는 제1 손상 정보 및 제1 시점 이후인 제2 시점에 대응되는 제2 손상 정보에 기초하여 획득될 수 있다. New damage information may be obtained based on a plurality of pieces of damage information. New damage information may be obtained based on first damage information corresponding to the first time point and second damage information corresponding to a second time point after the first time point.
신규 손상 정보는 새롭게 발생한 손상의 개수, 정도, 위치(예컨대, 좌표) 등을 포함할 수 있다. The new damage information may include the number, degree, location (eg, coordinates) of newly generated damage.
신규 손상 정보는 제1 차량에 대하여 제1 시점에 촬영된 제1 이미지에 기초하여 획득된 제1 손상 정보 및 제1 차량에 대하여 제1 시점 이후인 제2 시점에 촬영된 제2 이미지에 기초하여 획득된 제2 손상 정보에 기초하여 획득될 수 있다. 신규 손상 정보는 제1 시점 이후 및 제2 시점 이전에 제1 차량에 새롭게 발생한 손상에 대한 정보를 포함할 수 있다. 예컨대, 신규 손상 정보는 제1 손상 정보에 따른 손상의 개수(또는 정도)와 제2 손상 정보에 따른 손상의 개수에 기초하여 획득된 새로이 발생한 손상의 수를 포함할 수 있다. 제1 이미지 및 제2 이미지는 차량을 동일한(또는 유사한)방향으로 촬영하여 획득된 이미지일 수 있다. The new damage information is based on first damage information acquired based on a first image taken at a first time point with respect to the first vehicle and a second image taken at a second time point after the first time point with respect to the first vehicle. It may be obtained based on the obtained second damage information. The new damage information may include information on newly occurring damage to the first vehicle after the first time point and before the second time point. For example, the new damage information may include the number (or degree) of damage according to the first damage information and the number of newly occurring damages obtained based on the number of damages according to the second damage information. The first image and the second image may be images obtained by photographing the vehicle in the same (or similar) direction.
신규 손상 정보는 차량 이미지 내의 신규 손상에 대응되는 영역의 위치, 크기, 분포 등을 포함할 수 있다. The new damage information may include a location, size, distribution, and the like of a region corresponding to the new damage in the vehicle image.
신규 손상 정보는 제1 차량에 대하여 제1 시점에 촬영된 제1 이미지에 기초하여 획득된 제1 손상 영역 정보 및 제1 차량에 대하여 제1 시점 이후인 제2 시점에 촬영된 제2 이미지에 기초하여 획득된 제2 손상 영역 정보에 기초하여 획득될 수 있다. 신규 손상 정보는 제1 손상 영역 정보 및 제2 손상 영역 정보에 기초하여, 제1 시점 이후 및 제2 시점 이전에 제1 차량에 새롭게 발생한 손상 영역의 차량 이미지 내에서의 위치, 크기 내지 분포에 대한 정보를 포함할 수 있다. The new damage information is based on first damage area information acquired based on a first image taken at a first time point with respect to the first vehicle and a second image taken at a second time point subsequent to the first time point with respect to the first vehicle. It may be obtained based on the second damaged area information obtained by doing. Based on the first damage area information and the second damage area information, the new damage information is about the location, size, or distribution of a damage area newly generated in the first vehicle after the first time point and before the second time point in the vehicle image. information may be included.
신규 손상 정보는 부품 별로 획득될 수도 있다. 신규 손상 정보는 개별 부품에 대하여 새롭게 발생한 손상의 개수, 정도, 위치(예컨대, 좌표), 대응되는 영역의 위치, 크기, 분포 등을 포함할 수 있다. 신규 손상 정보를 부품 별로 독립적으로 관리함으로써 개별 부품 별 상태 관리가 용이해질 수 있다. New damage information may be obtained for each part. The new damage information may include the number, degree, location (eg, coordinates), and location, size, distribution, and the like of a corresponding area of the newly generated damage to an individual part. By independently managing new damage information for each part, state management for each individual part can be facilitated.
신규 손상 정보는 제1 차량에 대하여 제1 시점에 촬영된 제1 이미지에 기초하여 획득된 제1 부품에 대한 제1 손상 정보 및 제1 차량에 대하여 제1 시점 이후인 제2 시점에 촬영된 제2 이미지에 기초하여 획득된 제1 부품에 대한 제2 손상 정보에 기초하여 획득될 수 있다. 신규 손상 정보는 제1 손상 정보 및 제2 손상 정보에 기초하여, 제1 시점 이후 및 제2 시점 이전에 제1 부품에 새로이 발생한 손상의 수, 크기, 위치 등을 나타낼 수 있다. The new damage information is first damage information on a first part acquired based on a first image captured at a first time point with respect to the first vehicle and a second damage information taken at a second time point after the first time point with respect to the first vehicle. It may be obtained based on the second damage information for the first part obtained based on the 2 images. Based on the first damage information and the second damage information, the new damage information may represent the number, size, location, and the like of newly occurring damage to the first part after the first time point and before the second time point.
도 26은 일 실시예에 따른 신규 손상 정보를 설명하기 위한 도면이다. 도 26을 참조하면, 제1 시점에 획득된 제1 차량 이미지(a) 및 제2 시점에 촬영된 제2 차량 이미지(b)에 기초하여 신규 손상 정보가 획득될 수 있다. 26 is a diagram for explaining new damage information according to an embodiment. Referring to FIG. 26 , new damage information may be obtained based on a first vehicle image (a) obtained at a first point of view and a second vehicle image (b) taken at a second point in time.
제1 차량 이미지에 기초하여 차량에 1개의 손상이 존재함을 나타내는 제1 손상 정보가 획득되고, 제2 차량 이미지에 기초하여 차량에 2개의 손상이 존재함을 나타내는 제2 손상 정보가 획득될 수 있다. 제1 손상 정보 및 제2 손상 정보에 기초하여, 하나의 신규 손상(후방 휀더의 B2)이 발생하였음을 나타내는 신규 손상 정보가 획득될 수 있다. First damage information indicating that there is one damage to the vehicle may be obtained based on the first vehicle image, and second damage information indicating that there are two damage to the vehicle may be obtained based on the second vehicle image. there is. Based on the first damage information and the second damage information, new damage information indicating that one new damage (B2 of the rear fender) has occurred can be obtained.
제1 차량 이미지(a)에 기초하여 제1 손상 영역 정보(B1)를 포함하는 제1 손상 정보가 획득될 수 있다. 제2 차량 이미지(b)에 기초하여 제1 손상 영역 정보(B1) 및 제2 손상 영역 정보(B2)를 포함하는 제2 손상 정보가 획득될 수 있다. 제1 손상 정보 및 제2 손상 정보에 기초하여, 제1 시점 이후 및 제2 시점 이전에 발생된 차량 후방 휀더의 손상을 신규 손상으로 판단할 수 있다. 신규 손상 정보 후방 휀더의 손상에 대응되는 제2 손상 영역 정보를 포함할 수 있다. First damage information including first damage area information B1 may be obtained based on the first vehicle image (a). Second damage information including first damage area information B1 and second damage area information B2 may be obtained based on the second vehicle image (b). Based on the first damage information and the second damage information, damage to the rear fender of the vehicle that occurs after the first time point and before the second time point may be determined as new damage. The new damage information may include second damage area information corresponding to the damage of the rear fender.
2.4.3 손상 이력 관리 실시예 2 - 손상 중첩 2.4.3 Damage History Management Example 2 - Damage Superposition
새로 발생한 손상이 기존 손상과 적어도 일부 중첩되는 경우가 발생할 수 있다. 이러한 경우, 새로 손상이 발생하였음에도 불구하고 손상의 개수가 변경되지 않을 수 있다. 특히, 신규 손상 영역이 기존 손상 영역에 포함되거나 기존 손상 영역이 신규 손상 영역에 포함되는 경우 이러한 문제가 발생할 수 있다. 이러한 경우에도 사용자에게 신규 손상이 발생하였음을 고지하기 위한 수단이 요구된다.There may be cases in which the newly occurred damage overlaps with the existing damage at least partially. In this case, the number of damages may not change even though new damages have occurred. In particular, this problem may occur when a new damaged area is included in an existing damaged area or an existing damaged area is included in a new damaged area. Even in this case, a means for notifying the user that new damage has occurred is required.
도 27은 기존 손상과 중첩되는 신규 손상이 발생한 경우의 손상 이력 관리를 설명하기 위한 도면이다. 기존 손상과 중첩되는 신규 손상이 발생한 경우의 손상 이력은 손상 부위의 위치, 크기, 좌표 등을 이용하여 획득될 수 있다.27 is a diagram for explaining damage history management when new damage overlaps with existing damage. When new damage overlaps with existing damage, the damage history may be acquired using the location, size, coordinates, and the like of the damaged part.
도 27을 참조하면, 손상 이력을 관리하는 것은, 제1 시점에 촬영된 제1 차량 이미지(a)를 획득하고 제1 차량 이미지(a)에 기초하여 제1 손상 영역 정보(B1)를 포함하는 제1 손상 정보를 획득하는 것을 포함할 수 있다. 손상 이력을 관리하는 것은 제1 시점 이후인 제2 시점에 촬영된 제2 차량 이미지(b)를 획득하고 제2 차량 이미지(b)에 기초하여 제2 손상 영역 정보(B2)를 포함하는 제2 손상 정보를 획득하는 것을 포함할 수 있다. Referring to FIG. 27 , managing the damage history includes acquiring a first vehicle image (a) photographed at a first point in time and including first damage area information (B1) based on the first vehicle image (a). It may include obtaining first damage information. Managing the damage history is to obtain a second vehicle image (b) photographed at a second point in time after the first point in time and to obtain a second vehicle image (b) based on the second damaged area information (B2). It may include obtaining damage information.
도 27을 참조하면, 제2 손상 영역 정보(B2)는 제1 손상 영역 정보(B1)와 중첩될 수 있다. 제1 손상 영역 정보(B1)는 제2 손상 영역 정보(B1)에 포함될 수 있다. 제1 손상 영역 정보(B1)가 제2 손상 영역 정보(B1)와 적어도 일부 중첩되는 경우, 제1 손상 정보에 따른 손상의 개수 및 제2 손상 정보에 따른 손상의 개수는 동일할 수 있다. Referring to FIG. 27 , second damaged area information B2 may overlap first damaged area information B1. The first damaged area information B1 may be included in the second damaged area information B1. When the first damage area information B1 overlaps at least a portion of the second damage area information B1, the number of damages according to the first damage information and the number of damages according to the second damage information may be the same.
신규 손상 정보는 제2 손상 영역 정보(B2) 및 제1 손상 영역 정보(B1)의 차이에 기초하여 획득될 수 있다. 신규 손상 정보는 제2 손상 영역 정보(B2)에 따른 제2 손상 영역(제2 바운딩 박스)의 크기 및 제1 손상 영역(제1 바운딩 박스)의 크기의 차이에 기초하여 획득될 수 있다. 신규 손상 정보는 제2 손상 영역(제2 바운딩 박스)의 위치(예컨대, 중심점의 좌표) 및 제1 손상 영역(제1 바운딩 박스)의 위치(예컨대, 중심점의 좌표)의 차이에 기초하여 획득될 수 있다. 신규 손상 정보는 제2 손상 영역(제2 바운딩 박스)의 모서리의 좌표 및 제1 손상 영역(제2 바운딩 박스)의 모서리의 좌표의 차이에 기초하여 획득될 수 있다. New damage information may be obtained based on a difference between the second damage area information B2 and the first damage area information B1. The new damage information may be obtained based on a difference between the size of the second damaged area (second bounding box) and the size of the first damaged area (first bounding box) according to the second damaged area information B2. New damage information may be obtained based on a difference between the position (eg, center point coordinates) of the second damaged area (second bounding box) and the position (eg, center point coordinates) of the first damaged area (first bounding box). can New damage information may be obtained based on a difference between coordinates of corners of the second damaged region (second bounding box) and coordinates of corners of the first damaged region (second bounding box).
2.5 차량 정보 출력 및 차량 정보 출력 인터페이스2.5 Vehicle information output and vehicle information output interface
차량 관리 시스템은 차량 정보를 출력할 수 있다. 차량 정보는 디스플레이를 구비하는 사용자 단말, 관리자 장치 등을 통하여 출력될 수 있다. The vehicle management system may output vehicle information. Vehicle information may be output through a user terminal having a display, a manager device, and the like.
2.5.1 출력되는 정보 2.5.1 Output Information
차량 관리 시스템은 획득된 차량 정보 및/또는 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. The vehicle management system may output acquired vehicle information and/or auxiliary information obtained based on the vehicle information.
차량 관리 시스템은 부품 정보, 손상 정보, 차량 종류 정보, 식별 정보 등의 차량 정보를 출력할 수 있다. 차량 관리 시스템은 사용자 정보 및/또는 위치 정보를 함께 출력할 수 있다. The vehicle management system may output vehicle information such as parts information, damage information, vehicle type information, and identification information. The vehicle management system may output user information and/or location information together.
차량 관리 시스템은 차량 이미지 및 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 차량 관리 시스템은 복수의 차량 이미지 및 각 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 복수의 차량 이미지는 차량에 대하여 다양한 각도에서 촬영된 이미지일 수 있다. The vehicle management system may output a vehicle image and vehicle information corresponding to the vehicle image. The vehicle management system may output a plurality of vehicle images and vehicle information corresponding to each vehicle image. The plurality of vehicle images may be images taken from various angles with respect to the vehicle.
차량 관리 시스템은 차량 이미지 및 해당 이미지의 차량에 대한 촬영 방향을 나타내는 방향 지시자를 함께 출력할 수 있다. 촬영 방향은 차량 이미지에 기초하여 획득될 수 있다. 차량을 촬영한 방향은 사용자의 입력을 통하여 획득될 수도 있다. The vehicle management system may output a vehicle image and a direction indicator indicating a photographing direction of the image of the vehicle. A photographing direction may be obtained based on the vehicle image. The direction in which the vehicle is photographed may be obtained through a user's input.
도 28은 일 실시예에 따른 출력 화면을 설명하기 위한 도면이다. 28 is a diagram for explaining an output screen according to an exemplary embodiment.
도 28을 참조하면, 일 실시예에 따른 출력 화면은 차량 이미지 표시부(CI), 차량 이미지의 촬영 방향을 나타내는 방향 지시자(DI), 차량과 관련된 비-이미지 정보 표시부(IF), 차량의 손상 정보를 나타내는 손상 정보 테이블(DT)을 포함할 수 있다.Referring to FIG. 28 , an output screen according to an embodiment includes a vehicle image display unit (CI), a direction indicator (DI) indicating a capturing direction of a vehicle image, a non-image information display unit (IF) related to the vehicle, and vehicle damage information. It may include a damage information table (DT) indicating.
차량 이미지 표시부(CI)는 노이즈가 제거된 이미지를 표시할 수 있다. 차량 이미지 표시부(CI)는 손상 영역 정보를 표시될 수 있다. 손상 영역 정보는 기존 손상 영역(ED) 및 신규 손상 영역(ND)을 포함할 수 있다. 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 달리 표시될 수 있다. 도 28을 참조하면, 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 다른 색상 또는 서로 다른 형태의 바운딩 박스로 표시될 수 있다. The vehicle image display unit CI may display an image from which noise is removed. The vehicle image display unit CI may display damaged area information. The damaged area information may include an existing damaged area ED and a new damaged area ND. The existing damaged area ED and the new damaged area ND may be displayed differently. Referring to FIG. 28 , the existing damaged area ED and the new damaged area ND may be displayed as bounding boxes of different colors or shapes.
방향 지시자(DI)는 표시되고 있는 차량 이미지의 촬영 방향을 나타낼 수 있다. 도 28을 참조하면, 방향 지시자(DI)는 차량의 좌측 방향을 지시하고, 차량 이미지 표시부(CI)는 차량의 좌측에서 촬영된 차량 이미지를 표시할 수 있다. 방향 지시자(DI)에 의해 지시되는 복수의 방향 각각에 대하여 서로 다른 방향에서 촬영된 차량 이미지가 대응될 수 있다. 방향 지시자(DI)의 방향을 선택하는 사용자 입력에 응답하여 대응되는 차량 이미지가 표시될 수 있다. The direction indicator DI may indicate a photographing direction of a displayed vehicle image. Referring to FIG. 28 , the direction indicator DI may indicate the left direction of the vehicle, and the vehicle image display unit CI may display a vehicle image captured from the left side of the vehicle. Vehicle images photographed in different directions may correspond to each of a plurality of directions indicated by the direction indicator DI. A corresponding vehicle image may be displayed in response to a user input for selecting a direction of the direction indicator DI.
비-이미지 정보 표시부(IF)는 차량과 관련된 비-이미지 정보를 표시할 수 있다. 도 28을 참조하면, 비-이미지 정보 표시부(IF)는 차량 이미지가 촬영된 시점, 차량의 번호, 차량의 VIN, 차량의 모델 등을 표시할 수 있다. The non-image information display unit IF may display non-image information related to the vehicle. Referring to FIG. 28 , the non-image information display unit IF may display a time point at which a vehicle image was captured, a vehicle number, a vehicle VIN, a vehicle model, and the like.
손상 정보 테이블(DT)은 차량 이미지에 대응되는 부품 별로 손상의 수를 나타낼 수 있다. 이미지에 대응되는 부품은 현재 표시되고 있는 차량 이미지의 방향에 대응되는 부품을 의미할 수 있다. 예컨대, 도 28에서는 차량의 좌측을 촬영한 이미지가 표시되고 있으므로, 손상 정보 테이블(DT)은 차량의 좌측에 위치된 부품에 대한 부품 별 손상의 수를 나타낼 수 있다. 부품 별 손상의 수는 부품별 기존 손상의 수 및 신규 손상의 수(+로 구분됨)를 포함할 수 있다. 도 28을 참조하면, 손상 정보 테이블(DT)은 좌전방 도어, 좌측 도어 핸들, 좌후방 휀더에 기존 손상이 존재하며, 좌전방 도어 및 좌후방 휀더에 신규 손상이 존재함을 나타낼 수 있다. The damage information table DT may indicate the number of damages for each part corresponding to the vehicle image. The part corresponding to the image may refer to a part corresponding to the direction of the currently displayed vehicle image. For example, since an image obtained by photographing the left side of the vehicle is displayed in FIG. 28 , the damage information table DT may indicate the number of damages for each part for the parts located on the left side of the vehicle. The number of damages per part may include the number of existing damages and the number of new damages (separated by +) per part. Referring to FIG. 28 , the damage information table DT may indicate that existing damage exists on the left front door, left door handle, and left rear fender, and new damage exists on the left front door and left rear fender.
한편, 손상 정보 테이블(DT)은 손상 정보 표시부의 일 실시예일 뿐이며, 기존 손상 또는 신규 손상에 대한 정보는 다른 형태로 표시될 수도 있다.Meanwhile, the damage information table DT is only one embodiment of the damage information display unit, and information on existing damage or new damage may be displayed in other forms.
일 실시예에 따르면, 차량 관리 시스템은 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 보조 정보는 차량 정보에 기초하여 획득되고 차량 관리를 보조하기 위한 정보일 수 있다. According to one embodiment, the vehicle management system may output auxiliary information obtained based on vehicle information. Auxiliary information is obtained based on vehicle information and may be information for assisting vehicle management.
보조 정보는 손상 정보에 따른 손상의 정도에 따라 결정될 수 있다. 예컨대, 보조 정보는 손상 정도에 따라 차량의 수리, 도색, 일부 부품의 교체 등 필요한 조치를 지시할 수 있다. The auxiliary information may be determined according to the degree of damage according to the damage information. For example, the auxiliary information may instruct necessary measures such as vehicle repair, painting, and replacement of some parts according to the degree of damage.
보조 정보는 수리비 정보를 포함할 수 있다. 수리비 정보는 손상 정보에 기초하여 획득될 수 있다. 수리비 정보는 손상 정보에 기초하여 차량의 손상에 따라 적절히 수리 조치하는데 소요되는 비용의 추정치를 포함할 수 있다. The auxiliary information may include repair cost information. Repair cost information may be obtained based on damage information. The repair cost information may include an estimate of a cost required to properly repair the vehicle based on the damage information.
보조 정보는 보험 관련 정보를 포함할 수 있다. 보조 정보는 미리 저장된 보험 데이터에 기초하여 결정된 보험 청구 정보를 포함할 수 있다. Auxiliary information may include insurance-related information. The auxiliary information may include insurance claim information determined based on pre-stored insurance data.
2.5.2 차량 정보 출력 실시예 1 - 복수 이미지 이용시 출력 이미지 선택2.5.2 Vehicle information output Embodiment 1 - Selection of output image when using multiple images
일 실시예에 따르면, 차량 정보 획득을 위하여 복수의 차량 이미지가 이용될 수 있다. 예컨대, 2.2.3에서 전술한 바와 같이 차량 이미지의 노이즈 제거를 위하여 복수의 이미지가 사용되는 경우가 있을 수 있다. 이와 같이 복수의 이미지를 이용하여 얻어진 차량 정보를 출력하는 경우에, 복수의 이미지 중 어느 이미지를 기준으로 하여 차량 정보를 출력할지에 대하여 살펴본다.According to an embodiment, a plurality of vehicle images may be used to obtain vehicle information. For example, as described above in 2.2.3, there may be a case in which a plurality of images are used to remove noise of a vehicle image. In the case of outputting vehicle information obtained by using a plurality of images as described above, it will be examined which image among the plurality of images is used as a reference to output the vehicle information.
복수의 이미지를 이용하여 차량의 손상 정보(또는 부품-손상 정보)가 획득된 경우, 차량 이미지와 획득된 손상 정보, 특히 손상 영역 정보가 중첩되어 사용자에게 제공될 수 있다. 이때, 손상 영역 정보가 중첩되는 차량 이미지는 복수의 이미지 중 어느 하나일 수 있다. 손상 영역 정보가 중첩되는 차량 이미지는 복수의 이미지에 기초하여 생성된 이미지일 수 있다. When vehicle damage information (or part-damage information) is obtained using a plurality of images, the vehicle image and the acquired damage information, particularly damage area information, may be overlapped and provided to the user. In this case, the vehicle image on which the damaged area information is overlapped may be any one of a plurality of images. The vehicle image on which the damaged area information is overlapped may be an image generated based on a plurality of images.
도 29는 일 실시예에 따른 손상 영역 정보의 표시를 설명하기 위한 도면이다. 도 29의 (a), (b) 및 (c)을 참조하면, 도 7에서 설명한 것과 동일하게, 배경 등의 노이즈 제거를 위한 처리가 수행될 수 있다. 도 29의 (d)를 참조하면, 차량의 손상 부위에 대응되는 바운딩 박스(BB)가 중첩된 차량 이미지가 제공될 수 있다. 바운딩 박스(BB)가 중첩되는 차량 이미지는 복수의 차량 이미지 (a), (b) 및 (c)에 기초하여 생성된 배경이 제거된 차량 이미지일 수 있다. 또는, 바운딩 박스(BB)가 중첩되는 차량 이미지는 복수의 차량 이미지 (a), (b) 및 (c) 중 차량의 위치가 프레임 중앙에 가까운 이미지일 수 있다. 또는, 또는, 바운딩 박스(BB)가 중첩되는 차량 이미지는 복수의 차량 이미지 (a), (b) 및 (c) 중 차량의 표시 비율이 가장 높은 이미지일 수 있다. 차량의 표시 비율은 차량의 전체 외면 중 이미지에 표시된 영역의 비율을 의미할 수 있다. 29 is a diagram for explaining display of damaged area information according to an exemplary embodiment. Referring to (a), (b) and (c) of FIG. 29 , processing for removing noise such as a background may be performed in the same manner as described in FIG. 7 . Referring to (d) of FIG. 29 , a vehicle image in which a bounding box BB corresponding to a damaged part of the vehicle is overlapped may be provided. The vehicle image overlapping the bounding boxes BB may be a vehicle image from which a background is removed, which is generated based on a plurality of vehicle images (a), (b), and (c). Alternatively, the vehicle image overlapping the bounding boxes BB may be an image in which the location of the vehicle is close to the center of the frame among the plurality of vehicle images (a), (b), and (c). Alternatively, the vehicle image overlapping the bounding boxes BB may be an image having the highest vehicle display ratio among the plurality of vehicle images (a), (b), and (c). The display ratio of the vehicle may refer to the ratio of the area displayed on the image to the total outer surface of the vehicle.
도 29에서는 복수의 이미지에 기초하여 배경 제거를 위한 노이즈 제거 처리를 수행하는 경우를 기준으로 설명하였으나, 이는 차량 내의 반사광 제거를 위한 노이즈 제거 처리가 수행되는 경우에도 유사하게 적용될 수 있다. 반사광 제거를 위한 노이즈 제거 처리의 경우, 반사광이 제거된 이미지에 손상 영역 정보가 중첩되어 출력될 수 있다.In FIG. 29 , a case in which noise removal processing for background removal is performed based on a plurality of images has been described, but this may be similarly applied to a case in which noise removal processing for removing reflected light in a vehicle is performed. In the case of noise removal processing for removing reflected light, damage area information may be superimposed on an image from which reflected light is removed and then output.
3. 온-사이트 차량 관리 시스템3. On-site fleet management system
3.1 온-사이트 시스템3.1 On-site system
일 실시예에 따르면, 온-사이트(On-site)에서 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 시스템이 제공될 수 있다.According to one embodiment, a vehicle management system for managing a state of a vehicle using an image of a vehicle captured on-site may be provided.
도 34는 온-사이트 차량 관리 시스템의 구성을 설명하기 위한 도면이다.34 is a diagram for explaining the configuration of an on-site vehicle management system.
도 34를 참조하면, 일 실시예에 따른 온-사이트 차량 관리 시스템은 관리장치(341), 카메라 모듈(343) 및 감지수단(345)을 포함할 수 있다.Referring to FIG. 34 , the on-site vehicle management system according to an embodiment may include a
관리장치(341)는 카메라 모듈(343) 및 감지수단(345)과 연결되어, 상기 카메라 모듈(343) 및 감지수단(345)을 제어할 수 있다. 상기 관리장치(341)는 카메라 모듈(343) 및 감지수단(345)으로부터 데이터를 전달받을 수 있다. 상기 관리장치(341)는 디스플레이, 사용자 인터페이스, 통신 모듈, 메모리 및 컨트롤러 중 적어도 하나를 포함할 수 있다.The
상기 관리장치(341)는 적어도 하나 이상의 전자기기로 구성될 수 있다. 상기 관리장치(341)는 태블릿, 스마트폰 및 노트북의 형태로 구현될 수 있다.The
도시하지 않았지만 상기 관리장치(341)는 서버와 연결될 수 있다. 상기 관리장치(341)가 서버와 연결되는 경우 상기 관리장치(341)는 서버와 데이터를 교환할 수 있다. 이 경우 서버는 다수의 관리장치(341)와 연결되어, 다수의 관리장치(341)로부터 데이터를 수신하여 처리할 수 있다.Although not shown, the
또는 상기 관리장치(341)는 서버의 역할을 할 수 있다. 이 경우 상기 관리장치(341)는 다른 관리장치(341) 또는 다른 전자기기와 연결되어 데이터를 교환하고 처리할 수 있다.Alternatively, the
카메라 모듈(343)은 입차 또는 출차하는 차량을 촬영할 수 있다. 상기 카메라 모듈(343)은 차량을 촬영한 촬영 데이터를 상기 관리장치(341)로 전달할 수 있다.The
감지수단(345)은 입차 또는 출차하는 차량의 위치를 감지할 수 있다. 상기 감지수단(345)은 입차 또는 출차하는 차량을 감지할 수 있다. 상기 감지수단(345)은 광학적 센서 또는 차단기(PB)일 수 있다.The detecting means 345 may detect the position of a vehicle entering or exiting. The detecting
상기 감지수단(345)은 상기 관리장치(341)로 센싱 값을 전달하고, 상기 관리장치(341)는 상기 센싱 값에 기초하여 차량의 관리에 이용되는 영상 데이터를 추출할 수 있다. 상기 관리장치(341)는 센싱 값에 기초하여 상기 촬영 데이터 중 영상 데이터를 추출할 수 있다.The
온-사이트 차량 관리 시스템은 차량 집합 관리에 사용될 수 있다.An on-site vehicle management system may be used for fleet management.
온-사이트 차량 관리 시스템은 주차 관제에 사용될 수 있다. 보다 구체적으로, 온-사이트 차량 관리 시스템은 주차 관리자가 주차 구역으로 입차 하는 차량의 이미지와 주차 구역에서 출차 하는 차량의 이미지를 비교 분석하는 작업에 사용될 수 있다.An on-site fleet management system can be used for parking control. More specifically, the on-site vehicle management system may be used for a task in which a parking manager compares and analyzes an image of a vehicle entering a parking area and an image of a vehicle exiting the parking area.
또한, 온-사이트 차량 관리 시스템은 택시 회사의 택시 관리 업무에 사용될 수 있다. 보다 구체적으로, 온-사이트 차량 관리 시스템은 택시 회사가 운전자의 택시 운행 전, 후의 차량 이미지를 비교 분석하는 업무에 사용될 수 있다.Also, the on-site fleet management system can be used for taxi management tasks of taxi companies. More specifically, the on-site fleet management system can be used by taxi companies to compare and analyze vehicle images of drivers before and after driving taxis.
3.2 온-사이트 차량 관리 프로세스3.2 On-Site Fleet Management Process
일 실시예에 따르면, 온-사이트에서 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 프로세스가 제공될 수 있다. 온-사이트 차량 관리 프로세스는 전술한 온-사이트 차량 관리 시스템에 의해 수행될 수 있다.According to one embodiment, a vehicle management process may be provided for managing the state of a vehicle using images taken of the vehicle on-site. The on-site vehicle management process may be performed by the aforementioned on-site vehicle management system.
도 35는 온-사이트 차량 관리 프로세스에 의해 수행되는 일련의 단계들을 설명하기 위한 도면이다.35 is a diagram for explaining a series of steps performed by the on-site vehicle management process.
도 35를 참조하면, 온-사이트 차량 관리 프로세스는 차량과 관련된 온-사이트에서 촬영된 차량 데이터를 획득하는 단계(S3510), 획득된 차량 데이터에 기초하여 차량 정보를 획득하는 단계(S3530), 차량 정보를 관리하는 단계(S3550) 및 차량 정보를 출력하는 단계(S3570)를 포함할 수 있다. 이하에서는 각 단계에 대하여 보다 구체적으로 설명한다.Referring to FIG. 35 , the on-site vehicle management process includes acquiring vehicle data related to the vehicle and photographed on-site (S3510), acquiring vehicle information based on the acquired vehicle data (S3530), and It may include managing information (S3550) and outputting vehicle information (S3570). Hereinafter, each step will be described in more detail.
3.2.1 온-사이트 차량 데이터 획득3.2.1 On-Site Vehicle Data Acquisition
온-사이트 차량 관리 프로세스는 차량 관리에 필요한 차량 데이터를 획득하는 단계(S3510)를 포함할 수 있다.The on-site vehicle management process may include acquiring vehicle data required for vehicle management (S3510).
차량 데이터는 다양한 형태로 마련될 수 있다. 예컨대, 차량 데이터는 이미지 데이터 또는 비-이미지 데이터일 수 있다. 차량 데이터는 장치에 미리 저장되거나 외부로부터 획득될 수 있다. 예컨대, 차량 데이터는 카메라 모듈(343)을 통하여 획득되거나, 사용자 입력 모듈을 통하여 획득될 수 있다.Vehicle data may be prepared in various forms. For example, vehicle data may be image data or non-image data. Vehicle data may be pre-stored in the device or obtained from the outside. For example, vehicle data may be obtained through the
차량 데이터 및 차량 데이터의 획득에 대하여는 이하에서 구체적인 예시를 들어 보다 상세히 설명한다.The acquisition of vehicle data and vehicle data will be described in more detail below with specific examples.
3.2.1.1 이미지 데이터 획득3.2.1.1 Image data acquisition
도 36은 온-사이트 차량 관리 프로세스에서 차량 관리에 필요한 차량 데이터를 획득하는 단계(S3510)를 설명하기 위한 도면이다. 이하에서는 도 36을 참조하여 촬영된 차량 데이터를 획득하는 단계(S3510)에 대하여 보다 구체적으로 설명한다.36 is a diagram for explaining a step (S3510) of acquiring vehicle data required for vehicle management in the on-site vehicle management process. Hereinafter, the step of obtaining photographed vehicle data (S3510) will be described in more detail with reference to FIG. 36 .
도 36을 참조하면, 일 실시예에 따른 차량 데이터를 획득하는 단계(S3510)는 복수의 이미지를 포함하는 영상 데이터를 획득하는 단계(S3511) 및 획득한 복수의 이미지 중 유효 이미지 데이터를 추출하는 단계(S3513)를 포함할 수 있다.Referring to FIG. 36 , acquiring vehicle data (S3510) according to an embodiment includes acquiring image data including a plurality of images (S3511) and extracting valid image data from among the acquired plurality of images. (S3513) may be included.
일 실시예에 따르면, 차량 데이터는 차량을 촬영한 차량 이미지를 포함하는 이미지 데이터일 수 있다. 차량 이미지는 차량의 일부 부품을 포함하는 이미지일 수 있다. 차량 이미지는 차량을 식별하기 위한 식별 정보가 포함되도록 차량의 일부를 촬영하여 획득된 이미지일 수 있다.According to an embodiment, the vehicle data may be image data including a vehicle image obtained by photographing the vehicle. The vehicle image may be an image including some parts of the vehicle. The vehicle image may be an image obtained by photographing a part of the vehicle to include identification information for identifying the vehicle.
차량 데이터는 차량을 촬영한 차량 영상 데이터일 수 있다. 차량 데이터는 영상 데이터 및 영상 데이터로부터 추출된 이미지 데이터를 포함할 수 있다.The vehicle data may be vehicle image data obtained by photographing the vehicle. The vehicle data may include image data and image data extracted from the image data.
영상 데이터는 카메라 모듈(343)이 복수의 특정 시점 사이에 촬영한 데이터를 의미할 수 있다. 이때, 상기 복수의 특정 시점은 서로 다른 시점을 의미할 수 있다. 이하에서는 도면을 참조하여 상기 복수의 특정 시점을 구체적인 예시를 들어 보다 상세히 설명한다.The image data may refer to data captured by the
도 37은 일 실시예에 따른 영상 데이터가 감지수단(345)에 감지되는 특정 시점에서 카메라 모듈(343)에 의해 촬영되는 것을 설명하기 위한 도면이다.FIG. 37 is a diagram for explaining that image data is captured by the
도 37을 참조하면, 일 실시예에 따른 차량관리 시스템은 관리장치(341), 감지수단(345) 및 카메라 모듈(343)을 포함할 수 있다. 또한, 차량관리 시스템은 차량의 입차 또는 출차를 제어하기 위한 차단기(PB)를 더 포함할 수 있다.Referring to FIG. 37 , the vehicle management system according to an embodiment may include a
상기 카메라 모듈(343)은 적어도 하나 이상의 카메라를 포함할 수 있다. 상기 카메라 모듈(343)은 제1 카메라(C1) 및 제2 카메라(C2)를 포함할 수 있다.The
상기 감지수단(345)은 적어도 하나 이상의 센서를 포함할 수 있다. 상기 감지수단(345)은 제1 센서(S1) 및 제2 센서(S2)를 포함할 수 있다.The
상기 차단기(PB)는 상기 관리장치(341)에 의해 제어될 수 있다. 상기 관리장치(341)는 입차 또는 출차하는 차량이 차단기(PB)에 접근하는 경우 차단기(PB)를 제어할 수 있다. 상기 관리장치(341)는 입차 또는 출차하는 차량이 차단기(PB)에 접근하고, 입차 또는 출차가 허가되는 경우에 차단기(PB)를 제어할 수 있다. 상기 관리장치(341)는 상기 제1 센서(S1) 및 제2 센서(S2) 중 적어도 하나의 센싱 값에 의해 차단기(PB)를 제어할 수 있다. 상기 관리장치(341)는 제1 센서(S1)에 의해 차량이 감지되는 경우 차단기(PB)를 제어할 수 있다.The circuit breaker (PB) may be controlled by the
상기 카메라 모듈(343)은 주차장에 입차 또는 출차하는 차량의 촬영하기 위해 입차 또는 출차하는 차량의 이동경로와 인접한 영역에 설치될 수 있다. 아래에서는 입차하는 차량을 촬영하는 카메라 모듈(343)에 대해서 설명한다.The
상기 제1 카메라(C1)와 제2 카메라(C2)는 차량의 다른 측면을 촬영하기 위해 설치될 수 있다. 예를 들어, 제1 카메라(C1)는 차량의 제1 측면을 촬영할 수 있는 위치에 설치되고, 제2 카메라(C2)는 차량의 제2 측면을 촬영할 수 있는 위치에 설치될 수 있다. 상기 제1 카메라(C1)와 제2 카메라(C2)는 서로 마주보는 방향으로 설치될 수 있다. The first camera C1 and the second camera C2 may be installed to photograph different sides of the vehicle. For example, the first camera C1 may be installed at a location capable of capturing a first side of the vehicle, and the second camera C2 may be installed at a location capable of capturing a second side of the vehicle. The first camera C1 and the second camera C2 may be installed facing each other.
상기 제1 카메라(C1)는 입차 또는 출차하는 차량의 측면과 후면을 촬영할 수 있는 위치에 설치될 수 있다. 상기 제1 카메라(C1)는 상기 제2 카메라(C2)가 촬영영역에 위치하도록 설치될 수 있다. 상기 제1 카메라(C1)는 제2 카메라(C2)를 향해 설치될 수도 있다. 상기 제1 카메라(C1)가 입차 또는 출차하는 차량의 후면을 추가로 촬영할 수 있어, 비-이미지 데이터를 추가로 획득할 수도 있다.The first camera C1 may be installed at a location capable of taking pictures of the side and rear of a vehicle entering or exiting. The first camera C1 may be installed so that the second camera C2 is located in a photographing area. The first camera C1 may be installed facing the second camera C2. The first camera C1 may additionally capture the back of the vehicle entering or exiting, so that non-image data may be additionally acquired.
상기 제2 카메라(C2)는 입차 또는 출차하는 차량의 측면과 전면을 촬영할 수 있는 위치에 설치될 수 있다. 상기 제2 카메라(C2)는 상기 제1 카메라(C1)가 촬영영역에 위치하도록 설치될 수 있다. 상기 제2 카메라(C2)는 제1 카메라(C1)를 향해 설치될 수도 있다. 상기 제2 카메라(C2)가 입차 또는 출차하는 차량의 전면을 추가로 촬영할 수 있어, 비-이미지 데이터를 추가로 획득할 수도 있다.The second camera C2 may be installed at a location capable of taking pictures of the side and front of a vehicle entering or exiting. The second camera C2 may be installed so that the first camera C1 is located in a photographing area. The second camera C2 may be installed facing the first camera C1. The second camera C2 may additionally capture the front of the vehicle entering or exiting the vehicle, so that non-image data may be additionally acquired.
상기 제1 카메라(C1)와 제2 카메라(C2)는 상기 차단기(PB)와 평행하도록 위치할 수 있다. The first camera C1 and the second camera C2 may be positioned parallel to the blocker PB.
또는 상기 제1 카메라(C1)와 제2 카메라(C2)는 서로 이격되어 위치할 수 있다. 상기 제1 카메라(C1)는 차단기(PB)와 이격되는 영역에 위치할 수 있고, 제2 카메라(C2)는 차단기(PB)와 대응되는 영역에 위치할 수 있다. 상기 제1 카메라(C1)가 차단기(PB)와 이격되는 영역에 위치함으로써 차량의 비-이미지 정보를 보다 빠른 시점에 획득하여 처리시간을 단축할 수 있는 효과가 있다. 제1 센서(S1)는 차단기(PB)와 이격되는 영역에 위치할 수 있고, 제2 센서(S2)는 차단기(PB)와 대응되는 영역에 위치할 수 있다. 제1 센서(S2)는 주차장에 진입하는 차량을 감지하기 위해 차단기(PB)와 이격되어 설치될 수 있고, 제2 센서(S2)는 차량이 차단기(PB)와 인접하였는지를 감지하기 위해 상기 차단기(PB)와 대응되는 영역에 위치하도록 설치될 수 있다.Alternatively, the first camera C1 and the second camera C2 may be spaced apart from each other. The first camera C1 may be located in an area spaced apart from the circuit breaker PB, and the second camera C2 may be located in an area corresponding to the circuit breaker PB. Since the first camera C1 is located in an area separated from the blocker PB, it is possible to shorten the processing time by acquiring non-image information of the vehicle at a faster time point. The first sensor S1 may be located in an area spaced apart from the circuit breaker PB, and the second sensor S2 may be located in an area corresponding to the circuit breaker PB. The first sensor (S2) may be installed spaced apart from the breaker (PB) to detect a vehicle entering the parking lot, and the second sensor (S2) is the breaker (S2) to detect whether the vehicle is adjacent to the breaker (PB). PB) and can be installed to be located in the corresponding area.
관리장치(341)는 제1 카메라(C1)와 제2 카메라(C2)로부터의 촬영 데이터를 획득할 수 있다. 관리장치(341)는 제1 센서(S1)와 제2 센서(S2)로부터 전달받은 센싱 값에 기초하여 상기 촬영 데이터 중 영상 데이터를 추출할 수 있다. 여기서 영상 데이터는 차량 관리에 실질적으로 이용되는 데이터를 포함할 수 있다.The
또는 관리장치(341)는 제1 센서(S1) 및 제2 센서(S2) 중 적어도 어느 하나의 센서로 전달받은 센싱값에 기초하여 제1 카메라(C1) 및 제2 카메라(C2) 중 적어도 어느 하나를 제어할 수 있다. 예를 들어, 상기 제1 센서(S1)에 의해 차량의 진입이 인식되는 경우 상기 제1 카메라(C1) 및 제2 카메라(C2)가 차량을 촬영할 수 있는 상태가 되도록 제어할 수 있고, 제2 센서(S2)에 의해 차량의 입차가 완료되는 경우 제1 카메라(C1) 및 제2 카메라(C2)가 차량을 촬영하지 않는 상태로 변경되도록 제어할 수 있다.Alternatively, the
관리장치(341)는 차량이 제1 센서(S1)를 완전히 통과한 시점과 차량이 제2 센서(S2)에 최초로 감지된 시점 사이의 촬영 데이터를 영상 데이터로 정의할 수 있다. 이 경우 제1 센서(S1)에 차량이 인식되었다가 인식이 종료된 시점을 시작시점으로 정의할 수 있고, 제2 센서(S2)에 차량이 인식된 시점을 종료시점으로 정의할 수 있다. 상기 관리장치(341)는 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터를 영상 데이터로 정의할 수 있다.The
상기 관리장치(341)는 차량이 제1 센서(S1)를 완전히 통과한 시점과 차량이 제2 센서(S2)에 최초로 감지된 시점 사이의 촬영 데이터를 영상 데이터로 정의하고, 상기 영상 데이터를 이용하여 차량관리를 위한 데이터로 사용함으로써 관리장치(341)의 저장부에 저장되는 데이터의 양을 줄일 수 있고, 제1 카메라(C1)와 제2 카메라(C2)로부터 관리장치(341)로 전달되는 데이터의 양을 줄일 수 있는 효과가 있다.The
제1 카메라(C1)는 상기 제1 센서(S1)와 대응되는 영역에 위치하고, 제2 카메라(C2)는 제2 센서(S2)와 대응되는 영역에 위치할 수 있다. 상기 제1 카메라(C1)를 상기 제1 센서(S1)와 대응되는 영역에 위치시키고, 차량이 제1 센서(S1)를 완전히 통과한 시점을 시작시점으로 정의함으로써 제1 카메라(C1)가 차량의 일 측의 모든 영역을 촬영한 데이터를 영상 데이터로 정의할 수 있다. 또한, 상기 제2 카메라(C2)를 제2 센서(S2)와 대응되는 영역에 위치시키고, 차량이 제2 센서(S2)에 최초로 감지된 시점을 종료시점으로 정의함으로써 제2 카메라(C2)가 차량의 타 측의 모든 영역을 촬영한 데이터를 영상 데이터로 정의할 수 있다. 이로써, 제1 카메라(C1) 및 제2 카메라(C2)의 영상 데이터는 차량의 양측 모든 영역을 촬영한 데이터로 정의되고, 이에 따라 차량의 손상을 보다 정확히 인식할 수 있다.The first camera C1 may be located in an area corresponding to the first sensor S1, and the second camera C2 may be located in an area corresponding to the second sensor S2. By locating the first camera C1 in an area corresponding to the first sensor S1 and defining a point in time when the vehicle completely passes the first sensor S1 as a starting point, the first camera C1 can detect the vehicle Data obtained by photographing all regions on one side of the image may be defined as image data. In addition, by locating the second camera C2 in an area corresponding to the second sensor S2 and defining the point at which the vehicle is initially detected by the second sensor S2 as the end point, the second camera C2 is Data obtained by photographing all areas of the other side of the vehicle may be defined as image data. Accordingly, the image data of the first camera C1 and the second camera C2 is defined as data capturing all areas on both sides of the vehicle, and accordingly, damage to the vehicle can be more accurately recognized.
도 38은 다른 실시예에 따른 영상 데이터가 센서에 감지되는 특정 시점에서 카메라 모듈(343)에 의해 촬영되는 것을 설명하기 위한 도면이다.38 is a diagram for explaining that image data is captured by the
도 38을 참조하면, 다른 실시예에 따른 관리장치(341)는 차량이 제1 센서(S1)에 최초로 감지된 시점과 차량이 제2 센서(S2)에 최초로 감지된 시점 사이의 촬영 데이터를 영상 데이터로 정의할 수 있다. 이 경우 제1 센서(S1)에 차량이 인식된 시점을 시작시점으로 정의할 수 있고, 제2 센서(S2)에 차량이 인식된 시점을 종료시점으로 정의할 수 있다. 상기 관리장치(341)는 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터를 영상 데이터로 정의할 수 있다.Referring to FIG. 38 , the
상기 관리장치(341)는 차량이 제1 센서(S1)에 최초로 감지된 시점과 차량이 제2 센서(S2)에 최초로 감지된 시점 사이의 촬영 데이터를 영상 데이터로 정의함으로써 도 37에 비해 시작시점을 앞당길 수 있다. 상기 관리장치(341)는 보다 이른 시점에서의 촬영 데이터를 영상 데이터로 정의함으로써 차량 앞 부분에 위치한 차량 번호 또는 VIN 정보 등의 차량 식별 정보를 정확하게 확보함으로써 차량 관리가 보다 원활히 수행될 수 있도록 하는 효과가 있다.The
도 39는 또 다른 실시예에 따른 영상 데이터가 센서에 감지되는 특정 시점에서 카메라 모듈(343)에 의해 촬영되는 것을 설명하기 위한 도면이다.39 is a diagram for explaining that image data is captured by the
도 39를 참조하면, 또 다른 실시예에 따른 관리장치(341)는 차량이 제1 센서(S1)에 최초로 감지된 시점과 차량이 제2 센서(S2)를 완전히 통과한 시점 사이의 촬영 데이터를 영상 데이터로 정의할 수 있다. 이 경우 제1 센서(S1)에 차량이 인식된 시점을 시작시점으로 정의할 수 있고, 제2 센서(S2)에 차량이 인식되었다가 인식이 종료된 시점을 종료시점으로 정의할 수 있다. 상기 관리장치(341)는 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터를 영상 데이터로 정의할 수 있다.Referring to FIG. 39 , the
상기 관리장치(341)는 차량이 제1 센서(S1)에 최초로 감지된 시점과 차량이 제2 센서(S2)를 완전히 통과한 시점 사이의 촬영 데이터를 영상 데이터로 정의함으로써 도 37 및 도 38에 비해 시작시점을 앞당기고 종료시점을 늦출 수 있다. 상기 관리장치(341)는 보다 이른 시점에서의 촬영 데이터를 영상 데이터로 정의하고, 보다 늦은 시점에서의 촬영 데이터를 영상 데이터로 정의함으로써 차량의 주요 부위가 최대로 확보된 영상 데이터를 이용하여 차량관리를 수행할 수 있고, 그 결과로 차량 외관에 발생하는 손상 정보의 누락을 최소화할 수 있는 효과가 있다.The
한편, 도면에 표시되지는 않았지만, 일 실시예에 따른 차량 관리 시스템은 제3 센서, 제4 센서, 제3 카메라 및 제4 카메라를 더 포함할 수 있다.Meanwhile, although not shown in the drawings, the vehicle management system according to an embodiment may further include a third sensor, a fourth sensor, a third camera, and a fourth camera.
상술한 제1 센서(S1), 제2 센서(S2), 제1 카메라(C1) 및 제2 카메라(C2)가 차량의 주차 구역으로 입차 시의 영상 데이터 확보를 위한 것일 수 있으며, 제3 센서, 제4 센서, 제3 카메라 및 제4 카메라는 차량의 주차 구역밖으로 출차 시의 영상 데이터 확보를 위한 것일 수 있다. The above-described first sensor S1, second sensor S2, first camera C1, and second camera C2 may be used to secure image data when a vehicle enters a parking area, and the third sensor , The fourth sensor, the third camera, and the fourth camera may be for securing image data when the vehicle leaves the parking area.
다시 말해, 출차 시는 제3 센서와 제3 카메라를 더 포함할 수 있고, 제3 센서는 입차 시의 제1 센서(S1)와 대응되는 역할을 할 수 있고, 제3 카메라는 입차 시의 제1 카메라(C1)와 대응되는 역할을 할 수 있다. 이 경우 제3 카메라는 제1 카메라(C1)가 촬영하는 차량의 동일한 측면을 촬영하기 위해 설치될 수 있다. 또한, 출차 시는 제4 센서와 제4 카메라를 더 포함할 수 있고, 제4 센서는 입차 시의 제2 센서(S2)와 대응되는 역할을 할 수 있고, 제4 카메라는 입차 시의 제2 카메라(C2)와 대응되는 역할을 할 수 있다. 이 경우 제4 카메라는 제2 카메라(C2)가 촬영하는 차량의 동일한 측면을 촬영하기 위해 설치될 수 있다.In other words, the third sensor may further include a third sensor and a third camera when entering the vehicle, and the third sensor may play a role corresponding to the first sensor S1 when entering the vehicle. 1 It can play a role corresponding to the camera (C1). In this case, the third camera may be installed to photograph the same side of the vehicle that the first camera C1 photographs. In addition, the fourth sensor may further include a fourth sensor and a fourth camera when entering the vehicle, and the fourth sensor may play a role corresponding to the second sensor S2 when entering the vehicle. It may play a role corresponding to the camera C2. In this case, the fourth camera may be installed to photograph the same side of the vehicle as the second camera C2.
제1 센서(S1), 제2 센서(S2), 제1 카메라(C1) 및 제2 카메라(C2)에 관하여는 상술한 바, 제3 센서, 제4 센서, 제3 카메라 및 제4 카메라에 관한 내용 중 제1 센서(S1), 제2 센서(S2), 제1 카메라(C1) 및 제2 카메라(C2)와 중복되는 내용은 생략한다.As described above, the first sensor S1, the second sensor S2, the first camera C1, and the second camera C2, the third sensor, the fourth sensor, the third camera, and the fourth camera Among the contents, overlapping contents with the first sensor S1, the second sensor S2, the first camera C1, and the second camera C2 are omitted.
도 40은 또 다른 실시예에 따른 영상 데이터가 차단기(PB)가 작동한 시점부터 일정 범위 내의 시점에서 카메라 모듈(343)에 의해 촬영되는 것을 설명하기 위한 도면이다.40 is a diagram for explaining that image data is captured by the
도 40의 또 다른 실시 예에 따른 차량관리 시스템은 도 33과 비교하여 감지수단(345)으로 차단기(PB)가 사용되는 것 이외에는 도 37의 실시 예와 동일하다. 따라서, 도 40의 일 실시 예에 따른 차량관리 시스템을 설명함에 있어서, 도 37과 공통되는 부분에 대해서는 동일한 도면번호를 부여하고 상세한 설명을 생략한다.The vehicle management system according to another embodiment of FIG. 40 is the same as the embodiment of FIG. 37 except that the circuit breaker (PB) is used as the sensing means 345 compared to FIG. 33 . Therefore, in describing the vehicle management system according to the embodiment of FIG. 40, the same reference numerals are assigned to portions common to those of FIG. 37, and detailed descriptions thereof are omitted.
도 40을 참조하면, 또 다른 실시 예에 따른 차량관리 시스템은 적어도 하나 이상의 차단기(PB)와 적어도 하나 이상의 카메라 모듈(343)을 포함할 수 있다.Referring to FIG. 40 , a vehicle management system according to another embodiment may include at least one circuit breaker (PB) and at least one
상기 카메라 모듈(343)은 제1 카메라(C1) 및 제2 카메라(C2)를 포함할 수 있다. 제1 카메라(C1)는 차단기(PB)와 이격되는 영역에 위치할 수 있고, 제2 카메라(C2)는 차단기(PB)와 대응되는 영역에 위치할 수 있다. 상기 제1 카메라(C1)와 제2 카메라(C2)는 이격되도록 설치될 수 있고, 상기 제1 카메라(C1)와 제2 카메라(C2)는 차량의 다른 측면을 촬영할 수 있다.The
관리장치(341)는 제1 카메라(C1)와 제2 카메라(C2)로부터 촬영 데이터를 획득할 수 있다. 관리장치(341)는 제1 카메라(C1)와 제2 카메라(C2)로부터 획득된 촬영 데이터 중 영상 데이터를 추출할 수 있다. 여기서 영상 데이터는 차량 관리에 실질적으로 이용되는 데이터를 포함할 수 있다.The
영상 데이터는 상기 카메라 모듈(343)에 의해 촬영된 촬영 데이터 중 복수의 특정 시점 사이에 촬영된 영상을 의미할 수 있다. 이때 복수의 특정 시점은 차단기(PB)가 작동한 시점부터 일정 범위 내의 시점을 의미할 수 있다. 한편, 차단기(PB)가 작동한 시점부터 일정 범위 내의 시점이란, 상기 일정 범위 내의 시점에서 차량이 촬영될 경우 영상 데이터에 차량 전체 외관의 주요 부위 중 적어도 일부가 포함될 수 있을 정도 일정 범위를 가지는 시점을 의미할 수 있다. 즉, 주차 구역으로 차량이 접근하는 경우 차단기(PB)가 작동하게 되는데, 복수의 특정 시점은 차량의 접근에 따라 차단기(PB)가 작동한 시점을 기준으로 일정 시점 이전인 제1 시점과 일정 시점 이후인 제2 시점을 의미할 수 있다.The image data may refer to images captured between a plurality of specific points in time among the captured data captured by the
다시 말해, 영상 데이터는 차단기(PB)가 작동한 시점을 기준으로 일정 시점 이전인 제1 시점과 일정 시점 이후인 제2 시점 사이에 카메라 모듈(343)에 의해 촬영된 영상을 의미할 수 있다. In other words, the image data may refer to an image captured by the
관리장치(341)는 차량이 제1 시점과 제2 시점 사이의 촬영 데이터를 영상 데이터로 정의할 수 있다. 이 경우 차단기(PB)가 작동한 시점을 기준으로 일정 시점 이전을 시작시점으로 정의할 수 있고, 차단기(PB)가 작동한 후 차량이 차단기(PB)를 완전히 통과한 시점을 종료시점으로 정의할 수 있다. 상기 관리장치(341)는 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터를 영상 데이터로 정의할 수 있다.The
상기 관리장치(341)는 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터를 영상 데이터로 정의하고, 상기 영상 데이터를 이용하여 차량관리를 위한 데이터로 사용함으로써 센서가 구비되어 있지 않은 주차 구역에서도 차단기(PB)만을 이용해 차량 관리 기능 수행이 가능하게 하는 효과가 있다.The
또한, 상기 제2 시점은 차단기(PB)가 작동한 시점과 대응되는 시점일 수도 있다. 이 경우 제1 카메라(C1)와 제2 카메라(C2)로부터 관리장치(341)로 전달되는 데이터의 양을 줄일 수 있는 효과가 있다Also, the second time point may be a time point corresponding to the time point at which the circuit breaker PB operates. In this case, there is an effect of reducing the amount of data transmitted from the first camera C1 and the second camera C2 to the
한편, 일 실시예에 따른 카메라 모듈(343)은 촬영 시 촬영 시점 및 각도가 고정되어 있는 고정식일 수 있으나 이에 한정되는 것은 아니다. 다른 예로, 일 실시예에 따른 카메라 모듈(343)은 촬영 시 차량의 움직임에 따라 회전하는 회전식일 수 있다.On the other hand, the
일 실시예에 따른 카메라 모듈(343)이 회전식으로 구비되는 경우, 상술한 복수의 특정 시점은 영상 데이터가 차량 외관의 주요 부위 중 적어도 일부를 포함할 수 있는 범위에서 가변적일 수 있다.When the
이하에서는 도면을 참조하여 상기 영상 데이터로부터 온-사이트 차량 관리 프로세스에 적합한 이미지 데이터를 추출하는 방법을 설명한다.Hereinafter, a method of extracting image data suitable for an on-site vehicle management process from the image data will be described with reference to drawings.
영상 데이터로부터 추출된 이미지 데이터는 카메라 모듈(343)이 상술한 복수의 특정 시점에 촬영한 차량 이미지 중 어느 하나일 수 있다. 또한, 상기 영상 데이터로부터 추출된 이미지 데이터는 복수의 특정 시점 사이에 카메라 모듈(343)에 의해 촬영된 차량 이미지 중 어느 하나일 수 있다. 상기 이미지 데이터는 시작시점과 종료시점 사이에 카메라 모듈(343)에 의해 촬영된 차량 이미지 중 어느 하나일 수 있다.The image data extracted from the image data may be any one of vehicle images captured by the
도 41은 일 실시예에 따른 영상 데이터로부터 이미지 데이터를 추출하는 방법을 설명하기 위한 도면이다.41 is a diagram for explaining a method of extracting image data from image data according to an exemplary embodiment.
상술한 바와 같이 복수의 특정 시점에서 카메라 모듈(343)에 의해 획득된 영상 데이터는 복수의 이미지를 포함할 수 있다. 이때, 온-사이트 차량 관리 프로세스가 정상적으로 수행될 수 있게 하기 위하여 상기 복수의 이미지 중 유효 이미지 데이터가 추출될 수 있다.As described above, image data acquired by the
관리장치(341)에 의해 상기 시작시점과 종료시점 사이에 획득된 촬영 데이터가 영상 데이터로 정의된 경우, 유효 이미지 데이터는 상기 시작시점과 종료시점 사이에 있는 영상 데이터 중 적어도 하나일 수 있다.When photographing data acquired between the starting time and ending time by the
상기 유효 이미지 데이터는 영상 데이터 중 중간 구간에서의 적어도 하나의 이미지일 수 있다. 상기 중간 구간은 시작시점과 종료시점 사이의 특정 구간일 수 있다. 상기 중간 구간은 상기 시작시점과 종료시점의 중간시점을 포함할 수 있다. 이 때, 상기 시작시점과 중간시점 간의 시간간격과 중간시점과 종료시점 간의 시간간격은 대응될 수 있다.The effective image data may be at least one image in an intermediate section of image data. The middle section may be a specific section between a start time and an end time. The intermediate section may include an intermediate time point between the start time point and the end time point. In this case, the time interval between the start time and the middle time point and the time interval between the middle time point and the end time point may correspond.
유효 이미지 데이터는 상기 영상 데이터가 포함하고 있는 복수의 이미지 중 차량 외관의 주요 부위가 포함되어 있는 적어도 하나 이상의 이미지 데이터를 의미할 수 있다.The valid image data may refer to at least one or more image data including a main part of the exterior of the vehicle among a plurality of images included in the image data.
결국, 상기 관리장치(341)는 상기 유효 이미지 데이터를 이용하여 차량관리를 위한 데이터로 사용함으로써 관리장치(341)의 저장부에 저장되는 데이터의 양을 줄일 수 있고, 차량 외관의 주요 부위를 효과적으로 관리할 수 있는 효과가 있다.As a result, the
상기 관리장치(341)가 획득하는 영상 데이터는 도 41의 (a) 내지 (c)이미지를 포함하는 복수의 이미지일 수 있다. 상기 관리장치(341)는 주요 부위가 도시된 (b) 이미지를 유효 이미지 데이터로 추출하여 차량 외관의 주요 부위를 효과적으로 관리할 수 있다.The image data obtained by the
한편, 상기 유효 이미지 데이터는 차량의 일부 영역만 포함된 이미지일 수도 있다. 이 경우에도 상기 유효 이미지 데이터는 차량 외관의 주요 부위를 포함하는 형태일 수도 있고, 이로써 차량 외관을 보다 명확히 판단하는 효과가 있다.Meanwhile, the valid image data may be an image including only a partial area of the vehicle. Even in this case, the effective image data may be in the form of including the main parts of the vehicle's exterior, thereby having an effect of more clearly determining the vehicle's exterior.
3.2.1.2 비-이미지 데이터 획득3.2.1.2 Non-Image Data Acquisition
일 실시예에 따르면, 이미지가 아닌 비-이미지 형태의 차량 데이터가 획득될 수 있다. 차량 데이터는 비-이미지 데이터일 수 있다. 차량 데이터는 차량과 관련된 정보를 포함하는 비-이미지 데이터일 수 있다. 상기 비-이미지 데이터는 미리 저장되거나 획득될 수 있다. 상기 비-이미지 데이터는 상기 카메라 모듈(343)에 의해 획득될 수 있다. 상기 비-이미지 데이터는 상기 카메라 모듈(343)에 의해 촬영된 촬영 데이터에 기초하여 획득될 수 있다. 상기 관리장치(341)는 상기 영상 데이터에 기초하여 비-이미지 데이터를 획득할 수 있다.According to one embodiment, vehicle data in the form of non-images other than images may be obtained. Vehicle data may be non-image data. Vehicle data may be non-image data including vehicle-related information. The non-image data may be stored or acquired in advance. The non-image data may be acquired by the
3.2.1.3 데이터 처리3.2.1.3 Data Processing
온-사이트 차량 관리 프로세스에서는 획득된 데이터에 대한 처리가 수행될 수 있다.Processing may be performed on the acquired data in the on-site fleet management process.
온-사이트 차량 관리 프로세스에서는 획득된 이미지 데이터에 대한 전처리(또는 후처리)가 수행될 수 있다. In the on-site vehicle management process, pre-processing (or post-processing) may be performed on the acquired image data.
상기 관리장치(341)는 영상 데이터 중 적어도 하나 이상의 유효 이미지 데이터에 대한 전처리를 수행할 수 있다.The
상기 관리장치(341)는 시작시점과 종료시점 사이의 중간 구간의 다수의 이미지에 기초하여 노이즈 제거처리를 수행할 수 있다. 상기 관리장치(341)는 다수의 유효 이미지 데이터에 기초하여 노이즈 제거 처리를 수행할 수 있다. The
도 42는 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다. 도 42를 참조하면, 관리장치(341)는 차량 영역 및 배경 영역을 가지는 복수의 유효 이미지 데이터 (a) 내지 (c)를 획득하고, 복수의 유효 이미지 데이터 (a) 내지 (c)에 기초하여 배경 영역이 제거된 이미지(d)를 획득하는 노이즈 제거 처리를 수행할 수 있다. 상기 관리장치(341)는 복수의 유효 이미지 데이터 (a) 내지 (c)에 기초하여, 유효 이미지 데이터 내에서의 위치가 고정된 오브젝트인 배경에 대응되는 영역(즉, 배경 영역)이 제거되고, 유효 이미지 데이터 내에서의 위치가 변경되는 오브젝트인 차량에 대응되는 영역(즉, 차량 영역)을 포함하는 이미지(d)가 획득될 수 있다. 42 is a diagram for illustrating noise removal processing using a plurality of images. Referring to FIG. 42 , the
예시적으로, 주차 관제 회사 또는 택시 회사의 경우, 카메라 모듈(343)은 고정된 위치에서 움직이는 차량을 촬영하므로, 유효 이미지 데이터는 움직이는 차량 이미지와 고정되어 있는 배경 이미지를 포함할 수 있다. 이 경우, 배경 이미지는 신경망 모델에 의해 차량 이미지가 아닌 것으로 반복 학습될 수 있다. 따라서, 상기 노이즈 제거 처리는 배경 이미지에 관한 정보가 반복 학습되어 있는 신경망 모델을 이용하여, 상기 유효 이미지 데이터들로부터 배경 영역이 제거된 차량 이미지를 획득하는 것을 포함할 수 있다.For example, in the case of a parking control company or a taxi company, since the
상기 관리장치(341)는 복수의 유효 이미지 데이터에 기초하여, 반사광 등을 제거하기 위한 노이즈 제거 처리를 수행할 수 있다. 관리장치(341)는 복수의 유효 이미지 데이터를 획득하고, 위치가 변동되는 오브젝트(예컨대, 반사광에 대응되는 반사 영역) 및 위치가 변동되지 않는 오브젝트(예컨대, 차량 영역 또는 차량의 손상에 대응되는 손상 영역)를 구분하여, 위치가 변동되는 오브젝트 또는 위치가 변동되지 않는 오브젝트를 제거할 수 있다. 예컨대, 관리장치(341)는 차량의 손상된 부분에 대응되는 손상 영역 및 차량의 표면에 의한 반사광에 대응되는 반사 영역을 포함하는 유효 이미지 데이터에 기초하여, 반사 영역이 제거된 차량 이미지를 획득하는 노이즈 제거 처리가 수행될 수 있다.The
도 43은 복수의 이미지를 이용한 노이즈 제거 처리를 예시하기 위한 도면이다. 도 43을 참조하면, 관리장치(341)는 손상 영역 및 반사 영역을 포함하는 복수의 유효 이미지 데이터(a) 및 (b)를 획득하고, 반사 영역이 제거된 이미지(c)를 획득하는 노이즈 제거 처리를 수행할 수 있다. 도 43을 참조하면, 관리장치(341)는 복수의 유효 이미지 데이터(a) 및 (b)에 기초하여, 이미지 내에서 또는 차량 영역 내에서 위치 또는 상태가 변경되는 반사 영역이 제거된 이미지(c)를 획득하는 노이즈 제거 처리를 수행할 수 있다.43 is a diagram for illustrating noise removal processing using a plurality of images. Referring to FIG. 43, the
반사 영역이 제거된 이미지(c)는 복수의 유효 이미지 데이터 (a) 및 (b)중 어느 하나에 기초하여 생성될 수 있다. 예컨대, 관리장치(341)는 복수의 유효 이미지 데이터(a) 및 (b)에 기초하여 반사 영역을 획득하고, 복수의 유효 이미지 데이터 (a) 및 (b)중 어느 하나로부터 반사 영역을 제거하여, 노이즈 제거된 이미지를 획득할 수 있다.The image (c) from which the reflection area is removed may be generated based on any one of a plurality of effective image data (a) and (b). For example, the
관리장치(341)는 신경망 모델을 이용하여 노이즈 제거 처리를 수행할 수 있다. 신경망 모델은 컨벌루션 신경망 레이어를 포함하고, 반사 영역이 마스킹된 복수의 차량 이미지를 포함하는 학습 데이터를 이용하여, 반사 영역이 제거된 이미지를 획득하도록 학습될 수 있다. 관리장치(341)는 학습된 신경망 모델을 이용하여, 유효 이미지 데이터들로부터 반사 영역이 제거된 차량 이미지를 획득하는 노이즈 제거 처리를 수행할 수 있다.The
상술한 노이즈 제거 처리가 수행된 이미지는 손상 이미지로 정의될 수 있다. 상기 관리장치(341)는 상기 손상 이미지를 기초로 차량의 손상을 포함하는 차량의 정보를 판단할 수 있다.An image on which the above-described noise removal process is performed may be defined as a damaged image. The
상기 카메라 모듈(343)이 노이즈가 발생하지 않는 환경에 설치된 경우 상기 관리장치(341)는 노이즈 제거 처리를 생략할 수도 있다. 이 경우 후술할 차량 정보 획득은 유효 이미지 데이터를 기초로 수행될 수 있다. 이 때의 손상 이미지는 상기 유효 이미지 데이터일 수 있다.When the
3.2.2 온-사이트 차량 정보 획득3.2.2 On-site vehicle information acquisition
온-사이트 차량 관리 프로세스는 차량 데이터에 기초하여 차량 정보를 획득하는 것을 포함할 수 있다.The on-site fleet management process may include obtaining vehicle information based on vehicle data.
차량 정보는 대상 차량을 구성하는 부품과 관련된 부품 정보, 대상 차량 내/외부의 손상과 관련된 손상 정보, 대상 차량의 종류와 관련된 차종 정보 및/또는 대상 차량을 식별하기 위한 식별 정보를 포함할 수 있다. The vehicle information may include parts information related to parts constituting the target vehicle, damage information related to internal/external damage of the target vehicle, vehicle model information related to the type of the target vehicle, and/or identification information for identifying the target vehicle. .
차량 정보는 차량 데이터로부터 추출되거나, 차량 데이터를 처리하여 얻어질 수 있다. 차량 정보는 차량 데이터를 입력 데이터로 하여, 차량 정보를 획득하도록 설계된 알고리즘 또는 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 얻어질 수 있다.Vehicle information may be extracted from vehicle data or obtained by processing vehicle data. Vehicle information may be obtained using an algorithm designed to obtain vehicle information or a neural network model trained to obtain vehicle information, with vehicle data as input data.
차량 데이터에 기초하여 차량 정보를 획득하는 것은 2.3에서 상술한 바 있으므로, 중복되는 내용은 생략한다.Acquisition of vehicle information based on vehicle data has been described above in 2.3, so duplicated content is omitted.
일 실시예에 따르면 관리장치(341)는 손상 이미지에 기초하여 차량정보를 획득할 수 있다. 상기 관리장치(341)는 상기 손상 이미지에 기초하여 손상정보를 획득할 수 있다.According to an embodiment, the
일 실시예에 따르면, 주차 관제 회사의 경우 관리장치(341)는 미리 저장되어 있는 데이터베이스를 이용하여 주차 차량 정보를 획득할 수 있다. 상기 주차 차량 정보는 주차 차량의 차종, 제조사, 모델명, 연식 등을 나타내는 차량 종류 정보를 포함할 수 있다. 또한, 상기 주차 차량 정보는 주차 차량을 구성하는 부품의 수, 종류, 이름, 식별 정보 등을 나타내는 부품 정보를 더 포함할 수 있다.According to an embodiment, in the case of a parking control company, the
주차 차량 정보는 대상 차량 내/외부에 발생한 추가 손상 정보를 포함할 수 있다. 상기 추가 손상 정보는 입차하는 차량의 손상 이미지와 출차하는 차량의 손상 이미지에 기초하여 산출될 수 있다. 상기 추가 손상 정보는 입차하는 차량의 손상 이미지와 출차하는 차량의 손상 이미지를 비교하여 산출될 수 있다.The parked vehicle information may include additional damage information generated inside/outside the target vehicle. The additional damage information may be calculated based on a damage image of an incoming vehicle and a damage image of an outgoing vehicle. The additional damage information may be calculated by comparing a damage image of an entering vehicle with a damage image of an exiting vehicle.
상기 추가 손상 정보는 입차하는 차량의 손상 이미지를 기초로 산출된 손상정보와 출차하는 차량의 손상 이미지를 기초로 산출된 손상 정보에 기초하여 산출될 수 있다.The additional damage information may be calculated based on damage information calculated based on a damage image of an incoming vehicle and damage information calculated based on a damage image of an outgoing vehicle.
상기 관리장치(341)는 입차하는 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나를 저장하고, 출차시 이를 불러와 출차하는 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나와 비교하여 추가 손상 정보를 산출할 수 있다.The
상기 관리장치(341)는 입차하는 차량의 비-이미지 데이터와 상기 손상 이미지 및 손상 정보를 연동하여 저장할 수 있다. 예를 들어, 관리장치(341)는 입차하는 차량의 손상 이미지 및 손상 정보를 상기 차량의 차량번호와 연동하여 저장할 수 있다.The
상기 관리장치(341)는 해당 차량이 출차하는 경우 인식된 차량번호에 기초하여 해당 차량의 차량번호와 연동된 손상 이미지 및 손상 정보를 로드하고, 이를 출차시 획득한 손상 이미지 및 손상 정보와 비교하여 추가 손상 정보를 산출할 수 있다.The
다른 예로, 상기 관리장치(341)는 주차 차량이 2회 이상 주차 시설을 이용하는 경우, 상기 주차 차량 정보는 차량의 사고 이력 등을 포함하는 추가 정보를 더 포함할 수 있다.As another example, the
다른 일 실시예에 따르면, 택시 회사 경우 관리장치(341)는 미리 저장되어 있는 데이터를 이용하여 택시 차량 정보를 획득할 수 있다. 상기 택시 차량 정보는 택시 차량의 차종, 제조사, 모델명, 연식, 제조 시기, 제조 장소, 제조자, 위치, 등록 기준지 등을 나타내는 차량 종류 정보를 포함할 수 있다. 또한, 상기 택시 차량 정보는 택시 차량을 구성하는 부품의 수, 종류, 이름, 식별 정보 등을 나타내는 부품 정보를 더 포함할 수 있다.According to another embodiment, in the case of a taxi company, the
택시 차량 정보는 대상 차량 내/외부에 발생한 추가 손상 정보를 포함할 수 있다. 상기 추가 손상 정보는 택시 운행전에 획득한 차량의 손상 이미지와 택시 운행 후에 획득한 차량의 손상 이미지에 기초하여 산출될 수 있다. 상기 추가 손상 정보는 택시 운행 전에 획득한 차량의 손상 이미지와 택시 운행 후에 획득한 차량의 손상 이미지를 비교하여 산출될 수 있다.Taxi vehicle information may include additional damage information generated inside/outside the target vehicle. The additional damage information may be calculated based on a vehicle damage image obtained before taxi operation and a vehicle damage image obtained after taxi operation. The additional damage information may be calculated by comparing a damage image of a vehicle acquired before driving a taxi with a damage image of a vehicle acquired after driving a taxi.
상기 추가 손상 정보는 택시 운행 전에 획득한 차량의 손상 이미지를 기초로 산출된 손상정보와 택시 운행 후에 획득된 차량의 손상 이미지를 기초로 산출된 손상 정보에 기초하여 산출될 수 있다.The additional damage information may be calculated based on damage information calculated based on a vehicle damage image obtained before taxi operation and damage information calculated based on a vehicle damage image obtained after taxi operation.
상기 관리장치(341)는 택시 운행 전에 획득한 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나를 저장하고, 택시 운행 후에 이를 불러와 택시 운행 후에 획득한 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나와 비교하여 추가 손상 정보를 산출할 수 있다.The
상기 관리장치(341)는 택시 운행 전에 획득한 차량의 비-이미지 데이터와 상기 손상 이미지 및 손상 정보를 연동하여 저장할 수 있다. 예를 들어, 관리장치(341)는 택시 운행 전에 획득한 차량의 손상 이미지 및 손상 정보를 상기 차량의 차량번호와 연동하여 저장할 수 있다.The
상기 관리장치(341)는 해당 차량이 택시 운행을 마친 경우 인식된 차량번호에 기초하여 해당 차량의 차량번호와 연동된 손상 이미지 및 손상 정보를 로드하고, 이를 택시 운행 후 획득한 손상 이미지 및 손상 정보와 비교하여 추가 손상 정보를 산출할 수 있다.The
3.2.3 차량 정보 관리3.2.3 Vehicle information management
온-사이트 차량 관리 프로세스는 차량 정보를 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 전술한 부품 정보, 손상 정보, 차량 종류 정보 및/또는 식별 정보를 관리하는 것을 포함할 수 있다.The on-site vehicle management process may include managing vehicle information. Managing vehicle information may include managing the aforementioned parts information, damage information, vehicle type information, and/or identification information.
또한, 차량 정보를 관리하는 것은 차량 정보를 시계열적으로 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 차량 정보를 분류하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 하나 이상의 정보를 연관하여 관리하는 것을 포함할 수 있다.Also, managing the vehicle information may include managing the vehicle information time-sequentially. Managing vehicle information may include classifying vehicle information. Managing vehicle information may include managing one or more pieces of information in association with each other.
이하에서는 차량 정보의 관리에 대하여 몇몇 실시예를 들어 설명한다. Hereinafter, management of vehicle information will be described with reference to some embodiments.
3.2.3.1 이력 관리3.2.3.1 History management
차량 정보를 관리하는 것은 차량 정보를 이력 관리하는 것을 포함할 수 있다. 차량 정보를 이력 관리하는 것은 서로 다른 시점에 획득된 하나 이상의 차량 정보를 시계열적으로 나열 및/또는 관리하는 것을 의미할 수 있다.Managing vehicle information may include history management of vehicle information. History management of vehicle information may mean time-sequential listing and/or management of one or more pieces of vehicle information obtained at different times.
일 실시예에 따르면, 온-사이트 차량 관리 프로세스에서 차량 정보를 관리한다는 것은, 특정 차량에 대하여 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 차량 정보를 관리하는 것은 제1 시점에 제1 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 시점 이후인 제2 시점에 제1 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 정보 및 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다.According to an embodiment, managing vehicle information in an on-site vehicle management process may mean managing damage information representing damage to a specific vehicle together with time information representing a time when the damage information was acquired. can For example, managing vehicle information acquires first information indicating that a first damage has occurred to a first vehicle at a first time point, and second damage has occurred to the first vehicle at a second time point after the first time point. It may include obtaining second information indicating, and managing the first information and the second information in chronological order.
예시적으로, 주차 관리 프로세스에서 차량 정보를 관리한다는 것은, 주차 차량에 대하여 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 주차 관리 프로세스에서 차량 정보를 관리한다는 것은 제1 주차 차량이 주차 구역으로 입차 시에 제1 주차 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 주차 차량이 주차 구역 밖으로 출차 시에 제1 주차 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 정보 및 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다.Illustratively, managing vehicle information in a parking management process may mean managing damage information representing damage to a parked vehicle together with time information representing a time when the damage information was acquired. For example, managing vehicle information in a parking management process means obtaining first information indicating that a first damage has occurred to the first parked vehicle when the first parked vehicle enters the parking area, and the first parking vehicle is in the parking area. It may include acquiring second information indicating that the second damage occurs in the first parked vehicle when the vehicle is taken out, and managing the first information and the second information in chronological order.
다른 예로, 택시 차량 관리 프로세스에서 차량 정보를 관리한다는 것은, 택시 차량에 대하여 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 택시 차량 관리 프로세스에서 차량 정보를 관리한다는 것은 제1 택시가 운행 전 제1 택시에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 택시가 운행 후 제1 택시에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 정보와 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다.As another example, managing vehicle information in a taxi vehicle management process may mean managing damage information representing damage to a taxi vehicle together with time information representing a time when the damage information was obtained. For example, managing vehicle information in a taxi vehicle management process means obtaining first information indicating that a first damage has occurred to the first taxi before the first taxi runs, and after the first taxi runs, a second damage to the first taxi is obtained. It may include acquiring second information indicating that damage has occurred, and managing the first information and the second information in chronological order.
3.2.3.2 손상 이력 관리 실시예 1 - 운전자 별 관리3.2.3.2 Damage history management Example 1 - Management by driver
온-사이트 차량 관리 프로세스에서 손상 정보의 이력을 관리할 수 있다. 손상 정보의 이력 관리는 새롭게 발생한 신규 손상에 대한 신규 손상 정보를 획득하는 것을 포함할 수 있다. 손상 정보의 이력 관리는 동일한 차량을 다양한 시점에 촬영하여 획득된 복수의 이미지에 기초하여, 신규 손상 정보를 획득하는 것을 포함할 수 있다.A history of damage information can be managed in an on-site fleet management process. History management of damage information may include acquiring new damage information for newly occurring new damage. History management of damage information may include obtaining new damage information based on a plurality of images obtained by photographing the same vehicle at various times.
손상 정보 이력은 운전자 정보를 고려하여 운전자 별로 관리될 수 있다.The damage information history may be managed for each driver in consideration of driver information.
일 실시예에 따르면, 관리장치(341)는 운전자 정보를 고려하여 택시 차량의 손상 정보 이력을 운전자 별로 관리할 수 있다. 관리장치(341)는 택시 차량의 손상 정보 이력을 운전자 별로 관리함으로써, 택시 차량에 손상이 발생하는 경우 책임 소재를 명확하게 할 수 있고, 택시 차량에 현재 또는 과거에 발생한 손상이 어느 운전자에 의해 발생한 것인지 파악하기가 용이하며, 그에 따른 택시 차량 관리 비용을 절감할 수 있는 효과를 제공할 수 있다. 또한, 관리장치(341)는 택시 차량의 손상 정보 이력을 운전자 별로 관리함으로써, 해당 운전자에 대한 평가 예컨대, 안전 운행 점수 등을 수행할 수 있고, 해당 운전자에 대한 상벌 예컨대, 일정 횟수 이상 사고 발생 시 벌금 부여 또는 일정 기간 무사고 시 상금 부여 등을 수행하여 회사 내 운전자들에 대한 관리가 용이하게 이루어지게 할 수 있는 효과를 제공할 수 있다.According to an embodiment, the
예시적으로, 관리장치(341)가 운전자 정보를 고려하여 택시 차량의 손상 정보 이력을 운전자별로 관리한다는 것은, 제1 택시 운전자의 운행 전 산출된 제1 손상 이미지에 기초하여 획득된 제1 손상 정보 및 제1 택시 운전자의 운행 후 산출된 제2 손상 이미지에 기초하여 획득된 제2 손상 정보를 시간을 고려하여 관리하는 것을 포함할 수 있다.Exemplarily, the fact that the
다른 예로, 관리장치(341)가 운전자 정보를 고려하여 택시 차량의 손상 정보 이력을 관리한다는 것은, 제1 택시 운전자가 제1 택시를 운행하기 전 산출된 제1 손상 이미지에 기초하여 획득된 제1 손상 정보 및 제1 택시 운전자가 제1 택시를 운행한 후 산출된 제2 손상 이미지에 기초하여 획득된 제2 손상 정보를 비교하여 얻은 제1 사용자의 제1 손상 이력과, 제1 택시 운전자가 제2 택시를 운행하기 전 산출된 제3 손상 이미지에 기초하여 획득된 제3 손상 정보 및 제1 택시 운전자가 제2 택시를 운행한 후 산출된 제4 손상 이미지에 기초하여 획득된 제4 손상 정보를 비교하여 얻은 제1 사용자의 제2 손상 이력을 시간을 고려하여 관리하는 것을 포함할 수 있다.As another example, the fact that the
3.2.3.3 손상 이력 관리 실시예 2 - 차량 별 관리3.2.3.3 Damage history management Example 2 - Management by vehicle
손상 정보 이력은 차량 별로 관리될 수 있다.Damage information history can be managed for each vehicle.
일 실시예에 따르면, 관리장치(341)는 택시 차량의 손상 정보 이력을 차량 별로 관리할 수 있다. 관리장치(341)가 택시 차량의 손상 정보 이력을 차량 별로 관리함으로써, 택시 차량에 과거부터 현재까지 발생한 손상 정보를 시계열적으로 용이하게 파악할 수 있는 효과를 제공할 수 있다. 또한, 관리장치(341)가 택시 차량의 손상 정보 이력을 차량 별로 관리함으로써, 택시 차량의 수리 및 점검 일정을 차량의 상태에 따라 차량 별로 맞춤 일정으로 계획할 수 있게 하여 효율적인 차량 관리가 이루어질 수 있게 하는 효과를 제공할 수 있다.According to an embodiment, the
예시적으로, 관리장치(341)가 택시 차량의 손상 정보 이력을 차량 별로 관리한다는 것은, 제1 택시의 운행 전 촬영된 제1 이미지에 기초하여 획득된 제1 손상 정보 및 제1 택시의 운행 후 촬영된 제2 이미지에 기초하여 획득된 제2 손상 정보를 시간을 고려하여 관리한다는 것을 포함할 수 있다.Exemplarily, the fact that the
다른 예로, 관치장치가 택시 차량의 손상 정보 이력을 차량 별로 관리한다는 것은, 제1 택시가 제1 택시 운전자에 의해 운행되기 전 산출된 제1 손상 이미지에 기초하여 획득된 제1 손상 정보 및 제1 택시가 제1 택시 운전자에 의해 운행된 후 산출된 제2 손상 이미지에 기초하여 획득된 제2 손상 정보를 비교하여 얻은 제1 택시의 제1 손상 이력과, 제1 택시가 제2 택시 운전자에 의해 운행되기 전 산출된 제3 손상 이미지에 기초하여 획득된 제3 손상 정보 및 제1 택시가 제2 택시 운전자에 의해 운행된 후 산출된 제4 손상 이미지에 기초하여 획득된 제4 손상 정보를 비교하여 얻은 제1 택시의 제2 손상 이력을 시간을 고려하여 관리하는 것을 포함할 수 있다.As another example, the fact that the management device manages the damage information history of the taxi vehicle for each vehicle means that the first damage information and the first damage information obtained based on the first damage image calculated before the first taxi is operated by the first taxi driver The first damage history of the first taxi obtained by comparing the second damage information obtained based on the second damage image calculated after the taxi was operated by the first taxi driver, and the first damage history of the first taxi caused by the second taxi driver Comparing the third damage information obtained based on the third damage image calculated before driving and the fourth damage information obtained based on the fourth damage image calculated after the first taxi is operated by the second taxi driver It may include managing the obtained second damage history of the first taxi in consideration of time.
다른 실시예에 따르면, 관리장치(341)는 주차 차량의 손상 정보 이력을 차량 별로 관리할 수 있다.According to another embodiment, the
예시적으로, 관리장치(341)가 주차 차량의 손상 정보 이력을 차량 별로 관리한다는 것은, 제1 주차 차량의 입차 시 산출된 제1 손상 이미지에 기초하여 획득된 제1 손상 정보 및 제1 주차 차량의 출차 시 산출된 제2 손상 이미지에 기초하여 획득된 제2 손상 정보를 시간을 고려하여 관리한다는 것을 포함할 수 있다.Illustratively, the
3.2.3.4 차량 정보 관리 실시예 3.2.3.4 Vehicle information management embodiment
일 실시예에 따르면, 차량 이미지에 기초하여 차량 외부의 손상과 관련된 정보를 획득하는 차량 손상 관리 장치가 제공될 수 있다.According to an embodiment, a vehicle damage management apparatus may be provided that acquires information related to damage outside a vehicle based on a vehicle image.
차량 손상 관리 장치는, 대상 차량의 외관을 촬영하여 획득된 적어도 하나의 대상 차량 이미지를 획득하는 이미지 획득부 및 적어도 하나의 대상 차량 이미지에 기초하여 상기 대상 차량의 외관 손상과 관련된 손상 정보를 획득하는 처리부를 포함할 수 있다.The vehicle damage management apparatus includes an image acquisition unit configured to acquire at least one target vehicle image obtained by photographing the exterior of the target vehicle, and damage information related to exterior damage of the target vehicle based on the at least one target vehicle image. A processing unit may be included.
적어도 하나의 대상 차량 이미지는 상기 대상 차량의 일면을 촬영하여 획득된 제1 대상 차량 이미지를 포함할 수 있다. 대상 차량의 일면은 차량의 전면 또는 후면일 수 있다. 적어도 하나의 대상 차량 이미지는 차량의 전면, 후면, 좌측면, 우측면, 좌전방면, 좌후방면, 우전방면, 우후방면 및 상면 중 적어도 하나를 나타내는 차량 이미지를 포함할 수 있다. The at least one target vehicle image may include a first target vehicle image obtained by photographing one side of the target vehicle. One side of the target vehicle may be the front or rear of the vehicle. The at least one target vehicle image may include a vehicle image representing at least one of the front, rear, left side, right side, left front side, left rear side, right front side, right rear side, and top side of the vehicle.
상기 제1 대상 차량 이미지는, 상기 대상 차량에 대응되는 제1 영역 및 상기 대상 차량의 식별 정보가 위치되는 제2 영역을 포함할 수 있다. 제1 영역은 상기 제2 영역보다 클 수 있다. 제1 영역은 제2 영역을 포함할 수 있다. The first target vehicle image may include a first area corresponding to the target vehicle and a second area where identification information of the target vehicle is located. The first area may be larger than the second area. The first region may include the second region.
처리부는, 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제1 대상 차량 이미지에 기초하여 획득되고 상기 제1 영역과 관련된 상기 손상 정보를 획득할 수 있다. 예컨대 손상 정보는 제1 대상 차량 이미지에 포함된 차량 대상 차량에 손상이 존재하는지 여부, 손상의 위치, 정도, 크기, 종류, 영역 등을 나타낼 수 있다. The processor may obtain vehicle type information of the target vehicle determined based on the second area and the damage information obtained based on the vehicle type information and the first target vehicle image and related to the first area. For example, the damage information may indicate whether there is damage to the vehicle included in the first target vehicle image, the location, degree, size, type, area, and the like of the damage.
차량 손상 관리 장치는, 상기 손상 정보를 출력하는 출력부를 더 포함할 수 있다. 상기 출력부는 상기 대상 차량의 상기 손상 정보를 출력할 수 있다. 출력부는 이미지, 영상, 음성 등의 수단을 통하여 손상 정보를 출력할 수 있다. 출력부는 통신 수단을 통하여 외부 장치로 손상 정보를 출력할 수도 있다. The vehicle damage management apparatus may further include an output unit that outputs the damage information. The output unit may output the damage information of the target vehicle. The output unit may output damage information through means such as image, video, and audio. The output unit may output damage information to an external device through a communication means.
상기 손상 정보는 상기 대상 차량의 손상에 대응되는 손상 영역 정보를 포함할 수 있다. 출력부는 상기 대상 차량 이미지 및 상기 대상 차량 이미지에 중첩되는 상기 손상 영역 정보를 출력할 수 있다.The damage information may include damage area information corresponding to the damage of the target vehicle. The output unit may output the target vehicle image and the damaged area information overlapping the target vehicle image.
차량 손상 관리 장치는, 사용자 입력을 획득하는 입력부를 더 포함할 수 있다. 처리부는, 상기 손상 정보의 출력에 응답하여, 상기 입력부를 통하여 상기 손상 정보에 대한 사용자 응답을 획득할 수 있다. The vehicle damage management apparatus may further include an input unit that obtains a user input. The processing unit may obtain a user response to the damage information through the input unit in response to the output of the damage information.
처리부는 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득할 수 있다. 처리부는, 차량의 번호판 또는 VIN에 대응되는 영역에 기초해서 결정되는 대상 차량의 차량 번호 또는 VIN을 획득할 수 있다.The processing unit may obtain identification information of the target vehicle determined based on the second region. The processing unit may obtain the license plate number or VIN of the target vehicle, which is determined based on the region corresponding to the license plate or VIN of the vehicle.
상기 처리부는 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득하고, 상기 대상 차량의 식별 정보에 대응되는 상기 대상 차량의 손상 이력을 획득하고,The processing unit obtains identification information of the target vehicle determined based on the second area, and obtains a damage history of the target vehicle corresponding to the identification information of the target vehicle;
상기 손상 이력은, 상기 제1 대상 차량 이미지보다 먼저 촬영된 제2 대상 차량 이미지에 기초하여 획득되고 상기 대상 차량의 상기 외관 손상과 관련된 기존 손상 정보를 포함할 수 있다. 기존 손상 정보는 제1 대상 차량 이미지가 촬영된 시점 이전에 촬영된 제2 대상 차량 이미지에 기초하여 획득된 손상 정보로서 제1 대상 차량 이미지를 통하여 판단하고자 하는 신규 손상 정보가 아닌 손상 정보를 의미할 수 있다. The damage history may be obtained based on a second target vehicle image taken prior to the first target vehicle image and may include existing damage information related to the exterior damage of the target vehicle. Existing damage information is damage information obtained based on a second target vehicle image taken before the first target vehicle image is captured, and may mean damage information other than new damage information to be determined through the first target vehicle image. can
처리부는 상기 기존 손상 정보 및 상기 손상 정보에 기초하여, 상기 대상 차량의 상기 제1 대상 차량 이미지가 촬영된 시점에 대응되는 신규 손상 정보를 획득할 수 있다.The processing unit may obtain new damage information corresponding to a point in time when the first target vehicle image of the target vehicle was captured, based on the existing damage information and the damage information.
상기 손상 정보는, 상기 제1 대상 차량 이미지에 포함되는 상기 제2 영역과 관련된 제1 손상 정보 및 상기 제1 영역에 기초하여 획득되는 상기 대상 차량의 식별 정보와 연관하여 미리 저장된 제2 손상 정보에 기초하여 생성될 수 있다.The damage information may include first damage information related to the second area included in the first target vehicle image and second damage information previously stored in association with identification information of the target vehicle obtained based on the first area. can be created based on
적어도 하나의 대상 차량 이미지는 상기 대상 차량의 상기 일면과 다른 타면을 촬영하여 획득된 제2 대상 차량 이미지를 더 포함할 수 있다. 여기서의 제2 대상 차량 이미지는 대상 차량의 식별 정보를 포함하지 아니하는 영역을 촬영하여 획득된 이미지일 수 있다. 예컨대, 제1 대상 차량 이미지가 차량의 번호판을 포함하는 영역을 촬영하여 획득된 전면 또는 후면 이미지인 경우, 제2 대상 차량 이미지는 차량의 측면을 촬영하여 획득된 이미지일 수 있다. The at least one target vehicle image may further include a second target vehicle image obtained by photographing the other side of the target vehicle. Here, the second target vehicle image may be an image obtained by photographing an area not including identification information of the target vehicle. For example, if the first target vehicle image is a front or rear image obtained by photographing an area including a license plate of the vehicle, the second target vehicle image may be an image obtained by photographing the side of the vehicle.
제2 대상 차량 이미지는 상기 대상 차량에 대응되는 제3 영역을 포함할 수 있다. 처리부는 상기 제1 대상 차량 이미지의 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제2 대상 차량 이미지에 기초하여 획득되고 상기 제3 영역과 관련된 상기 손상 정보를 획득할 수 있다.The second target vehicle image may include a third area corresponding to the target vehicle. The processing unit obtains vehicle model information of the target vehicle determined based on the second region of the first target vehicle image and the damage information obtained based on the vehicle model information and the second target vehicle image and associated with the third region can do.
처리부는, 상기 제1 대상 영역 이미지 및 상기 차종 정보에 기초하여, 상기 제1 영역에 포함되고 상기 대상 차량의 제1 부품에 대응되는 제1 부품 영역 및 상기 제1 영역에 포함되고 상기 대상 차량의 제2 부품에 대응되는 제2 부품 영역을 포함하는 부품 정보를 획득할 수 있다. The processing unit may, based on the first target area image and the vehicle type information, a first part area included in the first area and corresponding to the first part of the target vehicle and a first part area included in the first area and corresponding to the first part of the target vehicle. Part information including a second part region corresponding to the second part may be obtained.
처리부는, 상기 손상 정보 및 상기 부품 정보에 기초하여, 상기 손상과 대응되는 부품 영역 정보를 획득할 수 있다.The processing unit may obtain part area information corresponding to the damage based on the damage information and the part information.
처리부는 상기 제1 대상 차량 이미지로부터 상기 대상 차량의 번호판에 대응되는 상기 제2 영역을 획득하고, 상기 번호판에 대응되는 상기 제2 영역에 기초하여 상기 차종 정보를 획득할 수 있다. The processing unit may obtain the second area corresponding to the license plate of the target vehicle from the first target vehicle image, and obtain the vehicle type information based on the second area corresponding to the license plate.
처리부는, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득할 수 있다. 신경망 모델은 손상 영역 또는 손상 정보가 라벨링된 차량 이미지를 포함하는 학습 데이터를 이용하여, 차량 이미지에 기초하여 손상 정보를 획득하도록 학습될 수 있다. 손상 정보는 상기 제1 영역 중 상기 차량 외부의 손상과 대응되는 영역을 나타내는 영역 정보를 포함할 수 있다. The processing unit may obtain the damage information based on the target vehicle image by using a neural network model learned to obtain the damage information based on the target vehicle image. The neural network model may be trained to acquire damage information based on a vehicle image using learning data including a damaged area or a vehicle image labeled with damage information. The damage information may include area information indicating an area of the first area that corresponds to damage outside the vehicle.
다른 일 실시예에 따르면, 차량 이미지를 획득하는 이미지 획득부 및 손상 정보를 획득하는 처리부를 포함하는 장치를 이용한 차량 손상 관리 방법이 제공될 수 있다.According to another embodiment, a vehicle damage management method using a device including an image acquisition unit acquiring a vehicle image and a processing unit obtaining damage information may be provided.
도 31은 일 실시예에 따른 차량 손상 관리 방법을 설명하기 위한 도면이다. 도 31을 참조하면, 차량 손상 관리 방법은 대상 차량 이미지를 획득하는 단계(S3110), 대상 차량의 차종 정보를 획득하는 단계(S3130), 대상 차량 이미지 및 차종 정보에 기초하여 손상 정보를 획득하는 단계(S3150)를 포함할 수 있다. 31 is a diagram for explaining a vehicle damage management method according to an embodiment. Referring to FIG. 31 , the vehicle damage management method includes acquiring a target vehicle image (S3110), obtaining vehicle model information of the target vehicle (S3130), and acquiring damage information based on the target vehicle image and vehicle model information. (S3150) may be included.
차량 손상 관리 방법은, 이미지 획득부를 통하여, 대상 차량의 외관을 촬영하여 획득된 적어도 하나의 대상 차량 이미지를 획득하는 단계(S3110)를 포함할 수 있다. 적어도 하나의 대상 차량 이미지는 상기 대상 차량의 일면을 촬영하여 획득된 제1 대상 차량 이미지를 포함하고, 상기 제1 대상 차량 이미지는, 상기 대상 차량에 대응되는 제1 영역 및 상기 대상 차량의 식별 정보가 위치되는 제2 영역을 포함할 수 있다.The vehicle damage management method may include acquiring at least one target vehicle image obtained by photographing the exterior of the target vehicle through an image acquisition unit ( S3110 ). The at least one target vehicle image includes a first target vehicle image obtained by photographing a side of the target vehicle, and the first target vehicle image includes a first region corresponding to the target vehicle and identification information of the target vehicle. may include a second area where is located.
차량 손상 관리 방법은, 처리부를 통하여, 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보를 획득하는 단계(S3130)를 포함할 수 있다. The vehicle damage management method may include obtaining vehicle type information of the target vehicle determined based on the second area through a processing unit ( S3130 ).
처리부를 통하여, 차종 정보와 상기 제1 대상 차량 이미지에 기초하여 상기 대상 차량의 외관 손상과 관련된 손상 정보를 획득하는 단계(S3150)를 포함할 수 있다.Acquiring damage information related to exterior damage of the target vehicle based on vehicle model information and the first target vehicle image through a processing unit ( S3150 ).
차량 손상 관리 방법은, 손상 정보를 출력하는 단계; 를 더 포함할 수도 있다. 손상 정보는 상기 대상 차량의 손상에 대응되는 손상 영역 정보를 포함하고, 손상 정보를 출력하는 것은 상기 대상 차량 이미지 및 상기 대상 차량 이미지에 중첩되는 상기 손상 영역 정보를 출력하는 것을 더 포함할 수 있다. The vehicle damage management method includes outputting damage information; may further include. The damage information may include damage area information corresponding to the damage of the target vehicle, and outputting the damage information may further include outputting the target vehicle image and the damage area information overlapping the target vehicle image.
일 실시예에 따르면, 식별 정보를 획득하고 이에 기초하여 차량의 손상 이력 및/또는 신규 손상 정보를 획득하는 차량 손상 관리 방법이 제공될 수 있다. 도 32는 일 실시예에 따른 차량 손상 관리 방법을 설명하기 위한 도면이다. 도 32를 참조하면, 차량 손상 관리 방법은, 대상 차량의 식별 정보를 획득하는 단계(S3171), 대상 차량의 손상 이력을 획득하는 단계(S3173) 및/또는 신규 손상 정보를 획득하는 단계(S3175)를 더 포함할 수 있다. According to an embodiment, a vehicle damage management method may be provided in which identification information is obtained and based on the identification information, damage history and/or new damage information of the vehicle is acquired. 32 is a diagram for explaining a vehicle damage management method according to an embodiment. Referring to FIG. 32 , the vehicle damage management method includes obtaining identification information of a target vehicle (S3171), acquiring a damage history of the target vehicle (S3173), and/or acquiring new damage information (S3175). may further include.
차량 손상 관리 방법은, 처리부를 통하여, 상기 제2 영역에 기초해서 결정되는 상기 대상 차량의 식별 정보를 획득하는 단계(S3171)를 더 포함할 수 있다. The vehicle damage management method may further include obtaining identification information of the target vehicle determined based on the second region through a processing unit ( S3171 ).
차량 손상 관리 방법은, 상기 처리부를 통하여, 상기 대상 차량의 식별 정보에 대응되는 상기 대상 차량의 손상 이력을 획득하는 단계(S3173)를 더 포함할 수 있다. 손상 이력은, 상기 제1 대상 차량 이미지보다 먼저 촬영된 제2 대상 차량 이미지에 기초하여 획득되고 상기 대상 차량의 상기 외관 손상과 관련된 기존 손상 정보를 포함할 수 있다. The vehicle damage management method may further include acquiring a damage history of the target vehicle corresponding to identification information of the target vehicle through the processing unit ( S3173 ). The damage history may be obtained based on a second target vehicle image taken prior to the first target vehicle image and may include existing damage information related to the exterior damage of the target vehicle.
차량 손상 관리 방법은, 상기 처리부를 통하여, 상기 기존 손상 정보 및 상기 손상 정보에 기초하여, 상기 대상 차량의 상기 제1 대상 차량 이미지가 촬영된 시점에 대응되는 신규 손상 정보를 획득하는 단계(S3175)를 더 포함할 수 있다.The vehicle damage management method includes obtaining new damage information corresponding to a time point when the first target vehicle image of the target vehicle was captured based on the existing damage information and the damage information through the processing unit (S3175) may further include.
손상 정보는 상기 제1 영역에 포함되고 상기 대상 차량의 손상에 대응되는 손상 영역정보를 포함할 수 있다. The damage information may include damage area information included in the first area and corresponding to the damage of the target vehicle.
적어도 하나의 대상 차량 이미지는 상기 대상 차량의 상기 일면과 다른 타면을 촬영하여 획득된 제2 대상 차량 이미지를 더 포함하고, 상기 제2 대상 차량 이미지는 상기 대상 차량에 대응되는 제3 영역을 포함할 수 있다. The at least one target vehicle image may further include a second target vehicle image obtained by photographing another side of the target vehicle different from the one side, and the second target vehicle image may include a third area corresponding to the target vehicle. can
상기 손상 정보를 획득하는 단계는, 상기 제1 대상 차량 이미지의 상기 제2 영역에 기초하여 결정된 상기 대상 차량의 차종 정보 및 상기 차종 정보와 상기 제2 대상 차량 이미지에 기초하여 획득되고 상기 제3 영역과 관련된 상기 손상 정보를 획득하는 것을 더 포함할 수 있다.The obtaining of the damage information may include obtaining the damage information based on vehicle type information of the target vehicle determined based on the second area of the first target vehicle image and the vehicle type information and the second target vehicle image, and the third area It may further include obtaining the damage information related to.
일 실시예에 따르면, 부품 정보를 획득하고 이에 기초하여 손상과 대응되는 부품 영역 정보를 획득하는 차량 손상 관리 방법이 제공될 수 있다. 차량 손상 관리 방법은, 대상 차량의 부품 정보를 획득하는 단계(S3191), 손상과 대응되는 부품 영역 정보를 획득하는 단계(S3193)를 더 포함할 수 있다.According to an embodiment, a vehicle damage management method may be provided in which part information is obtained and part area information corresponding to damage is obtained based on the part information. The vehicle damage management method may further include obtaining part information of the target vehicle (S3191) and obtaining part area information corresponding to the damage (S3193).
차량 손상 관리 방법은, 처리부를 통하여, 상기 제1 대상 영역 이미지 및 상기 차종 정보에 기초하여, 상기 제1 영역에 포함되고 상기 대상 차량의 제1 부품에 대응되는 제1 부품 영역 및 상기 제1 영역에 포함되고 상기 대상 차량의 제2 부품에 대응되는 제2 부품 영역을 포함하는 부품 정보를 획득하는 단계(S3191)를 더 포함할 수 있다.The vehicle damage management method includes a first part region included in the first region and corresponding to a first part of the target vehicle and the first region based on the first target region image and the vehicle type information through a processing unit. The method may further include obtaining part information including a second part area included in and corresponding to the second part of the target vehicle (S3191).
차량 손상 관리 방법은, 상기 처리부를 통하여, 상기 손상 정보 및 상기 부품 정보에 기초하여, 상기 손상과 대응되는 부품 영역 정보를 획득하는 단계(S3193)를 더 포함할 수 있다. 손상과 대응되는 부품 영역 정보를 획득하는 것은, 손상 영역이 위치하는 부품의 명칭, 식별 부호, 개수 등을 획득하는 것을 포함할 수 있다. 손상과 대응되는 부품 영역 정보를 획득하는 것은, 본 명세서에 설명하는 부품-손상 정보를 획득하는 것을 포함할 수 있다. The vehicle damage management method may further include obtaining part area information corresponding to the damage based on the damage information and the parts information through the processing unit ( S3193 ). Acquiring part area information corresponding to the damage may include acquiring the name, identification code, number, and the like of the part where the damaged area is located. Acquiring part area information corresponding to the damage may include acquiring part-damage information described herein.
차량 손상 관리 방법은, 처리부를 통하여, 상기 제1 대상 차량 이미지로부터 상기 대상 차량의 번호판에 대응되는 상기 제2 영역을 획득하는 단계를 더 포함할 수 있다. 차종 정보를 획득하는 단계는 상기 번호판에 대응되는 상기 제2 영역에 기초하여 상기 차종 정보를 획득하는 것을 더 포함할 수 있다. The vehicle damage management method may further include acquiring the second area corresponding to the license plate of the target vehicle from the first target vehicle image through a processing unit. Obtaining vehicle model information may further include obtaining the vehicle model information based on the second region corresponding to the license plate.
상기 손상 정보를 획득하는 단계는 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하도록 학습된 신경망 모델을 이용하여, 상기 대상 차량 이미지에 기초하여 상기 손상 정보를 획득하는 것을 더 포함할 수 있다. The obtaining of the damage information may further include obtaining the damage information based on the target vehicle image by using a neural network model learned to acquire the damage information based on the target vehicle image.
차량 손상 관리 방법은, 사용자 입력을 획득하는 입력부를 더 포함할 수 있다. 이때, 차량 손상 관리 방법은, 상기 처리부가, 상기 손상 정보를 출력하는 것에 응답하여, 상기 입력부를 통하여 상기 손상 정보에 대한 사용자 응답을 획득하는 단계를 더 포함할 수 있다. The vehicle damage management method may further include an input unit that obtains a user input. In this case, the vehicle damage management method may further include obtaining a user response to the damage information through the input unit in response to the processing unit outputting the damage information.
전술한 차랑 손상 관리 방법은, 방법을 수행하는 프로그램을 저장하는 컴퓨터 판독 가능한 기록 매체로 제공될 수 있다.The above-described vehicle damage management method may be provided as a computer readable recording medium storing a program for performing the method.
3.2.4 차량 정보 출력3.2.4 Vehicle information output
3.2.4.1 출력되는 정보3.2.4.1 Output information
온-사이트 차량 관리 시스템은 관리장치(341)의 디스플레이를 통해 차량 정보 및 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 또한, 상기 관리장치(341)는 상기 관리장치(341)와 연결된 전자기기를 통해 차량 정보 및 보조 정보를 출력할 수 있다.The on-site vehicle management system may output vehicle information and auxiliary information obtained based on the vehicle information through the display of the
상기 관리장치(341)는 부품 정보, 손상 정보, 차량 종류 정보, 식별 정보 등의 차량 정보를 출력할 수 있다. 차량 관리 시스템은 사용자 정보 및/또는 위치 정보를 함께 출력할 수 있다.The
상기 관리장치(341)는 차량 이미지 및 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 차량 관리 시스템은 복수의 차량 이미지 및 각 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 복수의 차량 이미지는 차량에 대하여 다양한 각도에서 촬영된 이미지일 수 있다. The
이하에서는, 도 44 내지 도 47을 참조하여 주차 관리 시스템 및 택시 차량 관리 시스템의 차량 정보 출력 화면을 설명하도록 한다.Hereinafter, vehicle information output screens of the parking management system and the taxi vehicle management system will be described with reference to FIGS. 44 to 47 .
3.2.4.2 차량 정보 출력 실시예 1 - 주차 관제 회사3.2.4.2 Vehicle information output Embodiment 1 - Parking control company
도 44 내지 도 48은 일 실시예에 따른 관리장치(341)에서 차량 정보 및/또는 보조 정보를 출력하는 화면을 설명하기 위한 도면이다.44 to 48 are views for explaining screens for outputting vehicle information and/or auxiliary information in the
일 실시예에 따르면, 관리장치(341)는 획득된 차량 정보 및/또는 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 관리장치(341)는 관리자의 정보 통신 기기에 차량 정보 및/또는 보조 정보를 출력할 수 있다. 도면에는 도시되지 않았지만, 상술한 차량 정보 및/또는 보조 정보는 차량 운전자의 정보 통신 기기에 출력될 수 있다.According to an embodiment, the
관리장치(341)는 주차 차량에 신규 손상 정보가 검출된 경우, 차량 정보 및/또는 보조 정보를 출력할 수 있다. 또한, 관리장치(341)는 운전자가 주차 차량에 주차 중 손상이 발생되었다고 주장하는 경우, 상기 관리장치(341)의 사용자 인터페이스에 의한 입력에 기초하여 차량 정보 및/또는 보조 정보를 출력할 수 있다. 또한, 관리장치(341)는 주차 차량 관리를 위해 신규 손상 정보가 검출되지 않거나 운전자가 주차 중 손상 발생을 주장하지 않는 경우에도, 차량 정보 및/또는 보조 정보를 출력할 수 있다.The
또한 상기 관리장치(341)는 출차하는 차량의 신규 손상 정보가 검출되는 경우 차단기(PB)를 개방하지 않은 상태에서 차량 운전자에 추가 손상이 발생하였음을 출력할 수 있다. 이 경우 관리장치(341)는 차량 운전자의 정보통신기기에 추가 손상이 발생하였음이 출력되도록 할 수 있고, 차량 운전자가 추가 손상에 대한 컨펌을 진행하는 경우 상기 관리장치(341)는 차단기(PB)를 개방할 수도 있다.In addition, the
또는, 상기 관리장치(341)는 출차하는 차량의 신규 손상 정보가 검출되는 경우 차단기(PB)를 개방한 후에 추가손상이 발생하였음을 상기 차량 운전자의 정보통신기기에 전달할 수 있다.Alternatively, the
도 44는 관리장치(341)의 출력 화면 중 손상 정보를 출력하는 화면을 설명하기 위한 도면이다.44 is a diagram for explaining a screen for outputting damage information among output screens of the
일 실시예에 따른 출력 화면은 차량 이미지 표시부(CI), 차량 이미지의 촬영 방향을 나타내는 방향 지시자(DI), 차량과 관련된 비-이미지 정보 표시부(IF), 차량의 손상 정보를 나타내는 손상 정보 테이블(DT)을 포함할 수 있다.The output screen according to an embodiment includes a vehicle image display unit (CI), a direction indicator (DI) indicating a capturing direction of the vehicle image, a non-image information display unit (IF) related to the vehicle, and a damage information table (which represents damage information of the vehicle). DT) may be included.
일 실시예에 따른 차량 이미지 표시부(CI)는 노이즈가 제거된 이미지를 표시할 수 있다. 차량 이미지 표시부(CI)는 주차 구역에서 출차 시 촬영된 차량 이미지를 표시할 수 있다. 차량 이미지 표시부(CI)는 주차 구역에서 출차 시 촬영된 차량의 손상 영역 정보가 포함된 차량 이미지를 표시할 수 있다. 손상 영역 정보는 기존 손상 영역(ED) 및 신규 손상 영역(ND)을 포함할 수 있다. 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 달리 표시될 수 있다. 또한, 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 다른 색상 또는 서로 다른 형태의 바운딩 박스로 표시될 수 있다.The vehicle image display unit CI according to an exemplary embodiment may display an image from which noise is removed. The vehicle image display unit CI may display a vehicle image captured when leaving the parking area. The vehicle image display unit CI may display a vehicle image including information about the damaged area of the vehicle captured when leaving the parking area. The damaged area information may include an existing damaged area ED and a new damaged area ND. The existing damaged area ED and the new damaged area ND may be displayed differently. Also, the existing damaged area ED and the new damaged area ND may be displayed as bounding boxes of different colors or shapes.
또한, 차량 이미지 표시부(CI)에 표시되는 차량 이미지는 사용자에 의해 확대 또는 축소가 가능한 형태로 출력될 수 있다.In addition, the vehicle image displayed on the vehicle image display unit CI may be output in a form that can be enlarged or reduced by the user.
일 실시예에 따른 방향 지시자(DI)는 표시되고 있는 차량 이미지의 촬영 방향을 나타낼 수 있다. 또한, 방향 지시자(DI)는 차량의 좌측 방향을 지시하고, 차량 이미지 표시부(CI)는 차량의 좌측에서 촬영된 차량 이미지를 표시할 수 있다. 방향 지시자(DI)에 의해 지시되는 복수의 방향 각각에 대하여 서로 다른 방향에서 촬영된 차량 이미지가 대응될 수 있다. 방향 지시자(DI)의 방향을 선택하는 사용자 입력에 응답하여 대응되는 차량 이미지가 표시될 수 있다.According to an exemplary embodiment, the direction indicator DI may indicate a photographing direction of a displayed vehicle image. In addition, the direction indicator DI may indicate the left direction of the vehicle, and the vehicle image display unit CI may display a vehicle image captured from the left side of the vehicle. Vehicle images photographed in different directions may correspond to each of a plurality of directions indicated by the direction indicator DI. A corresponding vehicle image may be displayed in response to a user input for selecting a direction of the direction indicator DI.
일 실시예에 따른 비-이미지 정보 표시부(IF)는 차량과 관련된 비-이미지 정보를 표시할 수 있다. 도 44를 참조하면, 비-이미지 정보 표시부(IF)는 차량 이미지가 촬영된 시점, 차량의 번호, 차량의 모델 등을 표시할 수 있다. 예시적으로, 차량 이미지가 촬영된 시점은 주차 구역으로 입차한 시간 및 주차 구역에서 출차한 시간을 의미할 수 있다. 또한, 비-이미지 정보 표시부(IF)는 차량 번호 및 차량 모델명을 표시할 수 있다.The non-image information display unit IF according to an embodiment may display non-image information related to a vehicle. Referring to FIG. 44 , the non-image information display unit IF may display a time point at which a vehicle image was captured, a vehicle number, a vehicle model, and the like. Illustratively, the timing at which the vehicle image is captured may mean a time of entering the parking area and a time of leaving the parking area. In addition, the non-image information display unit IF may display vehicle number and vehicle model name.
일 실시예에 따른 손상 정보 테이블(DT)은 차량 이미지에 대응되는 부품 별로 손상의 수를 나타낼 수 있다. 이미지에 대응되는 부품은 현재 표시되고 있는 차량 이미지의 방향에 대응되는 부품을 의미할 수 있다. 예컨대, 도 44에서는 차량의 좌측을 촬영한 이미지가 표시되고 있으므로, 손상 정보 테이블(DT)은 차량의 좌측에 위치된 부품에 대한 부품 별 손상의 수를 나타낼 수 있다. 부품 별 손상의 수는 부품별 기존 손상의 수 및 신규 손상의 수(+로 구분됨)를 포함할 수 있다. 도 44를 참조하면, 손상 정보 테이블(DT)은 좌전방 도어, 좌측 도어 핸들, 좌후방 휀더에 기존 손상이 존재하며, 좌전방 도어 및 좌후방 휀더에 신규 손상이 존재함을 나타낼 수 있다.The damage information table DT according to an embodiment may indicate the number of damages for each part corresponding to the vehicle image. The part corresponding to the image may refer to a part corresponding to the direction of the currently displayed vehicle image. For example, since an image of the left side of the vehicle is displayed in FIG. 44 , the damage information table DT may indicate the number of damages of parts located on the left side of the vehicle. The number of damages per part may include the number of existing damages and the number of new damages (separated by +) per part. Referring to FIG. 44 , the damage information table DT may indicate that existing damage exists on the left front door, left door handle, and left rear fender, and new damage exists on the left front door and left rear fender.
한편, 손상 정보 테이블(DT)은 손상 정보 표시부의 일 실시예일 뿐이며, 기존 손상 또는 신규 손상에 대한 정보는 다른 형태로 표시될 수도 있다.Meanwhile, the damage information table DT is only one embodiment of the damage information display unit, and information on existing damage or new damage may be displayed in other forms.
도 45는 관리장치(341)의 출력 화면 중 손상 정보에 대한 사용자 또는 관리자의 동의 여부를 선택할 수 있는 화면을 설명하기 위한 도면이고, 도 46은 관리장치(341)의 출력 화면 중 손상 정보에 관한 상세한 내용이 포함된 화면을 설명하기 위한 도면이다.45 is a view for explaining a screen for selecting whether or not a user or manager consents to damage information among output screens of the
도 45의 (a)를 참조하면, 일 실시예에 따른 관리장치(341)의 출력 화면 중 손상 정보를 출력하는 화면은 상세 확인 버튼(CO)을 포함할 수 있다. 사용자 또는 관리자는 신규 손상 영역(ND)에 관한 정보에 동의하지 않거나, 동의하더라도 보다 구체적인 정보를 얻고 싶은 경우 차량 이미지 표시부(CI)에 포함되어 있는 상세 확인 버튼(CO)을 클릭할 수 있다.Referring to (a) of FIG. 45 , a screen for outputting damage information among output screens of the
사용자 또는 관리자가 상세 확인 버튼(CO)을 클릭하는 경우, 관리장치(341)의 출력 화면은 입차 시 산출된 손상 이미지 및 출차 시 산출된 손상 이미지를 표시할 수 있다. 이때, 입차 시 산출된 손상 이미지 및 출차 시 산출된 손상 이미지는 서로 대응되는 방향에서 촬영된 차량 이미지일 수 있다. 다른 예로, 입차 시 산출된 손상 이미지 및 출차 시 산출된 손상 이미지는 적어도 하나 이상의 차량의 주요 부위를 포함하되, 상기 차량의 주요 부위는 적어도 하나 이상 공통될 수 있다.When the user or manager clicks the detailed confirmation button CO, the output screen of the
또는, 상기 관리장치(341)의 출력 화면은 입차시 도출된 유효 이미지 데이터에 입사치 손상 정보가 매핑된 이미지를 표시할 수 있다. 또한, 상기 관리장치(341)의 출력 화면은 출차시 도출된 유효 이미지 데이터에 출차시 손상 정보가 매핑된 이미지를 표시할 수 있다.Alternatively, the output screen of the
입차 시 산출된 손상 이미지에는 기존 손상 영역(ED)이 포함될 수 있고, 출차 시 산출된 손상 이미지에는 신규 손상 영역(ND)이 포함될 수 있다. 즉, 사용자 또는 관리자가 상세 확인 버튼을 클릭하는 경우, 사용자 또는 관리자는 입차 시 촬영된 차량 이미지와 출차 시 산출된 손상 이미지를 비교하여 신규 손상에 관한 보다 구체적인 정보를 획득할 수 있다.An existing damaged area ED may be included in the damaged image calculated upon vehicle entry, and a new damaged area ND may be included in the damaged image calculated upon vehicle exit. That is, when the user or manager clicks the detailed check button, the user or manager can obtain more specific information about the new damage by comparing the vehicle image captured when entering the vehicle with the damage image calculated when leaving the vehicle.
도 45의 (b)를 참조하면, 다른 실시예에 따른 관리장치(341)의 출력 화면 중 손상 정보를 출력하는 화면은 신규 손상 정보에 대해 동의 여부를 선택할 수 있는 선택창(CO)을 포함할 수 있다. 사용자 또는 관리자는 신규 손상 영역(ND)에 관한 정보에 동의하는 경우 'Confirm' 버튼을 클릭할 수 있고, 동의하지 않는 경우 'Objection'버튼을 클릭할 수 있다.Referring to (b) of FIG. 45 , a screen for outputting damage information among output screens of the
도 46를 참조하면, 사용자 또는 관리자가 'Objection'버튼을 클릭하는 경우, 관리장치(341)의 출력 화면은 입차 시 산출된 손상 이미지 및 출차 시 산출된 손상 이미지를 표시할 수 있다. Referring to FIG. 46 , when the user or manager clicks the 'Objection' button, the output screen of the
도 47은 관리장치(341)의 출력 화면 중 손상 이력에 관한 정보를 포함하는 출력 화면을 설명하기 위한 도면이다.47 is a view for explaining an output screen including information about a damage history among output screens of the
도 47을 참조하면, 일 실시예에 따른 손상 이력에 관한 정보를 포함하는 출력 화면은 차량 이미지 표시부(CI), 차량과 관련된 비-이미지 정보 표시부(IF) 및 손상 이력 표시부(DH)를 포함할 수 있다.Referring to FIG. 47 , an output screen including information about damage history according to an embodiment may include a vehicle image display unit CI, a vehicle-related non-image information display unit IF, and a damage history display unit DH. can
차량 이미지 표시부(CI) 및 비-이미지 정보 표시부(IF)에 관한 내용은 상술한 바 있으므로 자세한 설명은 생략한다.Since the vehicle image display unit CI and the non-image information display unit IF have been described above, a detailed description thereof will be omitted.
손상 이력 표시부(DH)는 과거부터 현재까지 해당 차량에 발생한 손상 정보를 표시할 수 있다. 또한, 손상 이력 표시부(DH)는 과거부터 현재까지 해당 차량에 발생한 손상에 대해 손상 발생 날짜, 손상 발생 시간, 손상 개수, 손상 위치 등을 포함하는 정보를 표시할 수 있다.The damage history display unit DH may display damage information occurring to the vehicle from the past to the present. In addition, the damage history display unit DH may display information including a date of occurrence of damage, a time of occurrence of damage, the number of damages, a location of damage, and the like regarding damages occurring to the corresponding vehicle from the past to the present.
3.2.4.3 차량 정보 출력 실시예 2 - 택시 회사3.2.4.3 Example 2 of Vehicle Information Output - Taxi Company
택시 차량 관리 시스템의 관리장치(341)의 디스플레이에 출력되는 정보는 3.2.4.2에서 서술한 주차 관리 시스템에서 출력하는 정보와 대응된다. 따라서, 주차관리 시스템에서 설명했던 내용과 중복되는 설명은 생략한다.The information output on the display of the
일 실시예에 따르면, 택시 차량 관리 시스템의 관리장치(341)는 획득된 차량 정보 및/또는 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 상기 관리장치(341)는 관리자의 정보 통신 기기에 차량 정보 및/또는 보조 정보를 출력할 수 있다. 도면에는 도시되지 않았지만, 상술한 차량 정보 및/또는 보조 정보는 택시 운전자의 정보 통신 기기에 출력될 수 있다.According to an embodiment, the
도 48은 관리장치(341)의 출력 화면 중 손상 이력에 관한 정보를 포함하는 출력 화면을 설명하기 위한 도면이다.48 is a diagram for explaining an output screen including information about a damage history among output screens of the
도 48을 참조하면, 택시에 발생한 손상 이력을 운전자 별로 분류하여 출력하는 화면은 운전자와 관련된 비-이미지 정보 표시부(IF), 손상 이력 표시부(DH) 및 차량 이미지 표시부(CI)를 포함할 수 있다.Referring to FIG. 48, the screen for classifying and outputting the history of damage to the taxi by driver may include a non-image information display unit (IF) related to the driver, a damage history display unit (DH), and a vehicle image display unit (CI). .
일 실시예에 따른 비-이미지 정보 표시부(IF)는 운전자에 관한 정보 예컨대, 운전자 이름, 운전자의 면허 정보, 운전자의 주소 등에 관한 정보를 표시할 수 있다. 또한, 비-이미지 정보 표시부(IF)는 해당 운전자가 주행한 총 주행 거리, 총 주행 시간, 총 사고 횟수, 총 수리/교체 횟수, 총 수리/교체 비용 등에 관한 정보를 표시할 수 있다.The non-image information display unit IF according to an embodiment may display information about the driver, for example, the driver's name, driver's license information, driver's address, and the like. In addition, the non-image information display unit IF may display information about the total mileage, total driving time, total number of accidents, total number of repairs/replacements, total repair/replacement costs, and the like.
일 실시예에 따른 손상 이력 표시부(DH)는 과거부터 현재까지 해당 운전자에 의해 발생한 손상 정보를 표시할 수 있다. 또한, 손상 이력 표시부(DH)는 과거부터 현재까지 해당 운전자에 의해 발생한 손상에 대해 손상 발생 차량 번호, 손상 발생 날짜, 손상 개수, 손상 위치 등에 관한 정보를 표시할 수 있다.The damage history display unit DH according to an embodiment may display damage information caused by a corresponding driver from the past to the present. In addition, the damage history display unit DH may display information about damage caused by the driver from the past to the present, such as a vehicle number where the damage occurred, a date the damage occurred, the number of damages, and the location of the damage.
일 실시예에 따른 차량 이미지 표시부(CI)는 운전자 또는 관리자가 해당 운전자의 손상 이력 중 어느 하나를 선택하는 경우 운전자 또는 관리자가 선택한 손상 정보에 관한 상세 내용을 표시할 수 있다. 이때, 상기 운전자 또는 관리자가 선택한 손상 정보에 관한 상세 내용은 사고 발생 차량의 보험 번호, 부품 교체/수리 여부, 부품 교체/수리 가격 등에 관한 정보를 포함할 수 있다.According to an embodiment, the vehicle image display unit CI may display detailed information about damage information selected by the driver or manager when the driver or manager selects one of the corresponding driver's damage histories. In this case, the details of the damage information selected by the driver or manager may include information about the insurance number of the vehicle in which the accident occurred, whether to replace/repair parts, the price of parts replacement/repair, and the like.
또한, 손상 이력 정보 출력 화면은 택시에 발생한 손상 이력을 차량 별로 분류하여 출력할 수도 있다. 상기 관리장치(341)는 해당 택시에서 발생한 손상 영역 별로 손상이 발생하였을 때의 운전자를 연계하여 표시할 수 있다.In addition, the damage history information output screen may classify and output the history of damage occurring to the taxi for each vehicle. The
4. 모바일 베이스 차량 관리 시스템4. Mobile base vehicle management system
4.1 모바일 시스템4.1 Mobile system
일 실시예에 따르면, 모바일에서 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 시스템이 제공될 수 있다.According to one embodiment, a vehicle management system for managing a state of a vehicle using an image captured by a mobile device may be provided.
도 49는 모바일 베이스 차량 관리 시스템의 구성을 설명하기 위한 도면이다.49 is a diagram for explaining the configuration of a mobile-based vehicle management system.
도 49를 참조하면, 일 실시예에 따른 모바일 베이스 차량 관리 시스템은 단말기(490) 및 서버(499)를 포함할 수 있다.Referring to FIG. 49 , a mobile-based vehicle management system according to an embodiment may include a terminal 490 and a
단말기(490)는 서버(499)와 연결될 수 있다. 상기 단말기(490)가 서버(499)와 연결되는 경우 상기 단말기(490)는 서버(499)와 데이터를 교환할 수 있다. 이 경우 서버(499)는 다수의 단말기(490)와 연결되어, 다수의 단말기(490)로부터의 데이터를 수신하여 처리할 수 있다.The terminal 490 may be connected to the
단말기(490)는 적어도 하나 이상의 카메라 모듈(491), 제어부(492), 저장부(493), 통신부(494), 입력부(495) 및 출력부(496)를 포함할 수 있다.The terminal 490 may include at least one
카메라 모듈(491)은 차량의 외관을 촬영할 수 있다. 카메라 모듈(491)은 공유 차량의 이용 전과 후에 차량의 외관을 촬영할 수 있다.The
저장부(493)는 상기 카메라 모듈(491)에 의해 촬영된 촬영 데이터를 저장할 수 있다. 또한, 저장부(493)는 비-이미지 데이터를 저장할 수 있다.The
통신부(494)는 데이터를 송/수신하는 구성이다. 단말기(490)와 서버(499)는 상기 통신부(494)를 통해 서로 연결되어 데이터를 교환할 수 있다.The
입력부(495)는 이용자 또는 관리자로부터 데이터를 입력 받는 구성이다. 상기 데이터는 차량에 관한 정보, 이용자 정보 등을 포함할 수 있다.The
출력부(496)는 이용자 또는 관리자에게 차량에 관한 정보를 출력하는 구성으로, 디스플레이 등의 모듈을 지칭할 수 있다.The
제어부(492)는 저장부(493), 통신부(494), 입력부(495) 및 출력부(496)를 제어할 수 있다. 제어부(492)는 카메라 모듈(491)에 의해 촬영된 촬영 데이터가 저장부(493)에 저장될 수 있도록 제어하며, 다양한 실시예의 형태로서 통신부(494)에서 데이터가 송수신되도록 제어하고, 입력부(495)를 통해 차량에 관한 정보 및 이용자 정보 등을 입력 받도록 제어하고, 출력부(496)를 통해 이용자 또는 관리자에게 차량에 관한 정보를 출력하도록 제어할 수 있다.The
4.2 모바일 베이스 차량 관리 프로세스4.2 Mobile-based fleet management process
일 실시예에 따르면, 모바일에서 차량을 촬영한 이미지를 이용하여 차량의 상태를 관리하기 위한 차량 관리 프로세스가 제공될 수 있다. 모바일 베이스 차량 관리 프로세스는 전술한 모바일 베이스 차량 관리 시스템에 의해 수행될 수 있다.According to an embodiment, a vehicle management process for managing a state of a vehicle using an image captured by a mobile device may be provided. The mobile-based vehicle management process may be performed by the aforementioned mobile-based vehicle management system.
도 50은 모바일 베이스 차량 관리 프로세스에 의해 수행되는 일련의 단계들을 설명하기 위한 도면이다.50 is a diagram for explaining a series of steps performed by a mobile-based vehicle management process.
도 50을 참조하면, 모바일 베이스 차량 관리 프로세스는 모바일에서 촬영된 차량 데이터를 획득하는 단계(S510), 획득된 차량 데이터에 기초하여 차량 정보를 획득하는 단계(S530), 차량 정보를 관리하는 단계(S550) 및 차량 정보를 출력하는 단계(S570)를 포함할 수 있다. 이하에서는 각 단계에 대하여 보다 구체적으로 설명한다.Referring to FIG. 50 , the mobile-based vehicle management process includes acquiring vehicle data captured in a mobile device (S510), acquiring vehicle information based on the obtained vehicle data (S530), and managing vehicle information (S530). S550) and outputting vehicle information (S570). Hereinafter, each step will be described in more detail.
4.2.1 모바일 차량 데이터 획득4.2.1 Mobile Vehicle Data Acquisition
모바일 베이스 차량 관리 프로세스는 차량 관리에 필요한 차량 데이터를 획득하는 단계(S510)를 포함할 수 있다. 차량 데이터는 다양한 형태로 마련될 수 있다. 예컨대, 차량 데이터는 이미지 데이터 또는 비-이미지 데이터일 수 있다. 차량 데이터는 장치에 미리 저장되거나 외부로부터 획득될 수 있다.The mobile-based vehicle management process may include obtaining vehicle data necessary for vehicle management (S510). Vehicle data may be prepared in various forms. For example, vehicle data may be image data or non-image data. Vehicle data may be pre-stored in the device or obtained from the outside.
차량 데이터 및 차량 데이터의 획득에 대하여는 이하에서 구체적인 예시를 들어 보다 상세히 설명한다.The acquisition of vehicle data and vehicle data will be described in more detail below with specific examples.
4.2.1.1 이미지 데이터 획득4.2.1.1 Image Data Acquisition
일 실시예에 따른 이미지 데이터 획득은 복수의 이미지를 포함하는 영상 데이터를 획득하고, 획득한 복수의 이미지 중 유효 이미지 데이터를 추출하는 것을 포함할 수 있다. 상기 영상 데이터 및 유효 이미지 데이터는 3.2.1.1에서 서술한 영상 데이터 및 유효 이미지 데이터와 각각 서로 대응되는 구성이며, 그에 관한 내용은 상술한 바 있으므로 중복되는 내용은 생략하도록 한다.Obtaining image data according to an embodiment may include acquiring image data including a plurality of images and extracting valid image data from among the plurality of acquired images. The video data and effective image data are components corresponding to the video data and effective image data described in 3.2.1.1, respectively, and since the contents have been described above, overlapping contents will be omitted.
도 51은 일 실시예에 따른 영상 데이터에 포함되어 있는 차량 손상 정보가 충분하지 않은 경우 재 촬영 요청을 설명하기 위한 도면이다.51 is a diagram for explaining a recapturing request when vehicle damage information included in image data is not sufficient, according to an exemplary embodiment.
모바일 베이스 차량 관리 프로세스는 영상 데이터에 손상 개수, 손상 종류, 손상 정도에 관한 정보 및 손상이 발생한 위치, 손상이 발생한 부품 정보 등이 모두 포함되어 있어야 정상적으로 작동할 수 있다. 따라서, 영상 데이터에 상기 차량 손상에 관한 정보가 충분히 표현되어 있지 않은 경우 단말기(490)는 이용자 또는 관리자에게 재 촬영할 것을 요청할 수 있다.The mobile-based vehicle management process can operate normally only when the image data includes information on the number of damages, types of damages, and degrees of damages, locations where damages occur, and information on parts where damages occur. Accordingly, when the information on the vehicle damage is not sufficiently expressed in the image data, the terminal 490 may request the user or manager to re-photograph.
즉, 단말기(490)에 의해 촬영된 영상 데이터는 서버(499)로 전송되고, 서버(499)가 전달받은 영상 데이터가 차량 손상에 관한 정보가 충분히 표현되어 있는지 여부를 판단하고, 그 결과를 상기 단말기(490)에 전송할 수 있다. 상기 단말기(490)는 출력부(496)를 통해 판단 결과를 이용자에게 표시할 수 있다. 상기 단말기(490)는 촬영된 영상 데이터가 차량 손상에 관한 정보가 충분히 표현되어 있는 경우에는 적합한 촬영임을 이용자에게 알릴 수 있고, 촬영된 영상 데이터가 차량 손상에 관한 정보가 충분히 표현되어 있지 않은 경우에는 이용자에게 재촬영이 필요함을 알릴 수 있다.That is, image data photographed by the terminal 490 is transmitted to the
또는 상기 단말기(490)는 촬영된 영상 데이터가 차량 손상에 관한 정보가 충분히 표현되어 있는지 여부를 판단할 수도 있다.Alternatively, the terminal 490 may determine whether information on vehicle damage is sufficiently expressed in the captured image data.
도 51의 (a)를 참조하면, 카메라 모듈(491)에 의해 촬영된 영상 데이터(MBB1)에 손상 개수, 손상 종류, 손상 정도 등에 관한 정보가 명확히 포함되어 있지 않다. 또한, 도 51의 (b)를 참조하면, 손상 부위를 확대 촬영한 결과 카메라 모듈(491)에 의해 촬영된 영상 데이터(MBB2)에 차량 외관 중 손상이 발생한 위치, 손상이 발생한 부품 정보 등에 관한 정보가 명확히 포함되어 있지 않다.Referring to (a) of FIG. 51 , the image data MBB1 captured by the
이 경우, 단말기(490)의 제어부(492)는 출력부(496)를 통해 이용자 또는 관리자에게 도 51의 (c)에 도시된 바와 같이 영상 데이터(MBB3)에 손상 개수, 손상 종류, 손상 정도에 관한 정보 및 손상이 발생한 위치, 손상이 발생한 부품 정보 등이 모두 포함될 수 있도록 재 촬영을 요청하는 메시지를 표시할 수 있다.In this case, the
또는 상기 단말기(490)의 제어부(492)는 저장부(493)에 저장된 기존 손상부위에 대한 촬영이 진행되지 않은 경우 기존 손상부위에 대한 재촬영을 요청하는 메시지를 표시할 수도 있다.Alternatively, the
한편, 영상 데이터는 카메라 모듈(491)이 복수의 특정 시점 사이에 촬영한 데이터를 의미할 수 있다. 이때, 상기 복수의 특정 시점은 서로 다른 시점을 의미할 수 있다. 이하에서는 도면을 참조하여 상기 복수의 특정 시점을 구체적인 예시를 들어 보다 상세히 설명한다.Meanwhile, image data may refer to data captured by the
도 52는 일 실시예에 따른 영상 데이터가 특정 시점에서 카메라 모듈(491)에 의해 촬영되는 것을 설명하기 위한 도면이다.52 is a diagram for explaining that image data is captured by the
영상 데이터는 복수의 이미지를 포함할 수 있다. 영상 데이터는 제1 이미지 및 제2 이미지를 포함할 수 있다. 상기 제1 이미지는 촬영되는 차량의 특정 지점으로부터 제1 거리(D1)를 가지는 제1 지점에 위치한 단말기(490)에 의해 촬영된 이미지이다. 상기 제2 이미지는 상기 차량의 상기 특정 지점으로부터 제2 거리(D2)를 가지는 제2 지점에 위치한 단말기(490)에 의해 촬영된 이미지이다. 이때, 상기 제1 거리(D1)와 제2 거리(D2)는 상이할 수 있다.Image data may include a plurality of images. Image data may include a first image and a second image. The first image is an image captured by the terminal 490 located at a first point having a first distance D1 from a specific point of the vehicle being photographed. The second image is an image captured by the terminal 490 located at a second point having a second distance D2 from the specific point of the vehicle. In this case, the first distance D1 and the second distance D2 may be different.
예를 들어, 상기 영상 데이터는 이용자의 조작에 의해 촬영된 이미지일 수 있다. 상기 제1 이미지 및 제2 이미지는 이용자의 조작에 의해 촬영된 이미지일 수 있다. 즉, 이용자의 상기 단말기(490)에 대한 제1 조작에 의해 제1 이미지가 촬영되고, 제2 조작에 의해 제2 이미지가 촬영될 수 있다.For example, the image data may be an image captured by a user's manipulation. The first image and the second image may be images captured by a user's manipulation. That is, a first image may be captured by a user's first manipulation of the terminal 490, and a second image may be captured by a second manipulation.
또는, 상기 단말기(490)는 이용자의 조작에 의해 촬영된 영상 데이터 중 일부를 추출할 수 있다. 즉, 상기 단말기(490)는 이용자의 조작에 의해 동영상 형태로 촬영되고, 상기 단말기(490)는 상기 영상 데이터 중 주요 부위가 촬영된 영상 데이터를 제1 이미지와 제2 이미지로 추출할 수 있다. 또는 상기 서버(499)가 영상 데이터를 전송받고, 상기 서버(499)는 상기 영상 데이터 중 주요 부위가 촬영된 영상 데이터를 제1 이미지와 제2 이미지로 추출할 수 있다.Alternatively, the terminal 490 may extract a part of image data captured by a user's manipulation. That is, the terminal 490 is photographed in the form of a video by a user's manipulation, and the terminal 490 may extract video data of a main part of the video data as a first image and a second image. Alternatively, the
영상 데이터가 카메라 모듈(491)에 의해 제1 거리(D1)와 상기 제1 거리(D1)와 상이한 제2 거리(D2)를 가지는 지점에서 획득되는 경우, 상기 영상 데이터에는 차량 손상 정보 외에도 해당 손상 정보 이외의 다양한 정보가 포함될 수 있다. 이에 따라, 단말기(490)는 영상 데이터로부터 노이즈가 제거된 즉, 차량 손상에 관한 보다 정확한 정보가 포함되어 있는 유효 이미지 데이터를 검출할 수 있다.When image data is acquired by the
또한, 상기 제1 이미지는 차량 외관에 관한 제1 영역이 촬영되되, 상기 제1 영역에는 적어도 하나 이상의 차량 주요 부위가 포함되어 있는 이미지이다. 상기 제2 이미지는 차량 외관에 관한 제2 영역이 촬영되되, 상기 제2 영역에는 적어도 하나 이상의 차량 주요 부위가 포함되어 있는 이미지이다. 이때, 단말기(490)에 의해 촬영된 차량 주요 부위 중 적어도 일부는 제1 영역 및 제2 영역에 공통적으로 포함될 수 있다.In addition, the first image is an image in which a first area of the exterior of the vehicle is captured, and at least one main part of the vehicle is included in the first area. The second image is an image in which a second area of the exterior of the vehicle is captured, and at least one main part of the vehicle is included in the second area. In this case, at least some of the main parts of the vehicle photographed by the terminal 490 may be commonly included in the first area and the second area.
도 53은 카메라 모듈(491)로 차량을 촬영하는 경우 대상 차량의 정보에 기초하여 제공되는 촬영 가이드를 설명하기 위한 도면이다.53 is a view for explaining a shooting guide provided based on target vehicle information when a vehicle is photographed with the
도 53의 (a)를 참조하면, 단말기(490)는 이용자 또는 관리자가 카메라 모듈(491)로 차량을 촬영하는 경우 대상 차량의 정보에 기초하여 출력부(496)를 통해 촬영 가이드를 표시할 수 있다. 상기 대상 차량의 정보는 차량 이용자가 입력한 정보, 차량 이용자의 예약 정보 또는 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 얻어질 수 있다. 예시적으로, 차량 이용자가 차량 이용 전 특정 차종을 예약하는 경우, 단말기(490)는 이용자의 예약 정보에 기초하여 해당 차종에 관한 촬영 가이드를 출력부(496)를 통해 이용자 또는 관리자에게 제공할 수 있다. 다른 예로, 차량 이용자가 차량 이용을 위해 카메라 모듈(491)로 차량을 촬영하는 경우, 단말기(490)는 차량 정보를 획득하도록 학습된 신경망 모델을 통해 해당 차종에 관한 정보를 획득 후 해당 차종에 관한 촬영 가이드를 출력부(496)를 통해 이용자 또는 관리자에게 제공할 수 있다. 한편, 도 53의 (a)에 도시된 촬영 가이드는 예시적인 것으로 일 실시예의 촬영 가이드는 기 알려진 다양한 촬영 가이드의 형태를 포함할 수 있다.Referring to (a) of FIG. 53 , the terminal 490 may display a shooting guide through the
도 53의 (b) 및 (c)를 참조하면, 상술한 촬영 가이드에 기초하여 이용자가 차량을 촬영할 때 촬영 가이드 내에 해당 차량이 일정 비율 이상 적합하게 위치할 경우, 단말기(490)의 제어부(492)는 촬영 버튼을 활성화하여 이용자의 차량 촬영 및 저장이 가능하도록 할 수 있다.Referring to (b) and (c) of FIG. 53 , when a user photographs a vehicle based on the above-described photographing guide, when the vehicle is properly positioned within a predetermined ratio or more, the
또한, 상술한 촬영 가이드에 기초하여 이용자가 차량을 촬영할 때 촬영 가이드 내에 해당 차량이 일정 비율 이상 적합하게 위치할 경우, 단말기(490)의 제어부(492)는 카메라 모듈(491)이 자동적으로 차량의 외관을 촬영하도록 제어한 후, 촬영된 이미지가 단말기(490)의 저장부(493)에 저장되도록 제어할 수 있다.In addition, when the user photographs a vehicle based on the above-described photographing guide, when the vehicle is properly positioned within a predetermined ratio or more in the photographing guide, the
한편, 도 53에는 도시되지 않았지만, 단말기(490)는 차량 전체 모습을 촬영하기 위한 촬영 가이드를 제공하는 것뿐만 아니라, 차량의 특정 부품을 촬영하기 위한 부품 별 촬영 가이드를 제공할 수 있다. 상기 부품 별 촬영 가이드는 차량 이용자가 입력한 정보, 차량 이용자의 예약 정보 또는 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 얻어질 수 있으며, 이에 관하여는 상술한 바 있으므로 중복되는 내용은 생략한다.Meanwhile, although not shown in FIG. 53 , the terminal 490 may provide not only a photographing guide for photographing the entire vehicle, but also a photographing guide for each part for photographing a specific part of the vehicle. The photographing guide for each part may be obtained by using a neural network model learned to acquire information input by a vehicle user, reservation information of a vehicle user, or vehicle information, and since this has been described above, redundant information will be omitted.
도 54는 카메라 모듈(491)로 차량을 촬영하는 경우 제공되는 촬영 맵을 설명하기 위한 도면이다.54 is a diagram for explaining a photographing map provided when a vehicle is photographed with the
도 54를 참조하면, 단말기(490)는 출력부(496)를 통해 이용자에게 촬영 맵을 표시할 수 있다. 단말기(490)는 이용자가 카메라 모듈(491)로 차량을 촬영하는 경우 차량 외관의 주요 부위가 모두 촬영될 수 있도록 가이드해주는 촬영 맵을 출력부(496)를 통해 이용자에게 표시할 수 있다. 보다 구체적으로, 촬영 맵은 차량 외관의 주요 부위가 모두 촬영될 수 있도록 하기 위해 다양한 방향에서 차량을 촬영할 수 있도록 유도하는 UI를 포함할 수 있다. 예시적으로, 상기 차량 외관의 주요 부위는 차량의 전면, 후면, 보조석 앞면, 보조석 뒷면, 운전석 앞면, 운전석 뒷면 등을 포함할 수 있다.Referring to FIG. 54 , the terminal 490 may display a shooting map to the user through the
촬영 맵은 가이드부(GU)와 촬영부(CB)를 포함할 수 있다. 이하에서는 도면을 참조하여 상기 가이드부(GU)와 촬영부(CB)에 관한 구체적인 실시예에 대하여 설명한다.The photographing map may include a guide unit GU and a photographing unit CB. Hereinafter, specific embodiments of the guide unit GU and the photographing unit CB will be described with reference to the drawings.
단말기(490)는 이용자가 카메라 모듈(491)로 차량 외관을 촬영하는 경우 차량 외관의 주요 부위가 촬영될 수 있도록 상기 가이드부(GU)를 통해 촬영을 가이드해 줄 수 있다. 상기 가이드부(GU)는 차량 외관의 주요 부위가 모두 촬영될 수 있도록 적어도 하나 이상의 가이드를 포함할 수 있다. 단말기(490)는 서로 다른 방향에서 차량이 촬영될 수 있도록 상기 가이드부(GU)를 통해 차량 촬영을 유도할 수 있다.When a user photographs the exterior of a vehicle with the
예시적으로, 상기 가이드부(GU)는 차량의 전면부 촬영을 유도하는 제1 가이드, 보조석 앞면의 촬영을 유도하는 제2 가이드, 보조석 뒷면의 촬영을 유도하는 제3 가이드, 차량의 후면부 촬영을 유도하는 제4 가이드, 운전석 뒷면의 촬영을 유도하는 제5 가이드 및 운전석 앞면의 촬영을 유도하는 제6 가이드를 포함할 수 있다.Exemplarily, the guide unit GU includes a first guide for inducing a photograph of the front of the vehicle, a second guide for inducing a photograph of the front side of the passenger seat, a third guide for inducing a photograph of the back of the passenger seat, and a photograph of the rear of the vehicle. A fourth guide for guiding, a fifth guide for guiding shooting of the back of the driver's seat, and a sixth guide for guiding shooting of the front of the driver's seat may be included.
한편, 촬영부(CB)는 차량의 외관 촬영 및 촬영된 이미지를 저장하는 기능을 포함할 수 있다. 촬영부(CB)는 차량 외관의 주요 부위를 촬영할 수 있는 촬영 버튼을 포함할 수 있다. 보다 구체적으로, 촬영부(CB)는 이용자가 상술한 가이드 중 어느 하나를 선택하는 경우 해당 가이드가 촬영을 유도하고 있는 차량 외관의 촬영이 가능한 촬영 버튼을 포함할 수 있다.Meanwhile, the photographing unit CB may include a function of photographing the exterior of the vehicle and storing the photographed image. The photographing unit CB may include a photographing button capable of photographing a main part of the exterior of the vehicle. More specifically, the photographing unit CB may include a photographing button capable of photographing the exterior of a vehicle guided by the guide when the user selects one of the guides described above.
예를 들어, 이용자가 상기 가이드부(GU)에서 차량의 전면부 촬영을 유도하는 제1 가이드를 선택하는 경우, 단말기(490)는 출력부(496)를 통해 차량의 전면부 촬영이 가능한 촬영 버튼이 활성화되어 있는 촬영부(CB)를 표시할 수 있다. 이때, 이용자가 상기 촬영 버튼을 클릭하여 차량의 전면부를 촬영하는 경우, 단말기(490)의 제어부(492)는 촬영된 이미지를 차량의 전면부로 분류하여 저장부(493)에 저장할 수 있다.For example, when the user selects the first guide for inducing photographing of the front of the vehicle in the guide unit GU, the terminal 490 displays a photographing button capable of photographing the front of the vehicle through the
한편, 카메라 모듈(491)에 의해 획득된 영상 데이터는 복수의 이미지를 포함할 수 있다. 이때, 모바일 베이스 차량 관리 프로세스가 정상적으로 수행될 수 있게 하기 위하여 상기 복수의 이미지 중 유효 이미지 데이터가 추출될 수 있다.Meanwhile, image data obtained by the
상기 영상 데이터로부터 모바일 베이스 차량 관리 프로세스에 적합한 유효 이미지 데이터를 추출하는 단계는 도 36의 S3513 단계와 대응하므로, 중복되는 내용은 생략한다.Since the step of extracting valid image data suitable for the mobile-based vehicle management process from the image data corresponds to step S3513 of FIG. 36 , overlapping details will be omitted.
4.2.1.2 비-이미지 데이터 획득4.2.1.2 Non-Image Data Acquisition
일 실시예에 따르면, 이미지가 아닌 비-이미지 형태의 차량 데이터가 획득될 수 있다. 차량 데이터는 비-이미지 데이터일 수 있다. 차량 데이터는 차량과 관련된 정보를 포함하는 비-이미지 데이터일 수 있다. 상기 비-이미지 데이터에 관하여는 3.2.1.2에서 상술한 바 있으므로 중복되는 내용은 생략하도록 한다.According to one embodiment, vehicle data in the form of non-images other than images may be obtained. Vehicle data may be non-image data. Vehicle data may be non-image data including vehicle-related information. Since the non-image data has been described above in 3.2.1.2, overlapping content will be omitted.
상기 비-이미지 데이터는 미리 저장되거나 획득될 수 있다. 상기 비-이미지 데이터는 상기 카메라 모듈(491)에 의해 획득될 수 있다. 상기 비-이미지 데이터는 상기 카메라 모듈(491)에 의해 촬영된 촬영 데이터에 기초하여 획득될 수 있다. 상기 관리장치(341)는 상기 영상 데이터에 기초하여 비-이미지 데이터를 획득할 수 있다.The non-image data may be stored or acquired in advance. The non-image data may be acquired by the
4.2.1.3 데이터 처리4.2.1.3 Data Processing
모바일 베이스 차량 관리 프로세스에서는 획득된 데이터에 대한 처리가 수행될 수 있다.In the mobile-based vehicle management process, processing of the acquired data may be performed.
모바일 베이스 차량 관리 프로세스에서는 획득된 데이터에 대한 전처리(또는 후처리)가 수행될 수 있다. 상기 단말기(490)는 영상 데이터 중 적어도 하나 이상의 유효 이미지 데이터에 대한 전처리를 수행할 수 있다. 상기 단말기(490)는 상기 영상 데이터 중 상기 제1 이미지와 제2 이미지를 기초로 전처리를 수행할 수 있다.In the mobile-based vehicle management process, pre-processing (or post-processing) may be performed on the acquired data. The terminal 490 may perform pre-processing on at least one effective image data among image data. The terminal 490 may perform preprocessing based on the first image and the second image among the video data.
상기 단말기(490)는 복수의 특정 지점사이에 촬영된 다수의 이미지에 기초하여 노이즈 제거처리를 수행할 수 있다. 상기 단말기(490)는 다수의 유효 이미지 데이터에 기초하여 노이즈 제거 처리를 수행할 수 있다.The terminal 490 may perform noise removal processing based on a plurality of images captured between a plurality of specific points. The terminal 490 may perform noise removal processing based on a plurality of valid image data.
상술한 노이즈 제거 처리가 수행된 이미지는 손상 이미지로 정의될 수 있다. 상기 단말기(490)는 상기 손상 이미지를 기초로 차량의 손상을 포함하는 차량의 정보를 판단할 수 있다.An image on which the above-described noise removal process is performed may be defined as a damaged image. The terminal 490 may determine vehicle information including damage to the vehicle based on the damage image.
상기 카메라 모듈(491)이 노이즈가 발생하지 않는 환경에 설치된 경우 상기 관리장치(341)는 노이즈 제거 처리를 생략할 수도 있다. 이 경우 후술할 차량 정보 획득은 유효 이미지 데이터를 기초로 수행될 수 있다. 이 때의 손상 이미지는 상기 유효 이미지 데이터일 수 있다.When the
상기 단말기(490)는 복수의 유효 이미지 데이터에 기초하여, 반사광 등을 제거하기 위한 노이즈 제거 처리를 수행할 수 있다. 단말기(490)는 복수의 유효 이미지 데이터를 획득하고, 위치가 변동되는 오브젝트(예컨대, 반사광에 대응되는 반사 영역) 및 위치가 변동되지 않는 오브젝트(예컨대, 차량 영역 또는 차량의 손상에 대응되는 손상 영역)를 구분하여, 위치가 변동되는 오브젝트 또는 위치가 변동되지 않는 오브젝트를 제거할 수 있다. 예컨대, 단말기(490)는 차량의 손상된 부분에 대응되는 손상 영역 및 차량의 표면에 의한 반사광에 대응되는 반사 영역을 포함하는 유효 이미지 데이터에 기초하여, 반사 영역이 제거된 차량 이미지를 획득하는 노이즈 제거 처리가 수행될 수 있다. 상기 유효 이미지 데이터는 주요 부위가 포함된 이미지 데이터일 수 있다.The terminal 490 may perform noise removal processing for removing reflected light or the like based on a plurality of valid image data. The terminal 490 obtains a plurality of valid image data, and an object whose position is changed (eg, a reflective area corresponding to reflected light) and an object whose position is not changed (eg, a vehicle area or a damaged area corresponding to damage to the vehicle). ), it is possible to remove an object whose position is changed or an object whose position is not changed. For example, the terminal 490 obtains a vehicle image from which the reflective region is removed based on effective image data including a damaged region corresponding to a damaged part of the vehicle and a reflective region corresponding to light reflected by the surface of the vehicle. processing can be performed. The effective image data may be image data including a main region.
상기 단말기(490)는 고정된 형태로 촬영되는 것이 아니므로, 주요 부위로부터 제1 거리를 가지는 제1 이미지와 상기 주요 부위로 제2 거리를 가지는 제2 이미지는 주요부위로부터 카메라 모듈(491) 사이의 거리가 달라질 확률이 크다. 즉, 제1 거리와 제2 거리는 다를 수 있다. 이로써, 이용자가 상기 단말기(490)를 휴대한 상태에서 상기 제1 조작과 제2 조작에 의해 제1 이미지와 제2 이미지를 촬영한 경우와 이용자가 상기 단말기(490)를 휴대한 상태에서 한 번의 조작에 의해 동영상을 촬영하고, 이를 기초로 제1 이미지와 제2 이미지를 추출하는 경우 모두 제1 거리와 제2 거리는 다를 가능성이 높다.Since the terminal 490 is not captured in a fixed form, a first image having a first distance from the main part and a second image having a second distance to the main part are between the
상기 제1 거리는 제1 이미지가 촬영되는 경우의 상기 카메라 모듈(491)과 상기 차량의 제1 특징점 사이의 거리일 수 있고, 상기 제2 거리는 제2 이미지가 촬영되는 경우의 상기 카메라와 제1 특징점 사이의 거리일 수 있다.The first distance may be a distance between the
따라서, 별도의 노력 없이 노이즈 처리를 수행할 수 있는 유효 이미지 데이터를 얻을 수 있고, 상기 단말기(490)는 이를 기초로 노이즈 제거처리를 수행할 수 있다.Accordingly, effective image data capable of performing noise processing can be obtained without extra effort, and the terminal 490 can perform noise removal processing based on this.
상기 노이즈 제거처리는 단말기(490)에서 수행되는 것을 기재하였으나, 상기 노이즈 제거처리는 서버(499)에서 수행될 수도 있다.Although the noise removal processing is described as being performed in the terminal 490, the noise removal processing may be performed in the
4.2.2 모바일 차량 정보 획득4.2.2 Obtaining mobile vehicle information
모바일 베이스 차량 관리 프로세스는 차량 데이터에 기초하여 차량 정보를 획득하는 것을 포함할 수 있다.The mobile-based vehicle management process may include obtaining vehicle information based on vehicle data.
차량 정보는 대상 차량을 구성하는 부품과 관련된 부품 정보, 대상 차량 내/외부의 손상과 관련된 손상 정보, 대상 차량의 종류와 관련된 차종 정보 및/또는 대상 차량을 식별하기 위한 식별 정보를 포함할 수 있다. The vehicle information may include parts information related to parts constituting the target vehicle, damage information related to internal/external damage of the target vehicle, vehicle model information related to the type of the target vehicle, and/or identification information for identifying the target vehicle. .
차량 정보는 차량 데이터로부터 추출되거나, 차량 데이터를 처리하여 얻어질 수 있다. 차량 정보는 차량 데이터를 입력 데이터로 하여, 차량 정보를 획득하도록 설계된 알고리즘 또는 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 얻어질 수 있다.Vehicle information may be extracted from vehicle data or obtained by processing vehicle data. Vehicle information may be obtained using an algorithm designed to obtain vehicle information or a neural network model trained to obtain vehicle information, with vehicle data as input data.
차량 데이터에 기초하여 차량 정보를 획득하는 것은 2.3에서 상술한 바 있으므로, 중복되는 내용은 생략한다.Acquisition of vehicle information based on vehicle data has been described above in 2.3, so duplicated content is omitted.
일 실시예에 따르면 단말기(490)는 손상 이미지에 기초하여 차량정보를 획득할 수 있다. 상기 단말기(490)는 상기 손상 이미지에 기초하여 손상정보를 획득할 수 있다.According to an embodiment, the terminal 490 may obtain vehicle information based on the damaged image. The terminal 490 may obtain damage information based on the damage image.
일 실시예에 따르면, 카쉐어링 회사의 경우 단말기(490)는 미리 저장되어 있는 데이터베이스를 이용하여 공유 차량 정보를 획득할 수 있다. 상기 공유 차량 정보는 공유 차량의 차종, 제조사, 모델명, 연식 등을 나타내는 차량 종류 정보를 포함할 수 있다. 또한, 상기 공유 차량 정보는 공유 차량을 구성하는 부품의 수, 종류, 이름, 식별 정보 등을 나타내는 부품 정보를 더 포함할 수 있다. 또한, 상기 공유 차량 정보는 공유 차량 이용자의 인적사항 또는 공유 차량의 사고 이력 등을 포함하는 추가 정보를 더 포함할 수 있다.According to an embodiment, in the case of a carsharing company, the terminal 490 may obtain shared vehicle information using a pre-stored database. The shared vehicle information may include vehicle type information indicating a model, manufacturer, model name, and year of the shared vehicle. In addition, the shared vehicle information may further include parts information indicating the number, type, name, and identification information of parts constituting the shared vehicle. In addition, the shared vehicle information may further include additional information including personal information of the shared vehicle user or an accident history of the shared vehicle.
공유 차량 정보는 대상 차량 내/외부에 발생한 추가 손상 정보를 포함할 수 있다. 상기 추가 손상 정보는 이용자가 차량을 이용하기 전의 차량의 손상 이미지와 이용자가 차량을 이용한 후의 차량의 손상 이미지에 기초하여 산출될 수 있다. 상기 추가 손상 정보는 이용자가 차량을 이용하기 전의 차량의 손상 이미지와 이용자가 차량을 이용한 후의 차량의 손상 이미지를 비교하여 산출될 수 있다.The shared vehicle information may include additional damage information generated inside/outside the target vehicle. The additional damage information may be calculated based on a damaged image of the vehicle before the user uses the vehicle and a damaged image of the vehicle after the user uses the vehicle. The additional damage information may be calculated by comparing a damaged image of the vehicle before the user uses the vehicle and a damaged image of the vehicle after the user uses the vehicle.
상기 추가 손상 정보는 이용자가 차량을 이용하기 전의 차량의 손상 이미지를 기초로 산출된 손상 정보와 이용자가 차량을 이용한 후의 차량의 손상 이미지를 기초로 산출된 손상 정보에 기초하여 산출될 수 있다.The additional damage information may be calculated based on damage information calculated based on a damaged image of the vehicle before the user uses the vehicle and damage information calculated based on the damaged image of the vehicle after the user uses the vehicle.
상기 단말기(490)는 이용자가 차량을 이용하기 전의 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나를 저장하고, 이용자가 차량을 이용한 후에 이를 불러와 이용자가 차량을 이용한 후의 차량의 손상 이미지 및 손상 정보 중 적어도 어느 하나와 비교하여 추가 손상 정보를 산출할 수 있다.The terminal 490 stores at least one of a damage image and damage information of the vehicle before the user uses the vehicle, and retrieves it after the user uses the vehicle to retrieve the image and damage information of the vehicle after the user uses the vehicle. Additional damage information may be calculated by comparing with at least one of the above.
상기 단말기(490)는 이용자가 차량을 이용하기 전의 차량의 비-이미지 데이터와 상기 손상 이미지 및 손상 정보를 연동하여 저장할 수 있다. 예를 들어, 단말기(490)는 이용자가 차량을 이용하기 전의 차량의 손상 이미지 및 손상 정보를 상기 차량의 차량번호와 연동하여 저장할 수 있다.The terminal 490 may store non-image data of the vehicle before the user uses the vehicle, and the damaged image and damage information in conjunction with each other. For example, the terminal 490 may store a damage image and damage information of a vehicle before the user uses the vehicle in association with the license plate number of the vehicle.
상기 단말기(490)는 이용자가 해당 차량을 이용을 종료한 경우, 인식된 차량번호에 기초하여 해당 차량의 차량번호와 연동된 손상 이미지 및 손상 정보를 로드하고, 이를 이용자가 차량을 이용한 후의 차량의 손상 이미지 및 손상 정보와 비교하여 추가 손상 정보를 산출할 수 있다.When the user has finished using the vehicle, the terminal 490 loads a damage image and damage information linked to the license plate number of the vehicle based on the recognized license plate number, and loads the damaged image and damage information of the vehicle after the user uses the vehicle. Additional damage information may be calculated by comparing the damage image and the damage information.
4.2.3 차량 정보 관리4.2.3 Vehicle information management
모바일 베이스 차량 관리 프로세스는 차량 정보를 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 전술한 부품 정보, 손상 정보, 차량 종류 정보 및/또는 식별 정보를 관리하는 것을 포함할 수 있다.The mobile-based vehicle management process may include managing vehicle information. Managing vehicle information may include managing the aforementioned parts information, damage information, vehicle type information, and/or identification information.
또한, 차량 정보를 관리하는 것은 차량 정보를 시계열적으로 관리하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 차량 정보를 분류하는 것을 포함할 수 있다. 차량 정보를 관리하는 것은 하나 이상의 정보를 연관하여 관리하는 것을 포함할 수 있다. 상기 차량 정보 관리는 상기 서버(499)에서 수행될 수 있다.Also, managing the vehicle information may include managing the vehicle information time-sequentially. Managing vehicle information may include classifying vehicle information. Managing vehicle information may include managing one or more pieces of information in association with each other. The vehicle information management may be performed by the
이하에서는 차량 정보의 관리에 대하여 몇몇 실시예를 들어 설명한다. Hereinafter, management of vehicle information will be described with reference to some embodiments.
4.2.3.1 이력 관리4.2.3.1 History management
차량 정보를 관리하는 것은 차량 정보를 이력 관리하는 것을 포함할 수 있다. 차량 정보를 이력 관리하는 것은 서로 다른 시점에 획득된 하나 이상의 차량 정보를 시계열적으로 나열 및/또는 관리하는 것을 의미할 수 있다.Managing vehicle information may include history management of vehicle information. History management of vehicle information may mean time-sequential listing and/or management of one or more pieces of vehicle information obtained at different times.
일 실시예에 따르면, 모바일 베이스 차량 관리 프로세스에서 차량 정보를 관리한다는 것은, 특정 차량에 대하여 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다. 예컨대, 차량 정보를 관리하는 것은 제1 시점에 제1 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 시점 이후인 제2 시점에 제1 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 정보 및 제2 정보를 시간 순으로 관리하는 것을 포함할 수 있다.According to an embodiment, managing vehicle information in a mobile-based vehicle management process may mean managing damage information representing damage to a specific vehicle together with time information representing a time when the damage information was obtained. there is. For example, managing vehicle information acquires first information indicating that a first damage has occurred to a first vehicle at a first time point, and second damage has occurred to the first vehicle at a second time point after the first time point. It may include obtaining second information indicating, and managing the first information and the second information in chronological order.
예시적으로, 카쉐어링 프로세스에서 차량 정보를 관리한다는 것은, 공유 차량에 대하여 차량에 발생한 손상을 나타내는 손상 정보를 손상 정보가 획득된 시간을 나타내는 시간 정보와 함께 관리하는 것을 의미할 수 있다.Exemplarily, managing vehicle information in a carsharing process may mean managing damage information representing damage to a shared vehicle together with time information representing a time when the damage information was acquired.
보다 구체적으로, 카쉐어링 프로세스에서 차량 정보를 관리한다는 것은, 제1 이용자가 제1 차량 이용 전 공유 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제1 이용자가 제1 차량 이용 후 공유 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제1 이용자가 제2 차량 이용 전 공유 차량에 제3 손상이 발생하였음을 나타내는 제3 정보를 획득하고, 제1 이용자가 제2 차량 이용 후 공유 차량에 제4 손상이 발생하였음을 나타내는 제4 정보를 획득한 후, 제1 정보, 제2 정보, 제3 정보 및/또는 제4 정보를 시간 순으로 관리하는 것을 포함할 수 있다.More specifically, managing vehicle information in the carsharing process means obtaining first information indicating that a first damage has occurred to the shared vehicle before the first user uses the first vehicle, and the first user uses the first vehicle. obtaining second information indicating that a second damage has occurred to the shared vehicle after the first user obtains third information indicating that a third damage has occurred to the shared vehicle before the first user uses the second vehicle; After obtaining fourth information indicating that fourth damage has occurred in the shared vehicle after using the second vehicle, managing the first information, second information, third information, and/or fourth information in chronological order. can
또한, 카쉐어링 프로세스에서 차량 정보를 관리한다는 것은, 제1 이용자의 공유 차량 이용 후에 공유 차량에 제1 손상이 발생하였음을 나타내는 제1 정보를 획득하고, 제2 이용자의 공유 차량 이용 전에 공유 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 획득하고, 제2 이용자의 공유 차량 이용 후에 공유 차량에 제3 손상이 발생하였음을 나타내는 제3 정보를 획득한 후, 제1 정보, 제2 정보 및/또는 제3 정보를 시간 순으로 관리하는 것을 포함할 수 있다. 이때, 제1 이용자는 제2 이용자 보다 우선하여 공유 차량을 이용한 사람을 의미할 수 있다.In addition, managing vehicle information in a carsharing process means obtaining first information indicating that a first damage has occurred to a shared vehicle after a first user uses a shared vehicle, and obtaining information on a shared vehicle before a second user uses a shared vehicle. After obtaining second information indicating that a second damage has occurred and obtaining third information indicating that a third damage has occurred in a shared vehicle after the second user uses the shared vehicle, the first information, the second information and / or managing the third information in chronological order. In this case, the first user may refer to a person who prefers to use the shared vehicle over the second user.
4.2.3.2 손상 이력 관리 실시예 1 - 운전자 별4.2.3.2 Damage history management Example 1 - By driver
모바일 베이스 차량 관리 프로세스에서 손상 정보의 이력을 관리할 수 있다. 손상 정보의 이력 관리는 새롭게 발생한 신규 손상에 대한 신규 손상 정보를 획득하는 것을 포함할 수 있다. 손상 정보의 이력 관리는 동일한 차량을 다양한 시점에 촬영하여 획득된 복수의 이미지에 기초하여, 신규 손상 정보를 획득하는 것을 포함할 수 있다.In the mobile-based vehicle management process, the history of damage information can be managed. History management of damage information may include acquiring new damage information for newly occurring new damage. History management of damage information may include obtaining new damage information based on a plurality of images obtained by photographing the same vehicle at various times.
손상 정보 이력은 이용자 정보를 고려하여 이용자 별로 관리될 수 있다.The damage information history may be managed for each user in consideration of user information.
일 실시예에 따르면, 단말기(490)는 이용자 정보를 고려하여 공유 차량의 손상 정보 이력을 이용자 별로 관리할 수 있다. 단말기(490)는 공유 차량의 손상 정보 이력을 이용자 별로 관리함으로써, 공유 차량에 손상이 발생하는 경우 책임 소재를 명확하게 할 수 있고, 공유 차량에 현재 또는 과거에 발생한 손상이 어느 이용자에 의해 발생한 것인지 파악하기가 용이하며, 그에 따른 공유 차량 관리 비용을 절감할 수 있는 효과를 제공할 수 있다. 또한, 단말기(490)는 공유 차량의 손상 정보 이력을 이용자 별로 관리함으로써, 해당 이용자에 대한 평가 등을 수행할 수 있는 효과를 제공할 수 있다.According to an embodiment, the terminal 490 may manage damage information records of shared vehicles for each user in consideration of user information. The terminal 490 manages the damage information history of the shared vehicle for each user, so that when damage occurs to the shared vehicle, responsibility can be clarified, and which user has caused current or past damage to the shared vehicle. It is easy to grasp and can provide an effect of reducing the cost of managing a shared vehicle accordingly. In addition, the terminal 490 may provide an effect of performing an evaluation of the user by managing the history of damage information of the shared vehicle for each user.
예시적으로, 단말기(490)가 이용자 정보를 고려하여 공유 차량의 손상 정보 이력을 이용자 별로 관리한다는 것은, 제1 이용자가 제1 차량 이용 전 공유 차량에 제1 손상이 발생하였음을 나타내는 제1 정보와 제1 이용자가 제1 차량 이용 후 공유 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 비교하여 획득된 제1 이용자의 제1 차량 이용 중 발생한 추가 손상 정보를 관리하는 것과, 제1 이용자가 제2 차량 이용 전 공유 차량에 제3 손상이 발생하였음을 나타내는 제3 정보와 제1 이용자가 제2 차량 이용 후 공유 차량에 제4 손상이 발생하였음을 나타내는 제4 정보를 비교하여 획득된 제1 이용자의 제2 차량 이용 중 발생한 추가 손상 정보를 관리하는 것을 의미할 수 있다. Exemplarily, the terminal 490 managing the damage information history of the shared vehicle for each user in consideration of user information means that the first information indicating that the first damage occurred to the shared vehicle before the first user used the first vehicle managing additional damage information generated while the first user uses the first vehicle obtained by comparing the first user with second information indicating that second damage occurs in the shared vehicle after the first user uses the first vehicle; and Third information indicating that third damage occurred to the shared vehicle before using the second vehicle and fourth information indicating that fourth damage occurred to the shared vehicle after the first user used the
4.2.3.3 손상 이력 관리 실시예 2 - 차량 별 관리4.2.3.3 Damage history management Example 2 - Management by vehicle
손상 정보 이력은 차량 별로 관리될 수 있다.Damage information history can be managed for each vehicle.
일 실시예에 따르면, 단말기(490)는 공유 차량의 손상 정보 이력을 차량 별로 관리할 수 있다. 단말기(490)가 공유 차량의 손상 정보 이력을 차량 별로 관리함으로써, 공유 차량에 과거부터 현재까지 발생한 손상 정보를 시계열적으로 용이하게 파악할 수 있는 효과를 제공할 수 있다. 또한, 단말기(490)가 공유 차량의 손상 정보 이력을 차량 별로 관리함으로써, 공유 차량의 수리 및 점검 일정을 차량의 상태에 따라 차량 별로 맞춤 일정으로 계획할 수 있게 하여 효율적인 차량 관리가 이루어질 수 있게 하는 효과를 제공할 수 있다.According to an embodiment, the terminal 490 may manage damage information records of shared vehicles for each vehicle. Since the terminal 490 manages the damage information history of the shared vehicle for each vehicle, it is possible to provide an effect of easily grasping damage information generated in the shared vehicle from the past to the present in a time-series manner. In addition, the terminal 490 manages the damage information history of the shared vehicle for each vehicle, so that the repair and inspection schedule of the shared vehicle can be planned as a customized schedule for each vehicle according to the state of the vehicle, so that efficient vehicle management can be achieved effect can be provided.
예시적으로, 단말기(490)가 공유 차량의 손상 정보 이력을 차량 별로 관리한다는 것은, 제1 이용자의 공유 차량 이용 후에 공유 차량에 제1 손상이 발생하였음을 나타내는 제1 정보와 제2 이용자의 공유 차량 이용 전에 공유 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 비교하여 공유 차량의 주차 중 발생한 추가 손상 정보를 관리하는 것을 의미할 수 있다.Exemplarily, the terminal 490 managing the damage information history of the shared vehicle for each vehicle means that the first information indicating that the first damage occurs in the shared vehicle after the first user uses the shared vehicle is shared by the second user. This may refer to managing additional damage information generated during parking of the shared vehicle by comparing second information indicating that the second damage has occurred to the shared vehicle before using the vehicle.
다른 예로, 단말기(490)가 공유 차량의 손상 정보 이력을 차량 별로 관리한다는 것은, 제1 이용자의 공유 차량 이용 후에 공유 차량에 제1 손상이 발생하였음을 나타내는 제1 정보 또는 제2 이용자의 공유 차량 이용 전에 공유 차량에 제2 손상이 발생하였음을 나타내는 제2 정보를 제2 이용자의 공유 차량 이용 후에 공유 차량에 제3 손상이 발생하였음을 나타내는 제3 정보와 비교하여 제2 이용자의 공유 차량 이용 중 발생한 추가 손상 정보를 관리하는 것을 의미할 수 있다.As another example, the terminal 490 managing the damage information history of the shared vehicle for each vehicle means that the first information indicating that a first damage has occurred to the shared vehicle after the first user uses the shared vehicle or the shared vehicle of the second user The second information indicating that the second damage has occurred to the shared vehicle before use is compared with the third information indicating that the third damage has occurred to the shared vehicle after the second user has used the shared vehicle, and the second user is using the shared vehicle. It may mean managing additional damage information that has occurred.
4.2.4 차량 정보 출력4.2.4 Vehicle information output
4.2.4.1 출력되는 정보4.2.4.1 Output information
모바일 베이스 차량 관리 시스템은 단말기(490)의 출력부(496)를 통해 차량 정보 및 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 또한, 상기 단말기(490)는 상기 단말기(490)와 연결된 서버(499)를 통해 차량 정보 및 보조 정보를 출력할 수 있다.The mobile-based vehicle management system may output vehicle information and auxiliary information acquired based on the vehicle information through the
상기 단말기(490)는 부품 정보, 손상 정보, 차량 종류 정보, 식별 정보 등의 차량 정보를 출력할 수 있다. 차량 관리 시스템은 사용자 정보 및/또는 위치 정보를 함께 출력할 수 있다.The terminal 490 may output vehicle information such as parts information, damage information, vehicle type information, and identification information. The vehicle management system may output user information and/or location information together.
상기 단말기(490)는 차량 이미지 및 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 차량 관리 시스템은 복수의 차량 이미지 및 각 차량 이미지에 대응되는 차량 정보를 출력할 수 있다. 복수의 차량 이미지는 차량에 대하여 다양한 각도에서 촬영된 이미지일 수 있다. The terminal 490 may output a vehicle image and vehicle information corresponding to the vehicle image. The vehicle management system may output a plurality of vehicle images and vehicle information corresponding to each vehicle image. The plurality of vehicle images may be images taken from various angles with respect to the vehicle.
이하에서는, 도 55를 참조하여 공유 차량 관리 시스템의 차량 정보 출력 화면을 설명하도록 한다.Hereinafter, a vehicle information output screen of the shared vehicle management system will be described with reference to FIG. 55 .
4.2.4.2 차량 정보 출력 실시예4.2.4.2 Vehicle information output embodiment
도 55는 일 실시예에 따른 단말기(490)에서 차량 정보 및/또는 보조 정보를 출력하는 화면을 설명하기 위한 도면이다.55 is a diagram for explaining a screen for outputting vehicle information and/or auxiliary information in the terminal 490 according to an exemplary embodiment.
일 실시예에 따르면, 단말기(490)는 획득된 차량 정보 및/또는 차량 정보에 기초하여 획득된 보조 정보를 출력할 수 있다. 단말기(490)는 이용자 또는 관리자의 정보 통신 기기에 차량 정보 및/또는 보조 정보를 출력할 수 있다According to an embodiment, the terminal 490 may output acquired vehicle information and/or auxiliary information obtained based on the vehicle information. The terminal 490 may output vehicle information and/or auxiliary information to an information communication device of a user or manager.
단말기(490)는 공유 차량에 추가 손상 정보가 검출된 경우, 차량 정보 및/또는 보조 정보를 출력할 수 있다. 또한, 단말기(490)는 이용자의 공유 차량 이용 전/후 공유 차량에 추가 손상이 검출된 경우, 차량 정보 및/또는 보조 정보를 출력할 수 있다. 또한, 단말기(490)는 공유 차량의 관리를 위해 추가 손상 정보가 검출되지 않아도, 차량 정보 및/또는 보조 정보를 출력할 수 있다.When additional damage information is detected in the shared vehicle, the terminal 490 may output vehicle information and/or auxiliary information. In addition, the terminal 490 may output vehicle information and/or auxiliary information when additional damage is detected in the shared vehicle before/after the user uses the shared vehicle. In addition, the terminal 490 may output vehicle information and/or auxiliary information even when additional damage information is not detected for management of shared vehicles.
도 55의 (a)는 공유 차량의 현재 외관 상태에 관한 정보를 출력하는 화면을 설명하기 위한 도면이다. 55(a) is a diagram for explaining a screen for outputting information on a current external state of a shared vehicle.
도 55의 (a)를 참조하면, 일 실시예에 따른 공유 차량 외관 정보 화면은 손상 정보 테이블 및 차량 외관의 손상 정보가 표시되는 손상 이미지를 포함할 수 있다. Referring to (a) of FIG. 55 , the shared vehicle exterior information screen according to an embodiment may include a damage information table and a damage image displaying damage information on the exterior of the vehicle.
차량 외관 정보 출력 화면은 공유 차량에 발생한 손상에 관한 정보를 표시하는 손상 정보 테이블을 포함할 수 있다. 손상 정보 테이블에는 손상이 발생한 차량 부품, 손상 종류, 손상 정도, 손상 개수 등을 포함할 수 있다.The vehicle exterior information output screen may include a damage information table displaying information on damage occurring to the shared vehicle. The damage information table may include damaged vehicle parts, damage types, damage levels, and the number of damages.
차량 외관 정보 출력 화면은 손상 정보가 표시되어 있는 손상 이미지를 포함할 수 있다. 상기 손상 이미지에는 손상 영역 정보가 포함될 수 있는데, 손상 영역 정보는 기존 손상 영역(ED)을 포함할 수 있다.The vehicle exterior information output screen may include a damage image on which damage information is displayed. The damaged image may include damaged area information, and the damaged area information may include an existing damaged area ED.
차량 외관 정보 출력 화면은 기존 손상 정보에 대해 동의 여부를 선택할 수 있는 선택창을 포함할 수 있다. 이용자는 손상 영역에 관한 정보에 동의하는 경우 'Confirm' 버튼을 클릭할 수 있고, 동의하지 않는 경우 'Objection'버튼을 클릭할 수 있다. 상기 단말기(490)는 이용자에 의해 'Confirm'버튼이 클릭된 경우 상기 기존 손상 정보에 대한 일괄 동의가 수행되었음을 서버(499)로 알려줄 수 있다.The vehicle appearance information output screen may include a selection window for selecting whether to consent to existing damage information. The user can click the 'Confirm' button if he or she agrees with the information about the damaged area, and can click the 'Objection' button if he or she does not agree. When the 'Confirm' button is clicked by the user, the terminal 490 may inform the
또는 차량 외관 정보 출력화면은 손상 정보가 표시되어 있는 손상 이미지를 표시할 수 있다. 상기 단말기(490)는 상기 손상 이미지에 대한 이용자의 개별 동의가 진행될 수 있도록 차량 외관 정보 출력화면을 표시할 수 있다. 즉, 상기 단말기(490)의 손상 이미지에 대한 정보는 차량 이미지에 매핑되어 출력될 수 있고, 사용자의 조작에 의해 차량 이미지는 회전, 확대, 축소 또는 이동될 수 있다. 상기 단말기(490)는 차량 이미지 중 손상이 있는 부위에 동의를 할 수 있는 버튼을 표시할 수 있고, 이용자가 상기 버튼을 누르는 경우 개별 동의가 진행된 것으로 판단하여, 상기 동의 정보를 상기 서버(499)로 보낼 수 있다.Alternatively, the vehicle appearance information output screen may display a damage image in which damage information is displayed. The terminal 490 may display a vehicle exterior information output screen so that the user's individual consent to the damaged image can be processed. That is, information on the damaged image of the terminal 490 may be mapped to and outputted to a vehicle image, and the vehicle image may be rotated, enlarged, reduced, or moved by a user's manipulation. The terminal 490 may display a button for giving consent to a damaged part of the vehicle image, and when the user presses the button, it is determined that individual consent has been made, and the consent information is transmitted to the
도 55의 (b)는 공유 차량 관리 시스템의 출력 화면 중 차량 외관 촬영 요구 화면을 설명하기 위한 도면이다.55(b) is a diagram for explaining a vehicle exterior photographing request screen among output screens of a shared vehicle management system.
도 55의 (b)를 참조하면, 일 실시예에 따른 차량 외관 촬영 요구 화면은 가이드부와 촬영부를 포함할 수 있다. 차량 외관 촬영 요구 화면은 차량 외관의 주요 부위가 촬영될 수 있도록 촬영을 가이드해주는 가이드부와 차량 외관 촬영을 위한 촬영 버튼을 포함하는 촬영부를 포함할 수 있다. 이때, 일 실시예에 따른 차량 외관 촬영 요구 화면은 이용자가 차량을 이용하기 전에 필수적으로 출력되는 화면일 수 있으나, 이에 한정되는 것은 아니다. 즉, 차량 외관 촬영 요구 화면은 이용자에 의해 선택적으로 출력될 수 있다.Referring to (b) of FIG. 55 , a vehicle exterior photographing request screen according to an exemplary embodiment may include a guide unit and a photographing unit. The vehicle exterior photographing request screen may include a guide unit for guiding photographing so that main parts of the exterior of the vehicle may be photographed, and a photographing unit including a photographing button for photographing the exterior of the vehicle. In this case, the vehicle exterior photographing request screen according to an embodiment may be a screen that is necessarily output before the user uses the vehicle, but is not limited thereto. That is, the vehicle appearance photographing request screen may be selectively output by the user.
도 55의 (c)는 차량 외관 촬영이 완료된 후 차량에 발생된 추가 손상 여부에 관한 정보를 출력하는 화면을 설명하기 위한 도면이다.55(c) is a view for explaining a screen for outputting information on whether or not additional damage has occurred to the vehicle after photographing the exterior of the vehicle is completed.
도 55의 (c)를 참조하면, 일 실시예에 따른 차량 손상 정보 화면은 손상 정보 테이블, 추가 손상 발생에 대해 확인 또는 동의 여부를 선택할 수 있는 선택창 및/또는 추가 손상 정보가 표시되어 있는 손상 이미지를 포함할 수 있다. Referring to (c) of FIG. 55 , the vehicle damage information screen according to an embodiment includes a damage information table, a selection window for selecting whether to confirm or agree to the occurrence of additional damage, and/or damage displaying additional damage information. Can contain images.
추가 손상 정보를 출력하는 화면은 공유 차량에 발생한 손상에 관한 정보를 표시하는 손상 정보 테이블을 포함할 수 있다. 손상 정보 테이블에는 손상이 발생한 차량 부품, 손상 종류, 손상 정도, 손상 개수 등을 포함할 수 있다.The screen for outputting additional damage information may include a damage information table displaying information on damage occurring to the shared vehicle. The damage information table may include damaged vehicle parts, damage types, damage levels, and the number of damages.
추가 손상 정보를 출력하는 화면은 신규 손상 정보에 대해 동의 여부를 선택할 수 있는 선택창을 포함할 수 있다. 이용자는 신규 손상 영역(ND)에 관한 정보에 동의하는 경우 'Confirm' 버튼을 클릭할 수 있고, 동의하지 않는 경우 'Objection'버튼을 클릭할 수 있다. 상기 단말기(490)는 이용자에 의해 'Confirm'버튼이 클릭된 경우 상기 기존 손상 정보에 대한 일괄 동의가 수행되었음을 서버(499)로 알려줄 수 있다.The screen for outputting the additional damage information may include a selection window for selecting whether or not to agree to the new damage information. The user can click the 'Confirm' button if he or she agrees with the information on the new damaged area (ND), and can click the 'Objection' button if he or she does not agree. When the 'Confirm' button is clicked by the user, the terminal 490 may inform the
또는 상기 단말기(490)는 상술한 상기 기존 손상 정보에 대한 동의를 받는 절차와 같이 다수의 개별 버튼에 의해 신규 손상 정보에 대해 개별 동의를 받는 절차를 수행할 수도 있다.Alternatively, the terminal 490 may perform a procedure for obtaining individual consent for new damage information by using a plurality of individual buttons, similar to the above-described procedure for obtaining consent for the existing damage information.
추가 손상 정보를 출력하는 화면은 추가 손상 정보가 표시되어 있는 손상 이미지를 포함할 수 있다. 상기 손상 이미지에는 손상 영역 정보가 포함될 수 있는데, 손상 영역 정보는 기존 손상 영역(ED) 및 신규 손상 영역(ND)을 포함할 수 있다. 이때, 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 달리 표시될 수 있다. 기존 손상 영역(ED) 및 신규 손상 영역(ND)은 서로 다른 색상 또는 서로 다른 형태의 바운딩 박스로 표시될 수 있다.A screen for outputting additional damage information may include a damage image on which additional damage information is displayed. The damaged image may include damaged area information, which may include an existing damaged area ED and a new damaged area ND. In this case, the existing damaged area ED and the new damaged area ND may be displayed differently. The existing damaged area ED and the new damaged area ND may be displayed as bounding boxes of different colors or shapes.
도 55의 (d)는 공유 차량에 발생된 손상 정보에 관한 상세한 내용이 포함된 화면을 설명하기 위한 도면이다.55(d) is a diagram for explaining a screen including detailed information on damage information generated in a shared vehicle.
도 55의 (d)를 참조하면, 공유 차량 관리 시스템의 출력 화면은 이용자가 'Objection'버튼을 클릭하는 경우, 이용자의 공유 차량 이용 전 추출된 손상 이미지 및 이용자의 공유 차량 이용 후 추출된 손상 이미지를 표시할 수 있다. 이때, 공유 차량 이용 전 추출된 손상 이미지 및 공유 차량 이용 후 추출된 손상 이미지는 서로 대응되는 방향에서 검출된 손상 이미지일 수 있다. 다른 예로, 공유 차량 이용 전 추출된 손상 이미지 및 공유 차량 이용 후 추출된 손상 이미지는 적어도 하나 이상의 차량의 주요 부위를 포함하되, 상기 차량의 주요 부위는 적어도 하나 이상 공통될 수 있다. 한편, 공유 차량 이용 전 추출된 손상 이미지와 공유 차량 이용 후 추출된 손상 이미지는 실제 촬영된 이미지가 아닌 가공된 이미지 예컨대, 차량의 3D 이미지 상에 맵핑된 형태일 수 있다.Referring to (d) of FIG. 55, when the user clicks the 'Objection' button, the output screen of the shared vehicle management system is a damaged image extracted before the user uses the shared vehicle and a damaged image extracted after the user uses the shared vehicle. can be displayed. In this case, the damaged image extracted before using the shared vehicle and the damaged image extracted after using the shared vehicle may be damaged images detected in directions corresponding to each other. As another example, the damaged image extracted before using the shared vehicle and the damaged image extracted after using the shared vehicle include at least one main part of the vehicle, and at least one main part of the vehicle may be common. Meanwhile, the damaged image extracted before using the shared vehicle and the damaged image extracted after using the shared vehicle may be mapped onto a processed image, for example, a 3D image of the vehicle, rather than an actual photographed image.
4.3 컨펌 시나리오4.3 Confirm Scenario
일 실시예에 따르면, 모바일 베이스 차량 관리 프로세스는 공유 차량 이용자가 공유 차량 이용 후 공유 차량의 외관을 촬영하고 추가 손상 정보에 대한 동의 단계를 거쳐야 차량 반납 처리가 완료되는 단계를 포함할 수 있다.According to an embodiment, the mobile-based vehicle management process may include a step in which the vehicle return process is completed only when the shared vehicle user photographs the exterior of the shared vehicle after using the shared vehicle and consents to additional damage information.
또한, 모바일 베이스 차량 관리 프로세스는 공유 차량 이용자가 공유 차량 이용 전 공유 차량의 현재 외관 상태에 동의하는 경우 차량 이용이 가능하도록 하는 단계를 포함할 수 있다.In addition, the mobile-based vehicle management process may include allowing the vehicle to be used when the shared vehicle user agrees to the current appearance of the shared vehicle before using the shared vehicle.
또한, 모바일 베이스 차량 관리 프로세스는 공유 차량 이용자가 공유 차량 이용 전 공유 차량의 현재 외관 상태에 동의하지 않는 경우 차량 외관 중 동의하지 않는 부분 또는 차량 외관 전체에 대해 재촬영 및 등록하는 단계를 수행하여야 차량 이용이 가능하도록 하는 단계를 포함할 수 있다.In addition, in the mobile-based vehicle management process, if the shared vehicle user does not agree with the current exterior condition of the shared vehicle before using the shared vehicle, a step of re-photographing and registering the disagreed part or the entire exterior of the vehicle should be performed. It may include steps to enable use.
도 56은 복수의 공유 차량 이용자가 시간 순서에 따라 공유 차량을 이용하고 이용을 종료하는 과정을 개략적으로 표현한 도면이다.56 is a diagram schematically illustrating a process in which a plurality of shared vehicle users use a shared vehicle and end the use according to a time sequence.
도 56을 참조하면, 제1 이용자는 제1 시점(T1)에 공유 차량 이용을 시작하고, 제2 시점(T2)에 공유 차량 이용을 종료할 수 있다. 또한, 제2 이용자는 제3 시점(T3)에 공유 차량 이용을 시작하고, 제4 시점(T4)에 공유 차량 이용을 종료할 수 있다. 이때, 제1 이용자와 제2 이용자는 동일한 공유 차량을 이용함을 전제할 수 있다. 또한, 제1 시점 내지 제4 시점은 각각 서로 다른 시점을 의미하고, 제1 시점은 제3 시점보다 앞선 시점일 수 있다.Referring to FIG. 56 , a first user may start using a shared vehicle at a first time point T1 and end the use of a shared vehicle at a second time point T2 . In addition, the second user may start using the shared vehicle at the third time point T3 and end the use of the shared vehicle at the fourth time point T4. In this case, it may be assumed that the first user and the second user use the same shared vehicle. Also, the first to fourth points of view refer to different points of view, and the first point of view may be earlier than the third point of time.
또한, 도 56을 참조하면, 제1 이용자의 공유 차량 이용 시기는 제1 시점과 제2 시점 사이인 제1 구간(P1)이고, 제2 이용자의 공유 차량 이용 시기는 제3 시점과 제4 시점 사이인 제3 구간(P3)이다. 즉, 제1 구간(P1)은 제1 이용자가 차량을 이용한 기간을 의미할 수 있고, 제3 구간(P3)은 제2 이용자가 차량을 이용한 기간을 의미할 수 있다.Also, referring to FIG. 56 , the first user's time to use the shared vehicle is a first section (P1) between the first time point and the second time point, and the second user's time to use the shared vehicle is the third time point and the fourth time point. It is the third section P3 between. That is, the first period P1 may refer to a period in which the first user uses the vehicle, and the third period P3 may indicate a period in which the second user uses the vehicle.
한편, 제1 이용자의 공유 차량 이용 종료 이후부터 제2 이용자의 공유 차량 이용 시작 전까지의 시기는 공유 차량이 이용자에 의해 운행되지 않고 주차되어 있는 시기를 의미할 수 있다. 즉, 제2 시점(T2)과 제3 시점(T3)사이의 시기인 제2 구간(P2)은 공유 차량이 이용자에 의해 운행되지 않고 주차되어 있는 구간을 의미할 수 있다.Meanwhile, the period from the end of the first user's use of the shared vehicle to the start of the second user's use of the shared vehicle may mean a period in which the shared vehicle is parked without being operated by the user. That is, the second section P2, which is a time period between the second time point T2 and the third time point T3, may mean a section in which the shared vehicle is parked without being operated by the user.
이하에서는 도 56을 참조하여, 공유 차량 이용자가 공유 차량 이용 전 공유 차량의 기존 손상 정보에 대하여 동의 후 차량을 이용하는 단계, 동의하지 않는 경우 차량 외관을 재촬영 후 이용하는 단계 및 공유 차량 이용자가 공유 차량 이용 후 공유 차량의 외관 촬영 후 반납하는 단계에 관하여 상세히 설명한다.Hereinafter, with reference to FIG. 56, the step of using the vehicle after the shared vehicle user consents to the existing damage information of the shared vehicle before using the shared vehicle, the step of using the vehicle after re-photographing the exterior of the vehicle if the user does not agree, and the step of using the shared vehicle after re-photographing the exterior of the shared vehicle user The step of taking a picture of the exterior of the shared vehicle after use and returning it will be described in detail.
4.3.1 차량 이용 후 차량 외관 촬영 및 추가 손상 관리4.3.1 After using the vehicle, take a picture of the vehicle exterior and manage additional damage
도 57은 공유 차량 이용자가 공유 차량 이용 후 차량 외관을 촬영하고 추가 손상 정보를 확인하는 차량 반납 프로세스의 설명을 위한 도면이다. 이하에서는 도 56 및 도 57을 참조하여, 공유 차량 이용자가 공유 차량 이용 후 차량 외관을 촬영하고 추가 손상 정보를 확인하는 과정을 설명하도록 한다.57 is a view for explaining a vehicle return process in which a shared vehicle user photographs the exterior of the vehicle after using the shared vehicle and checks additional damage information. Hereinafter, with reference to FIGS. 56 and 57 , a process of photographing the exterior of a vehicle and confirming additional damage information after a shared vehicle user uses a shared vehicle will be described.
도 57을 참조하면, 모바일 베이스 차량관리 시스템은 단말기(490) 및 서버(499)를 포함할 수 있다. 상기 단말기(490)는 제1 이용자의 단말기(490)일 수 있다. 상기 제1 이용자의 차량 이용 시간은 제2 시점(T2)에 종료될 수 있다. Referring to FIG. 57 , the mobile-based vehicle management system may include a terminal 490 and a
상기 제1 이용자의 단말기(490)는 상기 제1 이용자의 제어에 의해 차량 이용 시간이 종료되었음을 인식할 수 있고, 또는 상기 서버(499)로부터 전달받은 정보에 의해 상기 제1 이용자의 단말기(490)에 차량 이용 시간이 종료되었음이 표시될 수도 있다.The
상기 제1 이용자의 단말기(490)는 출력부(496)를 통해 촬영 가이드를 표시할 수 있다. 상기 출력부(496)를 통한 촬영 가이드의 표시는 4.2.1.1에서 설명한 바와 같이 선택적인 과정일 수 있다.The
상기 제1 이용자의 단말기(490)는 상기 제1 이용자의 제어에 의해 상기 카메라 모듈(491)을 통해 제1 이미지를 촬영할 수 있다. 상기 제1 이미지는 제1 이용자가 이용한 차량의 외관과 관련된 적어도 하나 이상의 이미지를 포함할 수 있다. 상기 제1 이미지는 차량 외관의 주요 부위를 포함하는 복수의 이미지를 일 수 있다. 상기 제1 이미지는 제2 시점(T2)과 대응되는 시점에 촬영된 이미지일 수 있다.The
제2 이용자의 단말기(490) 또한 상기 제2 이용자의 제어에 의해 차량 이용시간이 종료되는 제4 시점(T4)에 카메라 모듈(491)을 이용하여 제3 이미지를 촬영할 수 있다. 상기 제3 이미지는 제2 이용자가 이용한 차량의 외관과 관련된 적어도 하나 이상의 이미지를 포함할 수 있다. 상기 제3 이미지는 차량 외관의 주요 부위를 포함하는 복수의 이미지를 일 수 있다. 상기 제3 이미지는 제4 시점(T4)과 대응되는 시점에 촬영된 이미지일 수 있다.The
상기 제1 이용자의 단말기(490)는 제1 이미지를 상기 저장부(493)에 저장한 후 상기 통신부(494)를 통해 상기 서버(499)로 전송할 수 있다. 상기 제1 이용자의 단말기(490)는 제2 시점(T2)과 대응되는 시점에 상기 제1 이미지를 상기 서버(499)로 전송할 수 있다. 또한, 제2 이용자의 단말기(490)도 제4 시점(T4)과 대응되는 시점에 상기 제3 이미지를 상기 서버(499)로 전송할 수 있다.The
상기 서버(499)는 상기 제1 이용자 단말기(490)로부터 상기 제1 이미지를 수신할 수 있다.The
상기 서버(499)는 상기 제1 이미지에 기초하여 차량의 추가손상 유무를 판단할 수 있다.The
상기 서버(499)는 상기 제1 이미지와 서버(499)에 저장된 데이터를 비교하여 공유 차량의 추가손상 유무를 판단할 수 있다. 상기 서버(499)에 저장된 데이터는 해당 공유 차량의 기존 손상정보일 수 있다. 상기 서버(499)는 상기 제1 이미지를 분석하여 해당 공유 차랑의 추가손상 유무를 판단할 수 있다. 즉, 서버(499)는 공유 차량 이용자가 이용한 차량에 공유 차량 이용자의 운행 중 발생한 손상이 있는지 판단할 수 있다.The
결국, 서버(499)는 공유 차량 이용자가 이용 종료 후 공유 차량을 촬영한 이미지를 공유 차량의 기존 손상 정보와 비교하여 해당 차량에 발생한 추가 손상 정보를 파악함으로써, 공유 차량에 발생한 손상에 대해 책임 소재를 명확히 할 수 있고, 공유 차량에 발생하는 손상을 시계열적으로 관리하여 체계적인 관리가 가능하도록 할 수 있다. 예시적으로, 서버(499)는 제3 이미지와 제1 이미지를 비교하여 추가 손상 정보를 파악함으로써, 제1 이용자의 이용 종료시점인 제2 시점(T2)부터 제2 이용자의 이용 종료시점인 제4 시점(T4)사이에 발생한 손상 정보를 파악 및 관리할 수 있다. 다시 말해, 서버(499)는 제3 이미지와 제1 이미지를 비교하여 추가 손상 정보를 파악함으로써, 제2 구간(P2) 또는 제3 구간(P3)에 발생한 손상 정보를 파악 및 관리할 수 있다.As a result, the
상기 서버(499)는 차량에 추가 손상이 발생되지 않았다고 판단하는 경우, 해당 차량에 관한 손상 정보를 업데이트할 수 있다. 즉, 서버(499)는 차량에 추가 손상이 발생되지 않았다고 판단하는 경우 해당 차량에 추가 손상이 발생되지 않았으며, 해당 차량에 관한 손상 정보는 기존 손상 정보와 동일하다는 내용으로 해당 차량에 관한 손상 정보를 업데이트할 수 있다. 이때, 상기 업데이트된 손상 정보를 제1 정보로 정의할 수 있다.When the
예시적으로, 서버(499)는 제2 시점(T2) 또는 제4 시점(T4)에 촬영된 제1 이미지 또는 제3 이미지로부터 차량에 추가 손상이 발생되지 않았다고 판단하는 경우, 해당 차량에 관한 손상 정보는 기존 손상 정보와 동일하다는 내용으로 해당 차량에 관한 손상 정보를 업데이트할 수 있다.Exemplarily, when the
다른 예로, 서버(499)는 제4 시점(T4)에 촬영된 제3 이미지로부터 차량에 추가 손상이 발생되지 않았다고 판단하는 경우, 해당 차량에 관한 손상 정보는 제2 시점(T2)에 촬영된 제1 이미지로부터 판단된 손상 정보와 동일하다는 내용으로 업데이트할 수 있다.As another example, when the
서버(499)는 차량에 추가 손상이 발생되었다고 판단하는 경우, 해당 추가 손상 정보를 이용자의 단말기(490)로 전송할 수 있다.When determining that additional damage has occurred to the vehicle, the
이용자의 단말기(490)는 서버(499)로부터 추가 손상 정보를 수신할 수 있다.The user's terminal 490 may receive additional damage information from the
상기 추가 손상 정보가 수신된 경우 상기 이용자의 단말기(490)는 상기 이용자에게 추가 손상에 대한 동의여부를 확인할 수 있다.When the additional damage information is received, the
상기 이용자의 단말기(490)는 출력부(496)를 이용하여 상기 이용자에게 추가 손상에 대한 동의여부를 표시할 수 있고, 이용자로하여금 해당 추가 손상 정보에 대한 동의 여부를 선택하도록 할 수 있다. 이용자는 입력부(495)를 통해 상기 추가 손상 정보가 자신의 차량 이용 기간 중 발생한 손상인지에 대하여 동의 여부를 선택할 수 있다.The user's terminal 490 may indicate to the user whether to agree to the additional damage using the
이 경우 상기 추가 손상 정보는 현재 이용자의 이용 기간 중 발생한 추가 손상 정보를 포함할 수 있다. 예시적으로, 상기 추가 손상 정보는 제1 이용자의 이용 시작시점인 제1 시점(T1)부터 제1 이용자의 이용 종료시점인 제2 시점(T2)사이에 차량에 추가로 발생한 손상 정보를 의미할 수 있다. 즉, 상기 추가 손상 정보는 제1 이용자의 이용 기간인 제1 구간(P1)에서 차량에 추가로 발생한 손상 정보를 의미할 수 있다.In this case, the additional damage information may include additional damage information generated during the current user's use period. Exemplarily, the additional damage information may refer to damage information additionally generated in the vehicle between a first time point T1, which is the start point of use by the first user, and a second point in time T2, which is the end point of use of the first user. can That is, the additional damage information may refer to damage information additionally generated in the vehicle in the first section P1, which is the usage period of the first user.
상기 제4 시점(T4)에서의 상기 추가 손상 정보는 제2 이용자의 이용 시작시점인 제3 시점(T3)부터 제2 이용자의 이용 종료시점인 제4 시점(T4)사이에 차량에 추가로 발생한 손상 정보를 의미할 수 있다. 즉, 상기 추가 손상 정보는 제2 이용자의 이용 기간인 제3 구간(P3)에서 차량에 추가로 발생한 손상 정보를 의미할 수 있다.The additional damage information at the fourth point in time T4 is additionally generated in the vehicle between the third point in time T3, which is the start point of use by the second user, and the fourth point in time T4, which is the end point of use by the second user. It may mean damage information. That is, the additional damage information may refer to damage information additionally generated in the vehicle in the third period P3, which is the use period of the second user.
상기 추가 손상 정보는 제1 이용자의 이용 종료시점인 제2 시점(T2)부터 제2 이용자의 이용 종료시점인 제4 시점(T4)사이에 차량에 추가로 발생한 손상 정보를 의미할 수 있다. 즉, 상기 추가 손상 정보는 제2 구간(P2) 또는 제3 구간(P3)에서 차량에 추가로 발생한 손상 정보를 의미할 수 있다.The additional damage information may refer to damage information additionally generated in the vehicle between the second time point T2, which is the end point of use by the first user, and the fourth point in time T4, which is the end point of use of the second user. That is, the additional damage information may refer to damage information additionally generated in the vehicle in the second section P2 or the third section P3.
다시 말해, 제2 이용자는 단말기(490)가 서버(499)로부터 상기 추가 손상 정보를 수신하면 상기 추가 손상 정보가 제2 시점(T2) 또는 제3 시점(T3)부터 제4 시점(T4) 사이에 발생한 손상인지에 대하여 동의 여부를 선택할 수 있다. 다른 예로, 제2 이용자는 단말기(490)가 서버(499)로부터 상기 추가 손상 정보를 수신하면 상기 추가 손상 정보가 제2 구간(P2) 또는 제3 구간(P3)에서 발생한 손상인지에 대하여 동의 여부를 선택할 수 있다.In other words, when the terminal 490 receives the additional damage information from the
이용자의 단말기(490)에 의한 상기 추가 손상 정보를 확인하는 절차를 거쳐야 차량 반납 처리는 완료될 수 있다. 즉, 이용자가 예약한 시간이 경과하면 차량 이용은 종료되지만, 이후 이용자가 상기 추가 손상 정보에 동의 또는 이의제기 단계를 거쳐야 차량 반납 처리가 완료될 수 있다.The vehicle return process can be completed only after going through a procedure for checking the additional damage information by the user's
이용자가 상기 추가 손상 정보에 동의하는 경우 차량 반납 처리는 완료될 수 있다. 이용자가 상기 추가 손상 정보에 이의가 없다고 인정하는 경우 차량 반납 처리는 완료될 수 있다.If the user agrees to the additional damage information, the vehicle return process can be completed. If the user acknowledges that he or she has no objection to the additional damage information, the vehicle return process may be completed.
예시적으로, 제1 이용자가 상기 제1 이용자 단말기(490)를 이용하여 상기 추가 손상 정보에 동의하는 경우 차량 반납 처리는 완료될 수 있다.Exemplarily, when the first user agrees to the additional damage information using the
제2 이용자가 제2 이용자 단말기(490)를 이용하여 상기 추가 손상 정보가 제2 시점(T2) 또는 제3 시점(T3)부터 제4 시점(T4)사이에 차량에 추가로 발생한 손상이거나, 제2 구간(P2) 또는 제3 구간(P3)에서 차량에 추가로 발생한 손상임임에 동의하는 경우 차량 반납 처리는 완료될 수 있다.When the second user uses the
이용자가 상기 추가 손상 정보에 동의하지 않는 경우 이용자는 상기 추가 손상 정보에 동의하지 않는 이유에 대해 이의제기를 할 수 있고, 이의제기가 완료되면 차량 반납 처리는 완료될 수 있다. 즉, 이용자가 상기 추가 손상 정보에 전부 또는 일부 동의하지 않는 경우, 동의하지 않는 부분에 대해서 이의제기 절차를 거칠 수 있고, 상기 이의제기 절차가 완료되면 차량 반납 처리는 완료될 수 있다.If the user does not agree to the additional damage information, the user may file an objection regarding the reason for not agreeing to the additional damage information, and when the objection is completed, the vehicle return process may be completed. That is, if the user does not agree with all or part of the additional damage information, he or she may go through an objection procedure for the disagreement, and when the objection procedure is completed, the vehicle return process may be completed.
예시적으로, 제2 이용자가 상기 추가 손상 정보가 제2 시점(T2) 또는 제3 시점(T3)부터 제4 시점(T4)사이에 차량에 추가로 발생한 손상이거나, 제2 구간(P2) 또는 제3 구간(P3)에서 차량에 추가로 발생한 손상임임에 전부 동의하지 않거나 일부 동의하지 않는 경우, 동의하지 않는 부분에 대해서 이의제기를 거칠 수 있다. 이후, 상기 이의제기 절차가 완료되면 차량 반납 처리는 완료될 수 있다.Exemplarily, the second user indicates that the additional damage information is damage that additionally occurred to the vehicle between the second time point T2 or the third time point T3 and the fourth time point T4, or the second period P2 or If you do not agree at all or partially that the damage is additionally caused to the vehicle in the third section (P3), you may file an objection for the part you do not agree with. Thereafter, when the objection procedure is completed, the vehicle return process may be completed.
제1 이용자의 단말기(490)는 차량 반납 처리가 완료되면 추가 손상 정보에 이용자의 동의 여부를 반영하여 서버(499)에 전송할 수 있다.When the vehicle return process is completed, the
또한, 서버(499)는 상기 제1 이용자의 단말기(490)로부터 수신된 제1 이용자의 동의 여부가 반영된 추가 손상 정보를 토대로 차량 손상 정보를 업데이트할 수 있다. 이때, 상기 업데이트된 차량 손상 정보를 제1 정보로 정의할 수 있다. In addition, the
이처럼 서버(499)가 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써 차량의 외관에 발생되어 있는 손상 정보를 시계열적으로 관리할 수 있고, 또한 차량의 외관에 발생되어 있는 손상 정보의 책임 소재를 명확히 하여 수리, 점검 및 교체 비용 청구가 원활히 이루어질 수 있도록 할 수 있다.As such, the
4.3.2 차량 이용 전 기존 손상 정보에 대한 동의 여부 및 차량 외관 재촬영4.3.2 Whether or not to agree to the existing damage information before using the vehicle and re-photographing the exterior of the vehicle
일 실시예에 따르면, 모바일 베이스 차량 관리 프로세스는 공유 차량 이용자가 차량 이용 전 차량의 기존 손상 정보에 동의하는 경우 차량 이용이 가능하도록 하는 단계를 포함할 수 있다. 또한, 모바일 베이스 차량 관리 프로세스는 공유 차량 이용자가 차량 이용 전 차량의 기존 손상 정보에 전부 또는 일부 동의하지 않는 경우 차량 외관 중 동의하지 않는 부분 또는 차량 외관 전체에 대해 재 촬영하는 단계를 수행하여야 차량 이용이 가능하도록 하는 단계를 포함할 수 있다.According to an embodiment, the mobile-based vehicle management process may include enabling use of the vehicle when the shared vehicle user agrees to existing damage information of the vehicle before using the vehicle. In addition, in the mobile-based vehicle management process, if the shared vehicle user does not agree with all or part of the existing damage information of the vehicle before using the vehicle, a step of re-photographing the disagreeable part or the entire vehicle exterior should be performed before using the vehicle. It may include steps to make this possible.
도 58은 공유 차량 이용자가 공유 차량 이용 전 공유 차량의 기존 손상 정보에 동의 여부를 표시하고 동의하지 않을 시 차량 외관을 촬영하는 차량 이용 프로세스의 설명을 위한 도면이다. 이하에서는 도 56 및 도 58을 참조하여, 공유 차량 이용자가 공유 차량 이용을 위해 공유 차량 이용 전 수행해야 하는 일련의 단계들에 대하여 설명한다.58 is a view for explaining a vehicle use process in which a shared vehicle user indicates whether or not to agree to existing damage information of a shared vehicle before using the shared vehicle and, if not, takes a photograph of the exterior of the vehicle. Hereinafter, with reference to FIGS. 56 and 58, a series of steps that a shared vehicle user must perform before using a shared vehicle will be described.
도 58을 참조하면, 이용자의 단말기(490)는 차량 이용 일정시간 이전에 스마트키를 활성화시킬 수 있다. 상기 서버(499)는 상기 이용자의 단말기(490)의 스마트키가 활성화될 수 있도록 제어할 수 있다. 상기 제2 이용자의 단말기(490)는 상기 제3 시점의 일정시간 이전에 스마트키를 활성화시킬 수 있다.Referring to FIG. 58 , the user's terminal 490 may activate the smart key before a predetermined time of using the vehicle. The
상기 제2 이용자의 단말기(490)는 상기 스마트키가 활성화되면 서버(499)에 해당 차량에 관한 기존 손상 정보를 요청할 수 있다.When the smart key is activated, the
이때, 상기 기존 손상 정보는 공유 차량의 현재 외관 상태에 대한 정보를 의미할 수 있다. 또한, 상기 기존 손상 정보는 현재 이용자가 차량을 이용하기 직전에 차량을 이용한 이전 이용자에 의해 업데이트 되어있는 차량의 손상 정보를 의미할 수 있다. 예시적으로, 상기 기존 손상 정보는 공유 차량 이용자가 공유 차량을 이용하기 전 공유 차량에 이미 발생되어 있던 손상 정보를 의미할 수 있다. 다른 예로, 상기 기존 손상 정보는 이전 공유 차량 이용자에 의해 공유 차량에 발생된 손상 정보를 의미할 수 있다. 또 다른 예로, 상기 기존 손상 정보는 이전 공유 차량 이용자가 공유 차량 반납 완료 후 현재 공유 차량 이용자가 공유 차량을 이용하기 전 발생된 손상 예컨대, 주차 중 손상 등을 의미할 수 있다.In this case, the existing damage information may mean information on the current external state of the shared vehicle. In addition, the existing damage information may refer to damage information of a vehicle updated by a previous user who used the vehicle immediately before the current user uses the vehicle. Exemplarily, the existing damage information may mean damage information that has already occurred in the shared vehicle before the shared vehicle user uses the shared vehicle. As another example, the existing damage information may mean damage information generated to a shared vehicle by a previous shared vehicle user. As another example, the existing damage information may mean damage that occurred before the current shared vehicle user used the shared vehicle after the previous shared vehicle user completed returning the shared vehicle, for example, damage during parking.
또한, 도 56 및 도 58을 참조하면, 상기 기존 손상 정보는 제1 이용자가 차량 이용 후 제2 시점(T2)에서 촬영한 제1 이미지로부터 업데이트 되어 있는 제1 정보를 의미할 수 있다. 예를 들어, 제2 이용자를 현재 이용자로 정의하고, 제1 이용자를 이전 이용자로 정의하면, 상기 기존 손상 정보는 제1 시점(T1)부터 제2 시점(T2) 또는 제3 시점(T3)사이에 발생한 손상 정보를 의미할 수 있고, 또한 상기 기존 손상 정보는 제1 구간(P1) 또는 제2 구간(P2)에서 발생한 손상 정보를 의미할 수 있다. 또는, 상기 제1 이용자가 어떠한 촬영도 진행하지 않은 경우에 상기 기존 손상 정보는 가장 최근의 이미지를 촬영한 이용자가 촬영한 이미지일 수 있다.Also, referring to FIGS. 56 and 58 , the existing damage information may refer to first information updated from a first image taken at a second point in time T2 after the first user uses the vehicle. For example, if the second user is defined as the current user and the first user is defined as the previous user, the existing damage information is stored between the first time point T1 and the second time point T2 or the third time point T3. It may mean damage information generated in , and the existing damage information may mean damage information generated in the first section (P1) or the second section (P2). Alternatively, when the first user does not perform any photographing, the existing damage information may be an image photographed by a user who photographed the most recent image.
한편, 상기 기존 손상 정보는 공유 차량의 실제 이미지를 통해 표현되거나 가공된 3D 이미지를 통해 표현될 수 있다. 예를 들어, 기존 손상 정보는 공유 차량의 실제 이미지 상에 손상 부위가 바운딩 박스로 표시된 형태로 제공될 수 있다. 다른 예로, 기존 손상 정보는 공유 차량에 관한 정보가 반영된 가공된 3D 이미지 상에 손상 부위가 바운딩 박스로 표시된 형태로 제공될 수 있다. 이때, 기존 손상 정보가 가공된 3D 이미지 형태로 제공되는 경우, 공유 차량 이용자는 상기 3D 이미지를 360도 회전하는 방법 등을 통해 차량 외관의 전체적인 손상 정보를 보다 편리하게 파악할 수 있다.Meanwhile, the existing damage information may be expressed through a real image of a shared vehicle or a processed 3D image. For example, existing damage information may be provided in a form in which a damaged part is displayed as a bounding box on an actual image of a shared vehicle. As another example, the existing damage information may be provided in a form in which a damaged part is displayed as a bounding box on a processed 3D image in which information about shared vehicles is reflected. In this case, when the existing damage information is provided in the form of a processed 3D image, the shared vehicle user can more conveniently grasp overall damage information on the exterior of the vehicle through a method of rotating the 3D image 360 degrees.
서버(499)는 제2 이용자의 단말기(490)로부터 기존 손상 정보 요청 메시지를 수신한 후, 기존 손상 정보를 검색하여 해당 내용을 제2 이용자의 단말기(490)에 전송할 수 있다. 이후 제2 이용자의 단말기(490)는 상기 기존 손상 정보를 수신하고 제2 이용자의 단말기(490)에 기존 손상 정보를 표시한 후, 제2 이용자에게 차량 외관 정보를 확인하라는 메시지를 표시할 수 있다.After receiving the existing damage information request message from the second user's
제2 이용자는 상기 기존 손상 정보에 동의 여부를 선택할 수 있다. 즉, 제2 이용자의 단말기(490)는 공유 차량 이용자에게 공유 차량에 발생되어 있는 기존 손상 정보를 표시한 후, 상기 제2 이용자가 기존 손상 정보에 대한 동의 여부를 선택할 수 있는 화면을 표시할 수 있다. 상기 동의는 전체 손상 정보에 대한 일괄 동의와 부분동의를 포함할 수 있다.The second user may select whether to agree to the existing damage information. That is, the
모바일 베이스 차량 관리 프로세스의 제2 이용자의 단말기(490)는 제2 이용자가 공유 차량 이용 전 공유 차량의 기존 손상 정보에 동의하는 경우 공유 차량의 문 열림 기능 및 시동 기능을 활성화시킬 수 있다. 상기 제2 이용자의 단말기(490)는 제2 이용자가 단말기(490)를 통해 일괄 동의를 입력하는 경우 공유 차량의 문 열림 기능 및 시동 기능을 활성화할 수 있다. 즉, 제2 이용자는 공유 차량 이용 전 공유 차량의 기존 손상 정보에 일괄 동의하는 경우 공유 차량을 이용할 수 있다.The
이때, 제2 이용자가 해당 차량의 기존 손상 정보에 동의한다는 것은 제2 이용자의 단말기(490)에 표시되어 있는 기존 손상 정보와 현재 차량의 외관 상태가 일치한다는 것에 동의한다는 것을 의미할 수 있다.In this case, that the second user agrees with the existing damage information of the vehicle may mean agreeing that the existing damage information displayed on the
도시하지 않았지만, 상기 제2 이용자에 의한 일괄 동의가 입력되는 경우 상기 제2 이용자의 단말기(490)는 상기 서버(499)로 일괄 동의에 대한 정보를 전송할 수 있다. 상기 서버(499)는 일괄 동의에 대한 정보를 저장한 후 상기 제2 이용자의 단말기(490)가 문열림 및 시동기능을 활성화시킬 수 있도록 데이터를 전송할 수도 있다.Although not shown, when collective agreement is input by the second user, the
상기 제2 이용자에 의한 일괄 동의가 입력되는 경우 상기 서버(499)는 차량의 외관상태가 기존과 동일하다는 정보를 저장할 수 있다.When collective consent is input by the second user, the
제2 이용자가 차량 이용 전 기존 손상 정보에 동의하지 않을 시 상기 제2 이용자의 단말기(490)는 상기 제2 이용자가 차량의 현재 외관 상태에 대한 촬영 및 등록을 수행할 수 있도록 표시할 수 있다. 이때, 상기 제2 이용자의 단말기(490)는 상기 제2 이용자가 차량 이용 전 차량의 현재 외관을 촬영할 수 있도록 촬영 가이드를 제공할 수 있다. 상기 촬영 가이드는 4.2.1.1에서 상술한 내용과 중복되므로, 자세한 설명은 생략한다.If the second user does not agree to the existing damage information before using the vehicle, the second user's terminal 490 may display the second user so that the current exterior state of the vehicle can be photographed and registered. At this time, the
보다 구체적으로, 도 56을 참조하면, 상기 제2 이용자의 단말기(490)는 상기 제2 이용자가 차량 이용 시간이 시작되는 제3 시점(T3)에 차량 외관 촬영을 할 수 있도록 표시할 수 있다. 이때 상기 제2 이용자에 의해 이용 시작 전 촬영되는 차량 이미지는 제2 이미지일 수 있다. 즉, 제3 시점(T3)과 대응되는 시점에 제2 이용자의 단말기(490)에 의해 촬영되는 이미지는 제2 이미지로 정의될 수 있다. 제2 이미지는 차량 외관에 관한 이미지이며, 차량 외관의 주요 부위를 포함하는 복수의 이미지를 포함할 수 있다. 제1 이용자 또한 차량 이용 시간이 시작되는 제1 시점(T1)에 차량 외관 촬영을 할 수 있다.More specifically, referring to FIG. 56 , the second user's terminal 490 may display the second user's vehicle exterior photographing at a third time point T3 when the vehicle usage time starts. In this case, the vehicle image taken by the second user before use may be the second image. That is, an image photographed by the second user's terminal 490 at a time point corresponding to the third point of view T3 may be defined as a second image. The second image is an image of the exterior of the vehicle, and may include a plurality of images including main parts of the exterior of the vehicle. The first user may also photograph the exterior of the vehicle at the first point in time T1 when the vehicle use time starts.
상기 제2 이용자의 단말기(490)는 상기 제2 이용자가 기존 손상 정보에 동의하지 않을 경우에만 외관 촬영에 대한 절차를 진행하도록 함으로써, 손상 정보에 대한 다툼이 없는 경우에 공유 차량 이용 전 확인 프로세스를 보다 간소화할 수 있다.The second user's terminal 490 proceeds with the external photographing procedure only when the second user does not agree with the existing damage information, thereby performing a confirmation process before using the shared vehicle when there is no dispute about the damage information. can be more simplified.
제2 이용자에 의해 촬영된 이미지 데이터는 제2 이용자의 단말기(490)에 저장 및 등록된 후 서버(499)로 전송될 수 있다. 예를 들어, 제2 이용자에 의해 제3 시점(T3)에 촬영된 제2 이미지는 제2 이용자의 단말기(490)에 저장된 후 서버(499)로 전송될 수 있다. 또한, 제1 이용자에 의해 제1 시점(T1)에 촬영된 이미지도 마찬가지로 서버(499)로 전송될 수 있다.Image data photographed by the second user may be stored and registered in the
서버(499)는 제2 이용자의 단말기(490)로부터 제2 이미지를 수신한 후 상기 제2 이미지와 기존 손상정보에 기초하여 차량에 추가손상이 발생되었는지 판단할 수 있다. 보다 구체적으로 서버(499)는 제2 이용자의 단말기(490)로부터 제2 이미지를 수신한 후 상기 제2 이미지를 해당 차량의 기존 손상 정보와 비교하여 차량에 추가 손상이 발생되었는지 판단할 수 있다. 즉, 서버(499)는 차량의 현재 외관 상태가 기존 손상 정보와 차이가 있는지 판단할 수 있다.After receiving the second image from the
예시적으로, 서버(499)는 제2 이용자가 이용 전 제3 시점(T3)에서 촬영한 제2 이미지를 제1 이용자가 이용 후 제2 시점(T2)에서 촬영한 제1 이미지와 비교 분석하여 차량에 추가 손상이 발생하였는지 판단할 수 있다. 즉, 서버(499)는 제2 시점(T2)과 제3 시점(T3)사이인 제2 구간(P2)에서 추가 손상이 발생하였는지 판단할 수 있다.Illustratively, the
결국, 서버(499)는 추가 손상 발생 여부 판단을 수행함으로써, 공유 차량의 현재 외관 상태에 관한 정보를 업데이트할 수 있고, 기존 손상 정보에서 누락되어 있던 손상 정보를 파악할 수 있으며, 이전 이용자의 이용 종료 후 주차 중 발생된 추가 손상 정보를 파악할 수 있는 효과를 제공할 수 있다. 예시적으로, 서버(499)는 제2 이미지와 제1 이미지를 비교하여 추가 손상 정보를 파악함으로써, 제1 이용자의 이용 종료시점인 제2 시점(T2)부터 제2 이용자의 이용 시작시점인 제3 시점(T3)사이에 발생한 손상 정보, 즉 제2 구간(P2)에서 발생한 손상 정보를 파악 및 관리할 수 있다.As a result, the
한편, 제2 이용자는 공유 차량의 기존 손상 정보에 대해 전부 동의하지 않을 수 있고, 일부 동의하지 않을 수 있으며, 전부 또는 일부 동의 여부에 따라 공유 차량의 외관 재 촬영하는 범위가 달라질 수 있다. 이에 대한 자세한 설명은 후술하도록 한다.Meanwhile, the second user may not agree to all or part of the existing damage information of the shared vehicle, and the extent of re-photographing the exterior of the shared vehicle may vary depending on whether the second user agrees in whole or in part. A detailed description of this will be described later.
서버(499)는 차량에 추가 손상이 발생되었다고 판단하는 경우, 해당 차량에 관한 손상 정보를 업데이트할 수 있다. 즉, 서버(499)는 차량에 추가 손상이 발생되었다고 판단하는 경우 해당 차량의 현재 외관 상태에 맞도록 기존 손상 정보를 업데이트할 수 있다. 이때, 상기 업데이트된 손상 정보를 제2 정보로 정의할 수 있다.When it is determined that additional damage has occurred to the vehicle, the
예시적으로, 서버(499)는 제3 시점(T3)에 촬영된 제2 이미지부터 차량에 추가 손상이 발생되었다고 판단하는 경우, 해당 차량의 현재 외관 상태에 맞도록 기존 손상 정보를 업데이트할 수 있다. 상기 업데이트 내용은 기존 손상 정보에서 누락되어 있던 손상 정보에 관한 것일 수 있고, 이전 사용자의 이용 종료 후 주차 중 발생된 추가 손상 정보에 관한 것일 수 있다.For example, when determining that additional damage has occurred to the vehicle from the second image captured at the third time point T3, the
서버(499)는 차량에 추가 손상이 발생되지 않았다고 판단하는 경우, 해당 판단 결과를 제2 이용자의 단말기(490)로 전송할 수 있고, 제2 이용자의 단말기(490)가 서버(499)로부터 상기 판단 결과를 수신하면 제2 이용자는 상기 판단 결과에 대한 동의 여부를 선택할 수 있다. 이때, 상기 판단 결과는 기존 손상 정보에 문제가 없음을 나타내는 정보, 즉 기존 손상 정보가 현재 차량의 외관 상태와 동일하다는 정보를 포함할 수 있다.When the
제2 이용자의 단말기(490)는 제2 이용자가 상기 판단 결과를 확인하는 절차를 완료하면 차량의 문 열림 및 시동 기능을 활성화할 수 있다.The
제2 이용자의 단말기(490)는 제2 이용자가 상기 판단 결과에 동의하는 경우 차량의 문 열림 및 시동 기능을 활성화할 수 있다.The
도시하지 않았지만, 상기 서버(499)는 상기 제2 이용자의 단말기(490)가 제2 이미지를 전송한 경우에 상기 차량의 문 열림 및 시동 기능이 활성화 되도록 제어할 수 있다, 즉, 앞서 설명한 추가 손상에 대한 판단과 동의절차가 진행되기 전에 상기 제2 이용자의 단말기(490)는 차량의 문 열림 및 시동 기능을 활성화 할 수 있다. 이 경우 차량의 운행과정에서 서버(499)는 추가 손상 판단과 동의절차를 진행할 수 있고, 차량의 운행이 종료되기 전까지 추가 손상 판단과 동의절차를 진행하여 추가 손상 판단과 동의절차가 완료된 이후에 차량 반납 절차를 종료할 수 있다. 또는 상기 서버(499)는 추가 손상 판단과 동의절차를 차량 반납 절차 이후에 진행할 수도 있다. 상기 서버(499)는 상기 제2 이용자의 단말기(490)가 제2 이미지를 전송한 경우에 상기 차량의 문 열림 및 시동 기능이 활성화되도록 제어함으로써 차량의 운행시작 전의 절차들을 간소화할 수 있는 효과가 있다.Although not shown, the
상기 제2 이용자에 의해 상기 판단 결과에 대한 동의가 입력되는 경우 상기 서버(499)는 차량의 외관상태가 기존과 동일하다는 정보를 저장할 수 있다.When consent to the determination result is input by the second user, the
또한, 제2 이용자의 단말기(490)는 제2 이용자가 상기 판단 결과에 동의하지 않는 경우 제2 이용자가 상기 판단 결과에 동의하지 않는 이유에 대해 이의 제기할 수 있도록 표시할 수 있다. 이후, 제2 이용자의 단말기(490)는 제2 이용자의 이의제기가 완료되면 차량의 문 열림 및 시동 기능을 활성화할 수 있다.In addition, when the second user does not agree with the determination result, the
상기 제2 이용자에 의해 상기 판단 결과에 대한 이의제기가 입력되는 경우 상기 서버(499)는 상기 이의제기 결과에 따라 차량의 외관 상태가 기존과 동일하거나 추가 손상이 발생되었다는 정보를 저장할 수 있다. 다시 말해, 서버(499)는 상기 제2 이용자에 의해 입력된 상기 판단 결과에 대한 이의제기가 받아들여지는 경우 차량의 외관 상태에 추가 손상이 발생하였다는 정보를 저장할 수 있고, 이의제기가 받아들여지지 않는 경우 차량의 외관 상태가 기존과 동일하다는 정보를 저장할 수 있다.When an objection to the determination result is inputted by the second user, the
또한, 서버(499)는 단말기(490)로부터 수신된 이용자의 동의 여부 및/또는 이의제기 정보가 반영된 상기 기존 손상 정보를 토대로 차량 손상 정보를 업데이트할 수 있다. 이때, 상기 업데이트된 차량 손상 정보를 제2 정보로 정의할 수 있다.In addition, the
예시적으로, 제2 이용자의 단말기(490)는 제2 이용자가 상기 기존 손상 정보가 제2 이용자의 이용 시작시점인 제3 시점(T3)에 촬영된 제2 이미지와 대응한다는 것에 동의하는 경우 차량의 문 열림 및 시동 기능을 활성화할 수 있고, 동의하지 않는 경우 이의제기 절차가 완료되면 차량의 문 열림 및 시동 기능을 활성화할 수 있다.Exemplarily, the second user's
도시하지 않았지만, 상기 서버(499)는 상기 제2 이용자의 단말기(490)에 의한 이의 제기 절차와 이에 대한 처리 절차가 완료된 이후에 차량의 문 열림 및 시동 기능이 활성화 되도록 제어할 수 있다, 즉, 상기 서버(499)는 제2 이용자의 단말기(490)에 의한 이의 제기 절차와 이에 대한 모든 동의절차가 완료된 이후에 차량의 문 열림 및 시동 기능을 활성화 할 수 있다. 상기 서버(499)는 상기 제2 이용자의 단말기(490)에 의한 이의 제기 절차와 이에 대한 처리 절차가 완료된 이후에 차량의 문 열림 및 시동 기능이 활성화 되도록 제어함으로써 이후에 발생할 수 있는 차량의 손상과 관련된 분쟁을 예방할 수 있는 효과가 있다.이처럼 서버(499)는 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써, 차량 외관에 발생되어 있는 손상 정보를 시계열적으로 관리할 수 있고, 또한 차량의 외관에 발생되어 있는 손상 정보의 책임 소재를 명확히 하여 수리, 점검 및 교체 비용 청구가 원활히 이루어질 수 있도록 할 수 있다.Although not shown, the
또한, 서버(499)는 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써, 공유 차량 이용자는 자신이 차량을 이용하기 전에 이미 발생되어 있던 손상 정보를 명확히 하여 차량의 기존 손상에 대하여는 책임이 없음을 명확히 할 수 있다. 나아가, 서버(499)는 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써, 공유 차량 이용자는 자신의 차량 이용 중 추가로 발생된 손상에 대해서만 책임질 수 있고, 관리자도 차량에 발생한 손상에 관해 책임 소재를 분명히 할 수 있다.In addition, the
또한, 서버(499)는 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써, 관리자는 차량이 이용자에 의해 이용되지 않고 주차되어 있는 시기에 발생한 손상 정보를 파악할 수 있고 그에 따른 대응 및 조치가 가능할 수 있다. 예를 들어, 도 56을 참조하면, 서버(499)가 단말기(490)로부터 획득된 정보를 토대로 차량 손상 정보를 업데이트함으로써, 관리자는 제1 이용자의 이용 종료시점인 제2 시점(T2)과 제2 이용자의 이용 시작시점인 제3 시점(T3) 사이에 발생한 손상 정보 즉, 제2 구간(P2)에서 발생한 손상 정보를 파악할 수 있고, 그에 따른 대응 및 조치가 가능할 수 있다.In addition, the
한편, 상술한 바와 같이 공유 차량 이용자는 공유 차량의 현재 외관 상태에 대해 전부 동의하지 않을 수 있고, 일부 동의하지 않을 수 있다. 즉, 공유차량 이용자는 공유 차량의 기존 손상 정보에 대해 부분적으로 동의 여부를 표시할 수 있다.Meanwhile, as described above, the shared vehicle user may not agree with all or part of the current appearance of the shared vehicle. That is, the shared vehicle user may partially indicate whether or not to agree to the existing damage information of the shared vehicle.
도 59는 공유 차량 이용자가 공유 차량의 기존 손상 정보에 동의하지 않는 경우 공유 차량 외관을 재 촬영하는 프로세스를 설명하기 위한 도면이다. 이하에서는, 도 59를 참조하여 공유 차량 이용자가 공유 차량의 기존 손상 정보에 동의하지 않는 경우 공유 차량의 외관을 재 촬영하는 프로세스를 설명한다.59 is a diagram for explaining a process of re-photographing the exterior of a shared vehicle when a shared vehicle user does not agree with existing damage information of the shared vehicle. Hereinafter, a process of re-photographing the exterior of a shared vehicle when a shared vehicle user does not agree with existing damage information of the shared vehicle will be described with reference to FIG. 59 .
도 59의 (a)를 참조하면, 제2 이용자가 공유 차량의 기존 손상 정보에 대해 전부 동의하지 않는 경우, 제2 이용자의 단말기(490)는 공유 차량 외관 전체에 대해 재촬영을 진행할 수 있도록 표시할 수 있다. 이때, 제2 이용자의 단말기(490)는 차량 외관의 주요 부위가 모두 촬영될 수 있도록 가이드해주는 재촬영 가이드를 출력할 수 있다. 상기 재촬영 가이드는 제2 이용자가 예약 시 입력한 정보 또는 학습된 신경망 모델을 통해 획득된 정보를 기초로 제공될 수 있다.Referring to (a) of FIG. 59 , when the second user does not agree on all existing damage information of the shared vehicle, the second user's terminal 490 displays the entire exterior of the shared vehicle so that re-photographing can be performed. can do. At this time, the second user's terminal 490 may output a recapture guide that guides all major parts of the exterior of the vehicle to be photographed. The recapture guide may be provided based on information input by the second user when making a reservation or information obtained through a learned neural network model.
도 59의 (b)를 참조하면, 제2 이용자가 공유 차량의 기존 손상 정보에 대해 일부 동의하지 않는 경우, 제2 이용자의 단말기(490)는 동의하지 않는 부분에 대한 재촬영을 진행하도록 가이드할 수 있다. 상기 제2 이용자의 단말기(490)는 제2 이용자가 동의하지 않는 부분에 대응되는 재촬영 가이드를 표시할 수 있다. 상기 제2 이용자는 상기 재촬영 가이드에 따라 촬영을 진행함으로써 상기 제2 이용자 단말기(490)는 동의하지 않는 부분에 대한 이미지를 얻을 수 있다. 상기 재촬영 가이드는 공유 차량 이용자가 예약 시 입력한 정보 또는 학습된 신경망 모델을 통해 획득된 정보를 기초로 제공될 수 있다. 이러한 과정에 의해 상기 제2 이용자의 단말기(490)는 동의하지 않는 부분의 이미지를 저장하고 서버(499)에 전송할 수 있다. 상기 제2 이용자의 단말기(490)는 제2 이용자가 동의하지 않는 부분에 대해서만 재촬영을 진행할 수 있도록 제어하여 재촬영 절차를 간소화시킬 수 있다.Referring to (b) of FIG. 59 , when the second user does not agree with some of the existing damage information of the shared vehicle, the
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (15)
상기 차량과 관련된 적어도 하나의 이미지를 획득하는 이미지 획득부;
상기 차량의 특성과 관련된 추가 정보를 획득하는 추가 정보 획득부; 및
상기 차량과 관련된 적어도 하나의 이미지 및 상기 차량의 특성과 관련된 추가 정보에 기초하여 상기 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 상기 차량 정보를 획득하는 처리부;를 포함하되,
상기 신경망 모델은 상기 차량과 관련된 적어도 하나의 이미지에 기초하여 제1 특징 세트를 획득하도록 학습되고 적어도 하나의 합성곱 신경망 레이어를 포함하는 제1 부분, 및 상기 제1 부분으로부터 획득된 제1 특징 세트와 상기 차량의 특성과 관련된 추가 정보에 기초하여 제2 특징 세트를 획득하도록 학습되는 제2 부분을 포함하고,
상기 처리부는 상기 이미지 획득부를 통하여 대상 차량의 외부를 촬영하여 획득된 대상 차량 이미지를 획득하고,
상기 추가 정보 획득부를 통하여 상기 대상 차량의 특성과 관련된 대상 추가 정보를 획득하고,
상기 대상 차량 이미지에 기초하여, 상기 신경망 모델의 상기 제1 부분으로부터 획득되는 상기 대상 차량에 대응하는 제1 대상 특징 세트를 획득하고, 상기 제1 대상 특징 세트는 상기 대상 차량의 부품, 종류, 색상, 구성 및 형태를 나타내는 적어도 하나의 제1 특징 값을 포함하고,
상기 획득된 상기 대상 차량에 대응하는 상기 제1 대상 특징 세트 및 상기 대상 추가 정보에 기초하여, 상기 신경망 모델의 상기 제2 부분으로부터 상기 대상 차량에 대응하는 제2 대상 특징 세트를 획득하고, 상기 대상 추가 정보는, 상기 대상 차량의 VIN(Vehicle Identification Number)을 포함하는 비-이미지 데이터에 기반하여 결정되는 제1 추가 정보 및 상기 대상 차량의 내부를 촬영하여 획득되는 차량 내부 이미지에 기반하여 결정되는 제2 추가 정보를 포함하고, 상기 제2 대상 특징 세트는 상기 대상 차량의 외부 손상 여부 및 상기 차량의 외부 손상 종류와 관련된 적어도 하나의 제2 특징 값을 포함하고, 상기 제2 대상 특징 세트는 상기 대상 차량의 외부를 구성하는 제1 부품이 분포하는 영역을 나타내는 제1 영역 특징 세트 및 제2 부품이 분포하는 영역을 나타내는 제2 영역 특징 세트를 포함하고, 상기 제1 부품이 분포하는 영역과 상기 제2 부품이 분포하는 영역은 서로 상이하며,
상기 획득된 대상 차량에 대응하는 상기 제2 대상 특징 세트에 기초하여, 상기 대상 차량에 대한 대상 차량 정보를 획득하는,
차량 관리 보조 장치.
A vehicle management assistance device for obtaining vehicle information related to the exterior of a vehicle based on a vehicle image,
an image acquiring unit acquiring at least one image related to the vehicle;
an additional information obtaining unit acquiring additional information related to the characteristics of the vehicle; and
A processor for obtaining the vehicle information by using a neural network model learned to obtain the vehicle information based on at least one image related to the vehicle and additional information related to characteristics of the vehicle; including,
The neural network model is trained to obtain a first feature set based on at least one image associated with the vehicle and includes a first portion comprising at least one convolutional neural network layer, and a first feature set obtained from the first portion. and a second part learned to obtain a second set of features based on additional information related to the characteristics of the vehicle;
The processing unit obtains a target vehicle image obtained by photographing the exterior of the target vehicle through the image acquisition unit,
Obtaining target additional information related to the characteristics of the target vehicle through the additional information acquisition unit;
Based on the target vehicle image, a first target feature set corresponding to the target vehicle obtained from the first part of the neural network model is obtained, wherein the first target feature set is a part, type, and color of the target vehicle. , including at least one first feature value indicating a configuration and shape,
obtaining a second target feature set corresponding to the target vehicle from the second part of the neural network model based on the obtained first target feature set corresponding to the target vehicle and the target additional information; The additional information may include first additional information determined based on non-image data including a Vehicle Identification Number (VIN) of the target vehicle, and second determined based on a vehicle interior image obtained by photographing the inside of the target vehicle. 2 additional information, the second target feature set includes at least one second feature value related to whether the target vehicle has external damage and the external damage type of the vehicle, and the second target feature set includes the target vehicle A first region feature set representing a region in which a first part constituting the exterior of the vehicle is distributed and a second region feature set representing a region in which a second component is distributed, wherein the region in which the first part is distributed and the first region feature set are included. The areas where the two parts are distributed are different from each other,
Obtaining target vehicle information about the target vehicle based on the obtained second target feature set corresponding to the target vehicle;
Fleet management aids.
상기 신경망 모델은 상기 차량의 외부의 손상과 관련된 손상 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 상기 외부의 손상 여부와 관련된 적어도 하나의 특징 값을 포함하는,
차량 관리 보조 장치.
According to claim 1,
The neural network model is learned to acquire damage information related to external damage of the vehicle, and the second feature set includes at least one feature value related to whether the vehicle is damaged or not.
Fleet management aids.
상기 신경망 모델은 상기 차량의 외부를 구성하는 부품과 관련된 부품 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 외부를 구성하는 부품과 관련된 적어도 하나의 특징 값을 포함하는,
차량 관리 보조 장치.
According to claim 1,
The neural network model is trained to acquire part information related to a part constituting the exterior of the vehicle, and the second feature set includes at least one feature value related to a part constituting the exterior of the vehicle.
Fleet management aids.
상기 처리부는 상기 제2 부분으로부터 상기 제1 특징 세트 및 상기 추가 정보에 기초하여, 상기 대상 차량의 외부에 위치하는 적어도 하나의 손상 영역과 관련된 상기 제2 특징 세트를 획득하되,
상기 제2 특징 세트는 상기 적어도 하나의 손상 영역의 위치를 나타내는 손상 영역 특징 세트를 포함하는,
차량 관리 보조 장치.
According to claim 1,
the processing unit obtains, based on the first feature set and the additional information from the second part, the second feature set associated with at least one damaged region located outside the target vehicle;
Wherein the second feature set comprises a damage region feature set indicating a location of the at least one damaged region.
Fleet management aids.
상기 이미지 획득부를 통하여 대상 차량의 외부를 촬영하여 획득된 대상 차량 이미지를 획득하는 단계;
상기 추가 정보 획득부를 통하여 상기 대상 차량의 특성과 관련된 대상 추가 정보를 획득하는 단계; 및
상기 대상 차량의 특성과 관련된 상기 대상 추가 정보 및 상기 획득된 대상 차량에 대한 상기 대상 차량 이미지에 기초하여 상기 대상 차량에 대한 대상 차량 정보를 획득하는 단계; 를 포함하되,
상기 대상 차량에 대한 상기 대상 차량 정보를 획득하는 단계는, 상기 차량과 관련된 적어도 하나의 이미지 및 상기 차량의 특성과 관련된 추가 정보에 기초하여 상기 차량 정보를 획득하도록 학습된 신경망 모델을 이용하여 수행되며,
상기 대상 차량에 대한 상기 대상 차량 정보를 획득하는 단계는,
상기 대상 차량 이미지에 기초하여, 상기 신경망 모델의 제1 부분으로부터 획득되는 상기 대상 차량에 대응하는 제1 대상 특징 세트를 획득하는 단계, 상기 제1 대상 특징 세트는 상기 대상 차량의 부품, 종류, 색상, 구성 및 형태를 나타내는 적어도 하나의 제1 특징 값을 포함하고,
상기 획득된 상기 대상 차량에 대응하는 상기 제1 대상 특징 세트 및 상기 대상 추가 정보에 기초하여, 상기 신경망 모델의 제2 부분으로부터 상기 대상 차량에 대응하는 제2 대상 특징 세트를 획득하는 단계, 상기 대상 추가 정보는, 상기 대상 차량의 VIN(Vehicle Identification Number)을 포함하는 비-이미지 데이터에 기반하여 결정되는 제1 추가 정보 및 상기 대상 차량의 내부를 촬영하여 획득되는 차량 내부 이미지에 기반하여 결정되는 제2 추가 정보를 포함하고, 상기 제2 대상 특징 세트는 상기 대상 차량의 외부 손상 여부 및 상기 차량의 외부 손상 종류와 관련된 적어도 하나의 특징 값을 포함하고, 상기 제2 대상 특징 세트는 상기 대상 차량의 외부를 구성하는 제1 부품이 분포하는 영역을 나타내는 제1 영역 특징 세트 및 제2 부품이 분포하는 영역을 나타내는 제2 영역 특징 세트를 포함하고, 상기 제1 부품이 분포하는 영역과 상기 제2 부품이 분포하는 영역은 서로 상이하며, 및
상기 획득된 상기 대상 차량에 대응하는 상기 제2 대상 특징 세트에 기초하여, 상기 대상 차량에 대한 대상 차량 정보를 획득하는 단계를 포함하는,
차량 관리 보조 방법.
Based on the image acquisition unit for acquiring at least one image related to the vehicle, the additional information acquisition unit for acquiring additional information related to the characteristics of the vehicle, and the at least one image related to the vehicle and the additional information related to the characteristics of the vehicle In the vehicle management assistance method of a vehicle management assistance device including a processing unit for obtaining vehicle information related to the exterior of the vehicle,
obtaining a target vehicle image acquired by photographing the outside of the target vehicle through the image acquisition unit;
obtaining target additional information related to characteristics of the target vehicle through the additional information obtaining unit; and
obtaining target vehicle information about the target vehicle based on the additional target information related to the characteristics of the target vehicle and the obtained target vehicle image of the target vehicle; Including,
The obtaining of the target vehicle information about the target vehicle is performed using a neural network model trained to obtain the vehicle information based on at least one image related to the vehicle and additional information related to characteristics of the vehicle, and ,
Obtaining the target vehicle information on the target vehicle,
obtaining a first target feature set corresponding to the target vehicle obtained from a first part of the neural network model based on the target vehicle image, wherein the first target feature set includes parts, types, and colors of the target vehicle , including at least one first feature value indicating a configuration and shape,
obtaining a second target feature set corresponding to the target vehicle from a second part of the neural network model based on the obtained first target feature set corresponding to the target vehicle and the target additional information; The additional information may include first additional information determined based on non-image data including a Vehicle Identification Number (VIN) of the target vehicle, and second determined based on a vehicle interior image obtained by photographing the inside of the target vehicle. 2 additional information, the second target feature set includes at least one feature value related to whether the target vehicle has external damage and the external damage type of the vehicle, and the second target feature set includes A first region feature set representing a region in which the first component constituting the exterior is distributed and a second region feature set representing a region in which the second component is distributed, wherein the region in which the first component is distributed and the second component are included. The regions in which these distributions are different from each other, and
Acquiring target vehicle information about the target vehicle based on the obtained second target feature set corresponding to the target vehicle.
A vehicle management aid method.
상기 신경망 모델은 상기 차량의 외부의 손상과 관련된 손상 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 상기 외부의 손상 여부와 관련된 적어도 하나의 특징 값을 포함하는,
차량 관리 보조 방법.
According to claim 8,
The neural network model is learned to acquire damage information related to external damage of the vehicle, and the second feature set includes at least one feature value related to whether the vehicle is damaged or not.
A vehicle management aid method.
상기 신경망 모델은 상기 차량의 외부를 구성하는 부품과 관련된 부품 정보를 획득하도록 학습되고, 상기 제2 특징 세트는 상기 차량의 외부를 구성하는 부품과 관련된 적어도 하나의 특징 값을 포함하는,
차량 관리 보조 방법.
According to claim 8,
The neural network model is trained to acquire part information related to a part constituting the exterior of the vehicle, and the second feature set includes at least one feature value related to a part constituting the exterior of the vehicle.
A vehicle management aid method.
상기 제2 부분으로부터 상기 제1 특징 세트 및 상기 추가 정보에 기초하여, 상기 대상 차량의 외부에 위치하는 적어도 하나의 손상 영역과 관련된 상기 제2 특징 세트가 획득되고,
상기 제2 특징 세트는 상기 적어도 하나의 손상 영역의 위치를 나타내는 손상 영역 특징 세트를 포함하는,
차량 관리 보조 방법.
According to claim 8,
Based on the first feature set and the additional information from the second part, the second feature set associated with at least one damaged area located outside the target vehicle is obtained;
Wherein the second feature set comprises a damage region feature set indicating a location of the at least one damaged region.
A vehicle management aid method.
A computer-readable recording medium storing a program for performing the method according to any one of claims 8 to 10 and 14.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200111493A KR102529429B1 (en) | 2020-09-02 | 2020-09-02 | Vehicle management assistant method and vehicle management assistant apparatus |
PCT/KR2020/017004 WO2022050504A1 (en) | 2020-09-02 | 2020-11-26 | Mobile device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200111493A KR102529429B1 (en) | 2020-09-02 | 2020-09-02 | Vehicle management assistant method and vehicle management assistant apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220029929A KR20220029929A (en) | 2022-03-10 |
KR102529429B1 true KR102529429B1 (en) | 2023-05-08 |
Family
ID=80816354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200111493A KR102529429B1 (en) | 2020-09-02 | 2020-09-02 | Vehicle management assistant method and vehicle management assistant apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102529429B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102663516B1 (en) | 2023-08-09 | 2024-05-07 | (주)고백기술 | Appearance Management System by 3D Imaging And Management Method by the Same |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102474036B1 (en) * | 2022-08-24 | 2022-12-06 | 오병성 | Method of providing information regarding vehicle part and apparatus thereof |
CN117197538B (en) * | 2023-08-16 | 2024-05-14 | 哈尔滨工业大学 | Bayesian convolution neural network structure apparent damage identification method based on Gaussian distribution weight sampling |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392218B (en) * | 2017-04-11 | 2020-08-04 | 创新先进技术有限公司 | Vehicle loss assessment method and device based on image and electronic equipment |
KR102198296B1 (en) * | 2018-06-01 | 2021-01-05 | 한화손해보험(주) | Apparatus, method and computer program for automatically calculating the damage |
-
2020
- 2020-09-02 KR KR1020200111493A patent/KR102529429B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102663516B1 (en) | 2023-08-09 | 2024-05-07 | (주)고백기술 | Appearance Management System by 3D Imaging And Management Method by the Same |
Also Published As
Publication number | Publication date |
---|---|
KR20220029929A (en) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102529429B1 (en) | Vehicle management assistant method and vehicle management assistant apparatus | |
KR102198296B1 (en) | Apparatus, method and computer program for automatically calculating the damage | |
US11080841B1 (en) | Systems and methods for machine-assisted vehicle inspection | |
CN108280524B (en) | System and method for identifying vehicles and generating reservation information | |
US11436652B1 (en) | System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate | |
CA3043280A1 (en) | Automatic image based object damage assessment | |
KR102470594B1 (en) | Vehicle damage management method and vehicle damage management apparatus | |
CN108491782A (en) | A kind of vehicle identification method based on driving Image Acquisition | |
KR102223059B1 (en) | Mobile device | |
Sangnoree et al. | Thermal-image processing and statistical analysis for vehicle category in nighttime traffic | |
KR102529430B1 (en) | Vehicle management apparatus | |
US20240320751A1 (en) | Remote vehicle damage assessment | |
CN114694385A (en) | Parking management method, device, system, electronic equipment and storage medium | |
US20230334866A1 (en) | Remote Vehicle Inspection | |
KR20120114099A (en) | Apparatus and method for car type recognition and method for coming and going managing method based on car type recognition | |
CN114220074A (en) | Method and system for identifying abnormal behavior state of vehicle | |
Nguwi et al. | Number plate recognition in noisy image | |
JP6891253B2 (en) | Traffic measuring device | |
CN108873097B (en) | Safety detection method and device for parking of vehicle carrying plate in unmanned parking garage | |
JP7277511B2 (en) | car estimator | |
CN112686136B (en) | Object detection method, device and system | |
US20230334642A1 (en) | Vehicle Inspection Using a Mobile Application | |
Gopikrishnan et al. | Smart Parking System with Automated Vehicle Log Using Haar Cascade Classifier ANPR | |
KR102601464B1 (en) | Parking management method and system using deep learning | |
CN111696237A (en) | Access control device, access control method and storage equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |