KR20190139262A - 차량 손실 평가 이미지를 획득하기 위한 방법과 장치, 서버 및 단말기 디바이스 - Google Patents
차량 손실 평가 이미지를 획득하기 위한 방법과 장치, 서버 및 단말기 디바이스 Download PDFInfo
- Publication number
- KR20190139262A KR20190139262A KR1020197033366A KR20197033366A KR20190139262A KR 20190139262 A KR20190139262 A KR 20190139262A KR 1020197033366 A KR1020197033366 A KR 1020197033366A KR 20197033366 A KR20197033366 A KR 20197033366A KR 20190139262 A KR20190139262 A KR 20190139262A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- damaged
- video
- damaged portion
- vehicle
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 163
- 238000011156 evaluation Methods 0.000 title claims abstract description 73
- 238000012545 processing Methods 0.000 claims abstract description 93
- 238000012216 screening Methods 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000002452 interceptive effect Effects 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 18
- 238000013528 artificial neural network Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G06K9/00711—
-
- G06K9/6267—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/08—Insurance
-
- G06Q50/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Marketing (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Library & Information Science (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Development Economics (AREA)
- Technology Law (AREA)
- Tourism & Hospitality (AREA)
- Life Sciences & Earth Sciences (AREA)
- Primary Health Care (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Resources & Organizations (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
- Image Processing (AREA)
- Operations Research (AREA)
- Traffic Control Systems (AREA)
Abstract
차량 손실 평가 이미지를 획득하기 위한 방법과 장치, 서버 및 단말기 디바이스가 개시된다. 방법은, 클라이언트가 촬영된 비디오 데이터를 획득하고 촬영된 비디오 데이터를 서버로 전송하는 단계; 서버가 촬영된 비디오 데이터에서 비디오 이미지를 검출하여 비디오 이미지에서 손상된 부분을 인지하는 단계; 서버가 검출된 손상된 부분에 따라 비디오 이미지를 분류하여 손상된 부분의 후보 이미지 분류 세트를 결정하는 단계; 미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량의 손실 평가 이미지를 선택하는 단계를 포함한다. 본 출원의 실시형태에 따르면, 손실 평가 처리 요구를 충족시키는 고품질 손실 평가 이미지가 자동으로 그리고 신속하게 생성될 수 있어서, 손실 평가 처리 요구를 충족시키고 그리고 손실 평가 이미지의 획득 효율을 개선시킨다.
Description
본 출원은 컴퓨터 이미지 데이터 처리 기술의 분야, 구체적으로, 차량 손실 평가 이미지를 획득하기 위한 방법, 장치, 서버, 및 단말기 디바이스에 관한 것이다.
차량의 교통사고가 발생한 후, 보험 회사는 수개의 손실 평가 이미지를 필요로 하여 보험금을 청구하는 차량에 대한 손실 평가 및 손실 검증을 수행하고, 그리고 또한 보험금 청구 서류를 보관한다.
현재, 차량 손실 평가 이미지는 일반적으로 현장에서 오퍼레이터(operator)에 의한 촬영을 통해 획득되고, 그리고 이어서 차량 손실 평가 처리가 현장에서 촬영된 사진에 따라 수행된다. 차량 손실 평가 이미지는 손상된 차량의 손상된 부분, 손상된 부품, 손상 유형, 및 손상도와 같은 정보를 분명히 반영해야 한다. 일반적으로, 사진사는 손실 평가 처리 필요조건을 충족시키는 이미지를 촬영할 수 있도록, 전문적인 차량 손실 평가-관련 지식을 숙지하게 요구된다. 이것은 분명히 손실 평가 처리에 관한 경험 축적 및 인력양성 교육에서 비교적 높은 비용을 요구한다. 또한, 차량이 교통사고 후에 가능한 한 빨리 철수 또는 이동되어야 하는 일부 상황이 있지만, 보험 회사 오퍼레이터가 사고 현장에 도착하는데 비교적 긴 시간이 걸린다. 게다가, 차량 소유주가 일부 원래의 손실 평가 이미지를 획득하도록 보험 회사 오퍼레이터의 요청에 의해 먼저 솔선해서 촬영한다면, 차량 소유주는 전문가가 아니므로, 차량 소유주에 의해 획득된 손실 평가 이미지는 종종 손실 평가 이미지 처리 필요조건을 충족시키지 못한다. 또한, 현장에서 오퍼레이터에 의해 촬영된 이미지는 종종 적격인 손실 평가 이미지를 결정하도록 차후에 그리고 수동으로 선별된 촬영 디바이스로부터 전송되어야 한다. 이것은 또한 상당히 많은 양의 노동력 및 시간을 요구하여, 손실 평가 처리를 위해 요구되는 최종의 손실 평가 이미지를 획득하는 효율을 감소시킨다.
보험 회사 오퍼레이터 또는 차량 소유주에 의해 손실 평가 이미지를 획득하는 기존의 방식은 전문적인 차량 손실 평가-관련 지식을 요구한다. 노동력 및 시간 비용은 비교적 높고, 그리고 손실 평가 처리 필요조건을 충족시키는 손실 평가 이미지를 획득하는 효율은 여전히 비교적 낮다.
본 출원의 목적은 차량 손실 평가 이미지를 획득하기 위한 방법, 장치, 서버, 및 단말기 디바이스를 제공하여, 손상된 차량의 손상된 부분의 사진사에 의해 수행된 비디오 녹화를 통해, 손실 평가 처리 필요조건을 충족시키는 고품질 손실 평가 이미지를 자동으로 그리고 신속하게 생성하여, 손실 평가 이미지 획득 효율을 개선시키고, 그리고 오퍼레이터의 작동을 용이하게 하는 것이다.
본 출원에 제공되는 차량 손실 평가 이미지를 획득하기 위한 방법, 장치, 서버, 및 단말기 디바이스는 다음과 같이 구현된다.
차량 손실 평가 이미지를 획득하기 위한 방법은,
클라이언트에 의해, 캡처된 비디오 데이터를 획득하고, 캡처된 비디오 데이터를 서버로 전송하는 단계;
서버에 의해, 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 단계;
서버에 의해, 식별된 손상된 부분에 기초하여 하나 이상의 비디오 이미지를 분류하여 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 단계; 및
미리 설정된 선별 조건에 따라 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계를 포함한다.
차량 손실 평가 이미지를 획득하기 위한 방법은,
단말기 디바이스에 의해 업로드되는 손상된 차량의 캡처된 비디오 데이터를 수신하여, 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 단계;
식별된 손상된 부분에 기초하여 하나 이상의 비디오 이미지를 분류하여 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 단계; 및
미리 설정된 선별 조건에 따라 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계를 포함한다.
차량 손실 평가 이미지를 획득하기 위한 방법은,
손상된 차량의 비디오 녹화를 수행하여 캡처된 비디오 데이터를 획득하는 단계;
캡처된 비디오 데이터를 처리 단말기로 전송하는 단계; 및
비디오 데이터에서 손상된 부분의 실시간 추적을 통해 획득되고 그리고 처리 단말기에 의해 복귀되는 위치 영역을 수신하고, 그리고 추적된 위치 영역을 디스플레이하는 단계를 포함하되, 손상된 부분은 처리 단말기에 의해 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하는 것을 통해 식별된다.
차량 손실 평가 이미지를 획득하기 위한 방법은,
손상된 차량의 캡처된 비디오 데이터를 수신하는 단계;
캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 단계;
식별된 손상된 부분에 기초하여 하나 이상의 비디오 이미지를 분류하여 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 단계; 및
미리 설정된 선별 조건에 따라 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계를 포함한다.
차량 손실 평가 이미지를 획득하기 위한 장치는,
단말기 디바이스가 업로드하는 손상된 차량의 캡처된 비디오 데이터를 수신하도록 구성된 데이터 수신 모듈;
캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 하나 이상의 비디오 이미지에서 손상된 부분을 식별하도록 구성된 손상된 부분 식별 모듈;
식별된 손상된 부분에 기초하여 하나 이상의 비디오 이미지를 분류하여 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하도록 구성된 분류 모듈; 및
미리 설정된 선별 조건에 따라 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하도록 구성된 선별 모듈을 포함한다.
차량 손실 평가 이미지를 획득하기 위한 장치는,
손상된 차량의 비디오 녹화를 수행하여 캡처된 비디오 데이터를 획득하도록 구성된 촬영 모듈;
캡처된 비디오 데이터를 처리 단말기로 전송하도록 구성된 통신 모듈; 및
비디오 데이터에서 손상된 부분의 실시간 추적을 통해 획득되고 그리고 처리 단말기에 의해 복귀되는 위치 영역을 수신하고, 그리고 추적된 위치 영역을 디스플레이하도록 구성된 추적 모듈을 포함하되, 손상된 부분은 처리 단말기에 의해 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지의 검출을 통해 식별된다.
차량 손실 평가 이미지 획득 장치는 프로세서 및 프로세서에 의해 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하되, 프로세서는,
손상된 차량의 캡처된 비디오 데이터를 수신하는 것;
캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 것;
식별된 손상된 부분에 기초하여 하나 이상의 비디오 이미지를 분류하여 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 것; 및
미리 설정된 선별 조건에 따라 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것을 구현하도록 명령어를 실행시킨다.
컴퓨터-판독 가능한 저장 매체로서, 컴퓨터-판독 가능한 저장 매체는 컴퓨터 명령어를 저장하고, 그리고 명령어가 실행될 때,
손상된 차량의 캡처된 비디오 데이터를 수신하는 단계;
캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 단계;
식별된 손상된 부분에 기초하여 하나 이상의 비디오 이미지를 분류하여 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 단계; 및
미리 설정된 선별 조건에 따라 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계가 구현된다.
컴퓨터-판독 가능한 저장 매체로서, 컴퓨터-판독 가능한 저장 매체는 컴퓨터 명령어를 저장하고, 그리고 명령어가 실행될 때,
손상된 차량의 비디오 녹화를 수행하여 캡처된 비디오 데이터를 획득하는 단계;
캡처된 비디오 데이터를 처리 단말기로 전송하는 단계; 및
비디오 데이터에서 손상된 부분의 실시간 추적을 통해 획득되고 그리고 처리 단말기에 의해 복귀되는 위치 영역을 수신하고, 그리고 추적된 위치 영역을 디스플레이하는 단계가 구현되되, 손상된 부분은 처리 단말기에 의해 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하는 것을 통해 식별된다.
서버는 프로세서 및 프로세서에 의해 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하되, 프로세서는,
단말기 디바이스에 의해 업로드되는 손상된 차량의 캡처된 비디오 데이터를 수신하여, 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 것;
식별된 손상된 부분에 기초하여 하나 이상의 비디오 이미지를 분류하여 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 것; 및
미리 설정된 선별 조건에 따라 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것을 구현하도록 명령어를 실행시킨다.
단말기 디바이스는 프로세서 및 프로세서에 의해 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하되, 프로세서는,
손상된 차량의 비디오 캡처를 통해 캡처된 비디오 데이터를 획득하는 것;
캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 것;
검출된 손상된 부분에 기초하여 하나 이상의 비디오 이미지를 분류하여 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 것; 및
미리 설정된 선별 조건에 따라 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것을 구현하도록 명령어를 실행시킨다.
본 출원에 제공되는 차량 손실 평가 이미지를 획득하기 위한 방법, 장치, 서버 및 단말기 디바이스는 비디오-기반 차량 손실 평가 이미지를 자동으로 생성하는 해결책을 제안한다. 사진사가 단말기 디바이스를 사용함으로써 손상된 차량의 비디오 녹화를 수행할 수도 있고, 그리고 캡처된 비디오 데이터가 시스템의 서버로 전송될 수도 있고, 그리고 이어서 서버가 비디오 데이터를 분석하고, 손상된 부분을 식별하고, 그리고 손상된 부분에 따라, 손실 평가를 위해 필요한 상이한 유형의 후보 이미지를 획득한다. 이어서, 손상된 차량의 손실 평가 이미지가 후보 이미지로부터 생성될 수도 있다. 본 출원의 구현예에 따르면, 손실 평가 처리 필요조건을 충족시키는 고품질 손실 평가 이미지가 자동으로 그리고 신속하게 생성될 수 있어서, 손실 평가 처리 필요조건을 충족시키고, 손실 평가 이미지를 획득하는 효율을 개선시키고, 그리고 또한 보험 회사 오퍼레이터에 의한 손실 평가 이미지의 획득 및 처리의 비용을 감소시킨다.
본 출원의 실시형태에서 또는 기존의 기술에서 기술적 해결책을 더 분명히 설명하기 위해서, 실시형태 또는 기존의 기술을 설명하기 위한 첨부 도면이 아래에 간략히 설명된다. 분명히, 다음의 설명에서 첨부 도면은 단지 본 출원의 일부 실시형태를 나타내고, 그리고 당업자는 여전히 창조적 노력 없이 이 첨부 도면으로부터 다른 도면을 도출할 수도 있다.
도 1은 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 방법의 실시형태의 개략적인 흐름도;
도 2는 본 출원에 따른, 방법을 사용함으로써 구성되는 비디오 이미지에서 손상된 부분을 식별하기 위한 모델의 개략적인 구조도;
도 3은 본 출원에 따른, 방법에서 손상 검출 모델을 사용함으로써 손상된 부분을 식별하는 구현 시나리오의 개략도;
도 4는 본 출원의 실시형태에 따른, 식별된 손상된 부분에 기초하여, 클로즈업된 이미지를 결정하는 개략도;
도 5는 본 출원에 따른, 방법을 사용함으로써 구성되는 비디오 이미지에서 손상된 부품을 식별하기 위한 모델의 개략적인 구조도;
도 6은 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 방법의 처리 시나리오의 개략도;
도 7은 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도;
도 8은 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도;
도 9는 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도;
도 10은 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도;
도 11은 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 장치의 실시형태의 모듈의 개략적인 구조도;
도 12는 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 또 다른 장치의 실시형태의 모듈의 개략적인 구조도; 및
도 13은 본 출원에 따른, 단말기 디바이스의 실시형태의 개략적인 구조도.
도 1은 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 방법의 실시형태의 개략적인 흐름도;
도 2는 본 출원에 따른, 방법을 사용함으로써 구성되는 비디오 이미지에서 손상된 부분을 식별하기 위한 모델의 개략적인 구조도;
도 3은 본 출원에 따른, 방법에서 손상 검출 모델을 사용함으로써 손상된 부분을 식별하는 구현 시나리오의 개략도;
도 4는 본 출원의 실시형태에 따른, 식별된 손상된 부분에 기초하여, 클로즈업된 이미지를 결정하는 개략도;
도 5는 본 출원에 따른, 방법을 사용함으로써 구성되는 비디오 이미지에서 손상된 부품을 식별하기 위한 모델의 개략적인 구조도;
도 6은 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 방법의 처리 시나리오의 개략도;
도 7은 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도;
도 8은 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도;
도 9는 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도;
도 10은 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도;
도 11은 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 장치의 실시형태의 모듈의 개략적인 구조도;
도 12는 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 또 다른 장치의 실시형태의 모듈의 개략적인 구조도; 및
도 13은 본 출원에 따른, 단말기 디바이스의 실시형태의 개략적인 구조도.
당업자가 본 출원의 기술적 해결책을 더 잘 이해하게 하기 위해서, 본 출원의 실시형태의 기술적 해결책은 본 출원의 실시형태의 첨부 도면을 참조하여 아래에 분명히 그리고 완전히 설명된다. 분명히, 설명된 실시형태는 본 출원의 실시형태의 전부가 아닌 단지 일부이다. 창조적 노력 없이 본 출원의 실시형태에 기초하여 당업자가 획득하는 모든 다른 실시형태는 본 출원의 보호 범위 내에 속할 것이다.
도 1은 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 방법의 실시형태의 개략적인 흐름도이다. 본 출원이 다음의 실시형태 또는 첨부 도면에 도시된 방법 작동 단계 또는 장치 구조를 제공하지만, 더 많은 작동 단계 또는 모듈 기구, 또는 일부 작동 단계 또는 모듈 기구의 통합이 가능한, 더 적은 작동 단계 또는 모듈 기구가 종래의 노력에 기초하여 또는 창조적 노력 없이 방법 또는 장치에 포함될 수도 있다. 필연적인 인과 관계가 논리적으로 존재하지 않는 단계 또는 구조에서, 단계의 실행 순서 또는 장치의 모듈 구조는 본 출원의 실시형태 또는 첨부 도면에 도시된 실행 순서 또는 모듈 구조로 제한되지 않는다. 방법 또는 모듈 구조가 현실에서 장치, 서버, 또는 단말기 제품에 적용될 때, 순차적인 실행 또는 병렬 실행은 실시형태 또는 첨부 도면에 도시된 방법 또는 모듈 구조에 따라(예를 들어, 병렬 프로세서 또는 멀티-스레드 처리 환경에서, 그리고 심지어 분산 처리 및 서버 클러스터링을 포함하는 환경에서) 수행될 수도 있다.
명료성을 위해, 다음의 실시형태는 실시형태 시나리오를 예로 들어 설명되고, 실시형태 시나리오에서 사진사가 모바일 단말기를 사용함으로써 비디오 녹화를 수행하고, 그리고 서버가 캡처된 비디오 데이터를 처리하여 하나 이상의 손실 평가 이미지를 획득한다. 사진사는 보험 회사 오퍼레이터일 수도 있고, 그리고 사진사는 모바일 단말기를 쥐고 손상된 차량의 비디오 녹화를 수행한다. 모바일 단말기는 모바일 폰, 태블릿 컴퓨터, 또는 비디오 녹화 기능과 데이터 통신 기능을 가진 임의의 다른 범용 또는 전용 디바이스를 포함할 수도 있다. 대응하는 애플리케이션 모듈(예를 들어, 모바일 단말기에 설치된 차량 손실 평가 애플리케이션(APP))이 모바일 단말기 및 서버에 배치되어, 대응하는 데이터 처리를 구현할 수도 있다. 그러나, 당업자는 해결책의 근본적인 정신이 차량 손실 평가 이미지를 획득하기 위한 다른 실시형태 시나리오에 적용될 수 있다는 것을 이해할 수 있다. 예를 들어, 사진사가 차량 소유주일 수도 있거나, 또는 모바일 단말기를 사용함으로써 수행된 촬영 후에, 비디오 데이터가 바로 처리되고 그리고 손실 평가 이미지가 모바일 단말기에서 획득된다.
실시형태가 도 1에 도시된다. 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 방법의 실시형태에서, 방법은 다음의 단계를 포함할 수도 있다:
S1: 클라이언트가 캡처된 비디오 데이터를 획득하고, 캡처된 비디오 데이터를 서버로 전송하는 단계.
클라이언트는 비디오 녹화 기능과 데이터 통신 기능을 가진 범용 또는 전용 디바이스, 예를 들어, 단말기 디바이스, 예컨대, 모바일 폰 또는 태블릿 컴퓨터를 포함할 수도 있다. 이 실시형태의 또 다른 구현 시나리오에서, 클라이언트는 데이터 통신 기능을 가진 고정된 컴퓨터 디바이스(예컨대, PC 단말기) 및 고정된 컴퓨터 디바이스에 연결된 휴대용 비디오 녹화 디바이스를 더 포함할 수도 있다. 고정된 컴퓨터 디바이스와 휴대용 비디오 녹화 디바이스의 조합은 이 실시형태에서 클라이언트의 단말기 디바이스로서 간주된다. 사진사는 클라이언트를 사용함으로써 캡처된 비디오 데이터를 획득하고, 캡처된 비디오 데이터는 서버로 전송될 수도 있다. 서버는 비디오 데이터 내 이미지의 프레임을 분석 및 처리하고 그리고 손실 평가 이미지를 결정하는 처리 디바이스를 포함할 수도 있다. 서버는 이미지 데이터 처리 및 데이터 통신 기능을 가진 논리부 장치, 예를 들어, 이 실시형태의 적용 시나리오의 서버를 포함할 수도 있다. 데이터 교환의 관점에서, 서버는 제1 단말기 디바이스로서 사용되는 클라이언트와 데이터 통신을 수행하는 제2 단말기 디바이스이다. 따라서, 설명의 용이성을 위해서, 캡처된 비디오 데이터가 차량의 비디오 녹화를 통해 획득되는 단말기는 클라이언트로서 지칭되고, 그리고 손실 평가 이미지가 캡처된 비디오 데이터에서 처리를 통해 생성되는 단말기는 서버로서 지칭된다. 본 출원에서, 일부 실시형태에서, 클라이언트와 서버는, 클라이언트와 서버가 물리적으로 연결되는 동일한 단말기 디바이스라는 것을 배제하지 않는다. 본 출원의 일부 구현예에서, 클라이언트를 사용함으로써 촬영을 통해 획득된 비디오 데이터가 서버로 실시간으로 전송될 수도 있어서, 서버에 의해 수행되는 신속한 처리를 가능하게 한다. 또 다른 구현예에서, 비디오 데이터는 대안적으로, 클라이언트를 사용함으로써 수행된 비디오 녹화가 완료된 후 서버로 전송될 수도 있다. 네트워크 연결이 사진사에 의해 사용될 때 모바일 단말기에서 존재하지 않는다면, 비디오 녹화가 먼저 수행될 수도 있고, 그리고 모바일 단말기가 모바일 셀룰러, 무선 근거리 통신망(wireless local area network: WLAN), 또는 전용 네트워크에 연결된 후 전송될 수도 있다. 분명히, 클라이언트가 서버와 정상적인 데이터 통신을 수행할 수 있을지라도, 클라이언트는 대안적으로 캡처된 비디오 데이터를 서버로 비동기식으로 전송할 수도 있다.
이 실시형태에서, 차량의 손상된 부분을 촬영함으로써 사진사가 획득한 캡처된 비디오 데이터는 비디오 세그먼트, 또는 다수의 비디오 세그먼트, 예를 들어, 상이한 각 및 상이한 거리에서 동일한 손상된 부분에서 수행된 복수 회 촬영을 통해 생성된 캡처된 비디오 데이터의 다수의 세그먼트, 또는 손상된 부분의 촬영을 통해 각각 획득된 상이한 손상된 부분의 캡처된 비디오 데이터를 포함할 수도 있다는 것에 유의해야 한다. 분명히, 일부 구현 시나리오에서, 완전한 촬영이 대안적으로 손상된 차량의 손상된 부분에서 수행될 수도 있어서 비교적 긴 시간을 지속하며 하나의 비디오 세그먼트를 획득한다.
S2: 서버가 캡처된 비디오 데이터에서 비디오 이미지를 검출하여 비디오 이미지에서 손상된 부분을 식별하는 단계.
이 실시형태의 이 구현예에서, 서버는 캡처된 비디오 데이터 내 비디오 이미지에 관한 이미지 검출을 수행할 수도 있고, 그리고 비디오 이미지 내 차량의 손상된 부분을 식별 및 처리할 수도 있다. 일반적으로, 식별된 손상된 부분은 비디오 이미지에서 영역을 차지하고 그리고 대응하는 영역 정보, 예를 들어, 손상된 부분이 위치되는 영역의 위치 및 크기를 갖는다.
비디오 이미지에서 손상된 부분을 검출하는 구현예에서, 비디오 이미지 내 손상된 부분은 구성된 손상 검출 모델을 사용함으로써 식별될 수도 있다. 손상 검출 모델은 심층 신경망(deep neural network)을 사용함으로써 이미지 내 손상된 부분의 영역 및 차량의 손상된 부분을 검출한다. 본 출원의 실시형태에서, 손상 검출 모델은 콘볼루션 신경망(convolutional neural network: CNN) 및 영역 제안 네트워크(region proposal network: RPN)에 기초하여 그리고 통합 계층, 완전히 연결된(FC) 계층 등과 결합하여 구성될 수도 있다.
이 실시형태에서, 비디오 이미지에 포함된 손상된 부분을 식별하기 위해 사용되는 손상 검출 모델은 설계된 기계 학습 알고리즘을 사용함으로써 사전-구성될 수도 있다. 손상 검출 모델이 샘플에 기초하여 훈련된 후, 손상 검출 모델은 비디오 이미지에서 하나 이상의 손상된 부분을 식별할 수 있다. 손상 검출 모델은 심층 신경망의 네트워크 모델 또는 샘플에 기초하여 훈련된 심층 신경망의 변경된 네트워크 모델을 사용함으로써 구성될 수도 있다. 이 실시형태에서, 구성은 FC 계층, 통합 계층, 데이터 정규화 계층 등과 결합하여, CNN 및 RPN에 기초할 수도 있다. 분명히, 또 다른 실시형태에서, 손상된 부분이 분류된다면, 확률 출력 계층(소프트맥스) 등은 손상 검출 모델에 더 추가될 수도 있다. 실시예가 도 2에 도시된다. 도 2는 본 출원에 따른, 방법을 사용함으로써 구성되는 비디오 이미지에서 손상된 부분을 식별하기 위한 모델의 개략적인 구조도이다. 도 3은 본 출원에 따른, 방법에서 손상 검출 모델을 사용함으로써 손상된 부분을 식별하는 구현 시나리오의 개략도이다. 식별된 손상된 부분은 클라이언트에 실시간으로 디스플레이될 수도 있다.
CNN은 일반적으로 주요한 구조로서 콘볼루션 계층을 사용하고 그리고 활성화 계층과 같은 다른 계층을 포함하는 신경망이고, 그리고 주로 이미지 식별을 위해 사용된다. 이 실시형태에서, 심층 신경망은 RPN과 결합하여, 콘볼루션 계층 및 다른 중요한 계층(예컨대, 훈련을 위해 모델에 입력된 샘플 손상 이미지, 데이터 정규화 계층, 및 활성화 계층)을 사용함으로써 생성될 수도 있다. CNN에서, 이미지 처리에서 2차원 별개의 콘볼루션 작동은 일반적으로 인공 신경망과 결합된다. 이 콘볼루션 작동은 자동 특징 추출을 위해 사용될 수도 있다. RPN은 입력(CNN을 사용함으로써 추출된 2차원 특징일 수도 있음)으로서 이미지로부터 추출된 특징(임의의 크기)을 사용할 수도 있고, 그리고 직사각형 타깃 제안 박스의 세트를 출력할 수도 있다. 박스의 각각은 객체 점수를 갖는다.
전술한 구현예에서, 비디오 이미지 내 하나 이상의 손상된 부분은 모델 훈련 동안 식별될 수도 있다. 예를 들어, 샘플에 기초한 훈련 동안, 사진이 입력되고, 그리고 사진의 다수의 영역이 출력될 수도 있다. 하나의 손상된 부분이 있다면, 사진의 하나의 영역이 출력될 수도 있고; k개의 손상된 부분이 있다면, 사진의 k개의 영역이 출력될 수도 있거나; 또는 손상된 부분이 없다면, 0개의 이미지 영역이 출력된다. 신경망의 선택된 매개변수는 표시된 데이터를 사용함으로써 최소-일괄처리 기울기 강하 훈련을 통해 획득될 수도 있다. 예를 들어, 최소-일괄처리가 32와 같을 때, 32개의 훈련 사진은 훈련을 위한 하나의 입력으로서 사용된다.
또 다른 구현예에서, 손상 검출 모델은 CNN 및 RPN, 예컨대, 더 빠른 R-CNN, YOLO, 및 마스크-FCN에 기초한 다수의 모델 및 모델의 변형물일 수도 있다. CNN은 임의의 CNN 모델, 예컨대, ResNet, 인셉션(Inception), VGG, 또는 이들의 변형물을 사용할 수도 있다. 일반적으로, 신경망의 CNN 부분은 객체 인식에서 비교적 우수한 효과를 달성하는, 성숙한 네트워크 구조, 예를 들어, 네트워크, 예컨대, 인셉션 또는 ResNet을 사용할 수도 있다. 예를 들어, ResNet 네트워크에서, 입력은 사진이고, 그리고 출력은 다수의 손상된 영역 및 손상된 영역에 대응하는 신뢰성(본 명세서에서 신뢰성은 식별된 손상된 영역의 진위 정도를 나타내는 매개변수임)이다. 빠른 R-CNN, YOLO, 마스크-FCN 등은 콘볼루션 계층을 포함하고 그리고 이 실시형태에서 사용될 수 있는 모든 심층 신경망이다. 영역 제안 계층 및 CNN 계층과 결합하여, 이 실시형태에서 사용되는 심층 신경망은 비디오 이미지에서 손상된 부분을 검출할 수 있고 그리고 비디오 이미지에서 손상된 부분의 영역을 확인할 수 있다. 본 출원에서, CNN 부분은 객체 인식에서 우수한 효과를 달성하는 성숙한 네트워크 구조를 사용할 수도 있다. ResNet 네트워크에서, 모델의 매개변수는 표시된 데이터를 사용함으로써 최소-일괄처리 기울기 강하 훈련을 통해 획득될 수도 있다.
사진사가 클라이언트를 사용함으로써 비디오 녹화를 수행할 때, 서버에 의해 식별된 손상된 부분의 위치 영역이 클라이언트에 실시간으로 디스플레이될 수도 있어서, 사용자는 손상된 부분을 관찰 및 확인할 수 있다. 손상된 부분을 식별한 후, 서버는 손상된 부분을 자동으로 추적할 수도 있다. 또한, 추적 과정에서, 촬영 거리 및 각이 변경될 때, 비디오 이미지 내 손상된 부분에 대응하는 위치 영역의 크기 및 위치가 또한 이에 대응하여 변경될 수도 있다.
또 다른 구현예에서, 사진사는 비디오 이미지 내 식별된 손상된 부분의 위치 및 크기를 상호적으로 변경할 수도 있다. 예를 들어, 클라이언트는 서버에 의해 검출된 손상된 부분의 위치 영역을 실시간으로 디스플레이한다. 사진사가 서버에 의해 식별된 손상된 부분의 위치 영역이 현장에서 관찰된 손상된 부분을 완전히 포함할 수 없기 때문에 조정을 수행한다고 간주하면, 사진사는 클라이언트에서 손상된 부분의 위치 영역의 위치 및 크기를 조정할 수도 있다. 예를 들어, 손상된 부분의 위치는 위치 영역이 손상된 부분을 길게 누름으로써 선택된 후 위치 영역을 이동시킴으로써 조정되거나, 또는 손상된 부분의 크기는 손상된 부분의 위치 영역의 프레임을 늘림으로써 조정된다. 사진사가 클라이언트에서 손상된 부분의 위치 영역을 조정 및 변경한 후, 손상된 부분의 새로운 정보가 생성될 수도 있고, 그리고 이어서 새로운 손상된 부분의 새로운 정보가 서버로 전송된다.
이 방식으로, 사진사가 현장에서 손상된 부분의 상태에 따라 비디오 이미지 내 손상된 부분의 위치 영역을 편리하게 그리고 유동적으로 조정할 수도 있어서, 손상된 부분을 더 정확하게 찾아서, 서버가 고품질 손실 평가 이미지를 더 정확하게 그리고 신뢰할 수 있게 획득할 수 있다.
서버가 클라이언트에 의해 업로드된 캡처된 비디오 데이터를 수신하고, 캡처된 비디오 데이터에서 비디오 이미지를 검출하여 비디오 이미지에서 손상된 부분을 식별한다.
S3: 서버가 검출된 손상된 부분에 기초하여 비디오 이미지를 분류하여 손상된 부분의 후보 이미지 분류 세트를 결정하는 단계.
차량 손실 평가는 종종 상이한 유형의 이미지 데이터, 예를 들어, 상이한 각에서 전체 차량의 이미지, 손상된 부품을 디스플레이할 수 있는 이미지, 및 손상된 부분의 클로즈업된 상세한 이미지를 요구한다. 본 출원에서, 손실 평가 이미지의 획득 동안, 비디오 이미지는 예를 들어, 비디오 이미지가 손상된 차량의 이미지인지, 차량 부품이 분석된 이미지에 포함되는지, 하나 이상의 차량 부품이 포함되는지, 또는 차량 부품이 손상되는지를 결정하도록 분석될 수도 있다. 본 출원의 이 실시형태의 시나리오에서, 차량 손실 평가를 위해 필요한 손실 평가 이미지는 이에 대응하여 상이한 유형으로 분류될 수도 있고, 그리고 손실 평가 이미지 필요조건을 충족시키지 않는 다른 이미지는 또 다른 유형으로 각각 분류될 수도 있다. 일부 실시형태에서, 캡처된 비디오의 이미지의 각각의 프레임이 추출, 식별, 및 분류되어 손상된 부분의 후보 이미지 분류 세트를 형성할 수도 있다.
본 출원에 따른 방법의 또 다른 실시형태에서, 결정된 후보 이미지 분류 세트는 다음을 포함할 수도 있다:
S301: 손상된 부분을 디스플레이하는 클로즈업된 이미지 세트 및 손상된 부분이 속하는 차량 부품을 디스플레이하는 부품 이미지 세트.
클로즈업된 이미지 세트는 손상된 부분의 하나 이상의 클로즈업된 이미지를 포함한다. 부품 이미지 세트는 손상된 차량의 손상된 부품을 디스플레이하는 하나 이상의 이미지를 포함하고, 그리고 손상된 부품은 적어도 하나의 손상된 부분을 갖는다. 이 실시형태의 적용 시나리오에서, 사진사는 사진사에 의해 수행되는 이동 또는 확대/축소를 통해 손상된 차량의 손상된 부분을 가까이에서부터 멀리(또는 멀리에서부터 가까이) 촬영할 수도 있다. 서버가 캡처된 비디오 내 이미지의 프레임(이미지의 각각의 프레임이 처리될 수도 있거나, 또는 비디오 세그먼트의 이미지의 프레임이 선택 및 처리될 수도 있음)을 식별 및 처리하여, 비디오 이미지의 분류를 결정할 수도 있다. 이 실시형태의 이 적용 시나리오에서, 캡처된 비디오의 비디오 이미지가 다음의 3가지 유형으로 분류될 수도 있고, 그리고 구체적으로 다음을 포함한다:
a: 클로즈업된 이미지: 손상된 부분의 상세한 정보를 분명히 디스플레이할 수 있는 손상된 부분의 클로즈업된 이미지;
b: 손상된 부분을 포함하고 그리고 손상된 부분이 위치되는 차량 부품을 디스플레이할 수 있는, 부품 이미지; 및
c: "a" 유형 또는 "b" 유형에 속하지 않는 이미지.
일부 실시형태에서, a-유형의 이미지의 식별 알고리즘 또는 분류 필요조건 등은 손상된 부분의 클로즈업된 이미지의 필요조건에 따라 결정될 수도 있다. 본 출원에서, a-유형의 이미지의 식별 동안, 구현예에서, a-유형의 이미지는 현재의 비디오 이미지에서 손상된 부분이 차지하는 영역의 크기(면적 또는 영역 범위)에 기초하여 식별될 수도 있다. 손상된 부분이 비디오 이미지에서 비교적 큰 영역을 차지한다면(예를 들어, 영역의 크기가 문턱값보다 더 크고, 예를 들어, 영역의 길이 또는 폭이 비디오 이미지의 길이 또는 폭의 1/4보다 더 큼), 비디오 이미지는 a-유형의 이미지로서 결정될 수도 있다. 본 출원에 제공된 또 다른 구현예에서, 동일한 손상된 부품의 이미지의 분석된 프레임에서, 이미지의 현재의 프레임 내 손상된 부분의 영역의 면적이 손상된 부분을 포함하고 그리고 이미 분석 및 처리되는 이미지의 다른 분석된 프레임에서의 면적보다 더 크다면(특정한 비에서 또는 TOP 범위 내에서), 이미지의 현재의 프레임은 a-유형의 이미지로서 결정될 수도 있다. 따라서, 본 출원에 따른 방법의 또 다른 실시형태에서, 클로즈업된 이미지 세트 내 비디오 이미지는 다음의 방식 중 적어도 하나에서 결정될 수도 있다:
S3011: 손상된 부분을 포함하는 비디오 이미지의 영역에 대한 손상된 부분이 차지하는 영역의 면적비는 제1 미리 설정된 비보다 더 큼;
S3012: 손상된 부분을 포함하는 비디오 이미지의 길이에 대한 손상된 부분의 수평 좌표 범위의 비는 제2 미리 설정된 비보다 더 크고, 그리고/또는 손상된 부분을 포함하는 비디오 이미지의 높이에 대한 손상된 부분의 길이방향 좌표 범위의 비는 제3 미리 설정된 비보다 더 큼;
S3013: 동일한 손상된 부분을 포함하는 비디오 이미지로부터, 비디오 이미지가 비디오 이미지 내 동일한 손상된 부분의 면적의 내림차순으로 분류된 후, 먼저 K개의 비디오 이미지가 선택되거나, 또는 비디오 이미지의 면적에 대한 손상된 부분의 면적의 비가 제4 미리 설정된 비 이내인 하나 이상의 비디오 이미지가 선택되고, K≥1임.
a-유형의 손상의 상세한 이미지에서, 손상된 부분은 일반적으로 비교적 큰 영역 범위를 차지한다. 손상된 부분의 상세한 이미지의 선택이 S3011에서 제1 미리 설정된 비를 설정함으로써 잘 제어되어 처리 필요조건을 충족시키는 a-유형의 이미지를 획득할 수 있다. a-유형의 이미지에서 손상된 부분의 영역의 면적은 손상된 부분의 영역에 포함된 픽셀 포인트의 계수를 통해 획득될 수도 있다.
또 다른 구현예(S3012)에서, 비디오 이미지가 a-유형의 이미지인지가 대안적으로 비디오 이미지에 대한 손상된 부분의 좌표 범위에 따라 결정된다. 예를 들어, 실시예에서, 비디오 이미지는 800*650 픽셀을 갖고, 그리고 손상된 차량은 2개의 비교적 긴 스크래치를 갖고, 스크래치의 각각에 대응하는 수평 좌표 범위는 600 픽셀의 길이이고, 반면에 스크래치의 각각에 대응하는 수직 좌표 범위는 매우 좁다. 따라서, 손상된 부분의 영역의 면적이 손상된 부분이 속하는 비디오 이미지의 면적의 1/10보다 작을지라도, 손상된 부분의 600-픽셀 수평 좌표 범위는 전체 비디오 이미지의 800-픽셀 길이의 3/4을 차지한다. 따라서, 비디오 이미지는 a-유형의 이미지로서 표시될 수도 있다. 도 4에 도시된 바와 같이, 도 4는 본 출원의 실시형태에 따른, 식별된 손상된 부분에 기초하여, 비디오 이미지가 클로즈업된 이미지라고 결정하는 개략도이다.
구현예(S3013)에서, 손상된 부분의 면적은 S3011에서 손상된 부분의 영역의 면적일 수도 있거나, 또는 손상된 부분의 길이 또는 높이의 범위 값일 수도 있다.
분명히, a-유형의 이미지는 대안적으로 전술한 다양한 방식을 결합함으로써 식별될 수도 있다. 예를 들어, 손상된 부분의 영역의 면적은 특정 비로 비디오 이미지를 차지하고 그리고 비는 제4 미리 설정된 비 이내이거나 또는 손상의 영역 면적은 동일한 손상된 영역의 이미지에서 최대이다. 이 실시형태에서, a-유형의 이미지는 일반적으로 손상된 부분의 모든 또는 일부의 상세한 이미지 정보를 포함한다.
위에서 설명되는, 제1 미리 설정된 비, 제2 미리 설정된 비, 제3 미리 설정된 비, 및 제4 미리 설정된 비는 이미지 식별 정밀도, 분류 정밀도, 다른 처리 필요조건 등에 따라 이에 대응하여 설정될 수도 있다. 예를 들어, 제2 미리 설정된 비 또는 제3 미리 설정된 비의 값은 1/4일 수도 있다.
구현예에서, b-유형의 이미지의 식별에서, 비디오 이미지에 포함된 차량 부품(예컨대, 전방 범퍼, 좌측 전방 펜더, 및 우측 후방 문) 및 이들의 위치는 구성된 차량 부품 검출 모델을 사용함으로써 검출될 수도 있다. 손상된 부분이 검출된 손상된 부품에 위치된다면, 비디오 이미지는 b-유형의 이미지로서 결정될 수도 있다. 예를 들어, 비디오 이미지 P1에서, P1 내 검출된 손상된 부품의 부품 영역이 식별된 손상된 부분을 포함한다면(일반적으로, 식별된 부품 영역의 면적은 손상된 부분의 면적보다 더 큼), P1 내 부품 영역은 손상된 부품으로서 간주될 수 있다. 대안적으로, 비디오 이미지 P2에서, P2에서 검출된 손상된 영역과 P2에서 검출된 부품 영역이 중첩된다면, P2에서 부품 영역에 대응하는 차량 부품이 또한 손상된 부품으로서 간주될 수 있고, 그리고 비디오 이미지가 b-유형의 이미지로서 분류된다.
이 실시형태에서, 부품 검출 모델은 심층 신경망을 사용함으로써, 이미지에서 부품 및 부품의 영역을 검출한다. 본 출원의 실시형태에서, 부품 손상 식별 모델은 CNN 및 RPN에 기초하여 그리고 통합 계층, FC 계층 등과 결합하여 구성될 수도 있다. 예를 들어, 부품 인식 모델에 관해서, 다수의 모델 및 모델의 변형물, 예컨대, CNN 및 RPN에 기초한, 더 빠른 R-CNN, YOLO, 및 마스크-FCN이 사용될 수도 있다. CNN은 임의의 CNN 모델, 예컨대, ResNet, 인셉션, VGG, 또는 이들의 변형물을 사용할 수도 있다. 일반적으로, 신경망의 CNN 부분은 객체 인식에서 비교적 우수한 효과를 달성하는, 성숙한 네트워크 구조, 예를 들어, 인셉션 또는 ResNet와 같은 네트워크를 사용할 수도 있다. 예를 들어, ResNet 네트워크에서, 입력은 사진이고, 그리고 출력은 다수의 부품 영역, 대응하는 부품 분류, 및 신뢰성(본 명세서에서 신뢰성은 인식된 차량 부품의 진위 정도를 나타내는 매개변수임)이다. 빠른 R-CNN, YOLO, 마스크-FCN 등은 콘볼루션 계층을 포함하고 그리고 실시형태에서 사용될 수 있는 모든 심층 신경망이다. 영역 제안 계층 및 CNN 계층과 결합하여, 실시형태에서 사용되는 심층 신경망은 처리될 이미지에서 차량 부품을 검출할 수 있고, 그리고 처리될 이미지에서 차량 부품의 부품 영역을 확인할 수 있다. 본 출원에서, CNN 부분은 객체 인식에서 우수한 효과를 달성하는 성숙한 네트워크 구조를 사용할 수도 있다. ResNet 네트워크에서, 모델의 매개변수는 표시된 데이터를 사용함으로써 최소-일괄처리 기울기 강하 훈련을 통해 획득될 수도 있다. 도 5는 본 출원에 따른, 방법을 사용함으로써 구성되는 비디오 이미지에서 손상된 부품을 식별하기 위한 모델의 개략적인 구조도이다.
적용 시나리오에서, 비디오 이미지가 a-유형의 이미지 및 b-유형의 이미지의 논리를 결정하는 것 둘 다를 충족시킨다면, 비디오 이미지는 a-유형의 이미지 및 b-유형의 이미지 둘 다이다.
서버는 캡처된 비디오 데이터로부터 비디오 이미지를 추출할 수도 있고, 검출된 손상된 부분에 기초하여 비디오 이미지를 분류하고, 그리고 손상된 부분의 후보 이미지 분류 세트를 결정한다.
S4: 서버가 미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계.
미리 설정된 선별 조건을 충족시키는 이미지는 손실 평가 이미지 유형, 선명도 등에 따라 후보 이미지 분류 세트로부터 선택될 수도 있다. 미리 설정된 선별 조건은 맞춤화될 수도 있다. 예를 들어, 구현예에서, 가장 높은 선명도를 갖고 그리고 상이한 촬영 각을 가진 다수의(예를 들어, 5개 또는 10개의) 이미지는 이미지 선명도에 따라 식별된 손상된 부분의 손실 평가 이미지로서 a-유형의 이미지 및 b-유형의 이미지로부터 각각 선택될 수도 있다. 이미지 선명도는 손상된 부분 및 검출된 차량 부품이 위치되는 이미지 영역에 기초하여 계산될 수도 있고, 그리고 예를 들어, 공간 도메인-기반 오퍼레이터(예컨대, 가보(Gabor) 오퍼레이터) 또는 주파수 도메인-기반 오퍼레이터(예컨대, 빠른 푸리에 변환)와 같은 방법을 사용함으로써 획득될 수도 있다. a-유형의 이미지에 대해, 일반적으로, 손상된 부분에서 모든 영역이 하나 이상의 이미지의 결합에 의해 디스플레이될 수도 있다는 것이 보장되어야 하며, 이에 의해 종합적인 손상된 영역 정보가 획득될 수 있는 것을 보장한다.
차량 손실 평가 이미지를 획득하기 위한 방법은 비디오-기반 차량 손실 평가 이미지를 자동으로 생성하는 해결책을 제공한다. 사진사는 단말기 디바이스를 사용함으로써 손상된 차량의 비디오 녹화를 수행할 수도 있고, 그리고 캡처된 비디오 데이터는 시스템의 서버로 전송될 수도 있다. 서버는 비디오 데이터를 분석하고, 손상된 부분을 식별하고, 그리고 손상된 부분에 따라 손실 평가를 위해 필요한 후보 이미지의 상이한 유형을 획득한다. 이어서, 손상된 차량의 하나 이상의 손실 평가 이미지가 후보 이미지로부터 생성될 수도 있다. 본 명세서의 실시형태에 따르면, 손실 평가 처리 필요조건을 충족시키는 고품질 손실 평가 이미지가 자동으로 그리고 신속하게 생성될 수 있어서, 손실 평가 이미지를 획득하는 효율을 개선시키고, 그리고 또한 보험 회사 오퍼레이터에 의한 손실 평가 이미지의 획득 및 처리의 비용을 감소시킨다.
본 출원의 방법의 실시형태에서, 클라이언트에서 캡처된 비디오는 서버로 전송되고, 그리고 서버는 비디오에서 손상된 부분의 위치를 실시간으로 손상된 부분에 따라 추적할 수도 있다. 예를 들어, 전술한 실시형태의 시나리오에서, 손상된 차량이 고정된 물체이기 때문에, 모바일 단말기는 사진사가 이동할 때 이동된다. 따라서, 캡처된 비디오에서 이미지의 인접한 프레임 간의 대응 관계가 손상된 부분의 추적을 구현하도록, 광학 흐름-기반 알고리즘으로서 이러한 이미지 알고리즘을 사용함으로써 획득될 수도 있다. 모바일 단말기가 센서, 예컨대, 가속도계 및 자이로스코프를 갖는다면, 사진사의 움직임 방향 및 각이 이 센서의 신호 데이터를 결합함으로써 더 결정될 수도 있어서, 손상된 부분을 더 정밀하게 추적한다. 따라서, 본 출원의 방법의 또 다른 실시형태에서, 비디오 이미지에서 손상된 부분의 식별 후에, 방법은 다음의 단계를 더 포함할 수도 있다:
S200: 서버가 캡처된 비디오 데이터에서 손상된 부분의 위치 영역을 실시간으로 추적하는 단계; 및
손상된 부분이 비디오 이미지 외부에 있은 후 손상된 부분이 비디오 이미지에 재진입한다고 결정할 때, 서버가 손상된 부분의 이미지 특징 데이터에 기초하여 손상된 부분의 위치 영역을 다시 찾고 추적하는 단계.
서버는 손상된 영역의 이미지 특징 데이터, 예를 들어, 크기-불변 특징 변환(scale-invariant feature transform: SIFT) 특징 데이터를 추출할 수도 있다. 손상된 부분이 비디오 이미지 외부에 있은 후 손상된 부분이 비디오 이미지에 재진입한다면, 시스템은 손상된 부분을 찾을 수 있고 그리고 손상된 부분을 계속해서 추적할 수 있다. 예를 들어, 촬영 디바이스가 전원이 꺼진 후 재시작되거나, 또는 촬영된 영역이 손상이 발생하지 않은 영역으로 바뀐 후, 동일한 손상된 부분이 다시 촬영된다.
서버에 의해 식별된 손상된 부분의 위치 영역이 클라이언트에 실시간으로 디스플레이되어, 사용자가 손상된 부분을 관찰 및 확인하는 것을 도울 수도 있다. 클라이언트와 서버는 식별된 손상된 부분을 동시에 디스플레이할 수도 있다. 서버는 식별된 손상된 부분을 자동으로 추적할 수도 있다. 또한, 촬영 거리 및 각이 변경될 때, 비디오 이미지 내 손상된 부분에 대응하는 위치 영역의 크기 및 위치가 또한 이에 대응하여 변경될 수도 있다. 이 방식으로, 서버가 클라이언트에 의해 추적된 손상된 부분을 실시간으로 디스플레이할 수도 있어서, 서버의 오퍼레이터의 관찰 및 사용을 가능하게 한다.
또 다른 구현예에서, 서버에 의해 수행되는 실시간 추적 동안, 서버가 손상된 부분의 추적된 위치 영역을 클라이언트로 전송할 수도 있어서, 클라이언트가 서버와 동기식으로 손상된 부분을 실시간으로 디스플레이할 수도 있어서, 사진사가 서버에 의해 발견되고 추적된 손상된 부분을 관찰하는 것을 돕는다. 따라서, 방법의 또 다른 실시형태에서, 방법은 다음의 단계를 더 포함할 수도 있다:
S210: 클라이언트가 손상된 부분의 위치 영역을 실시간으로 디스플레이하도록 서버가 손상된 부분의 추적된 위치 영역을 클라이언트로 전송하는 단계.
또 다른 구현예에서, 사진사는 비디오 이미지 내 손상된 부분의 위치 및 크기를 상호적으로 변경할 수도 있다. 예를 들어, 클라이언트가 식별된 손상된 부분을 디스플레이할 때, 식별된 손상된 부분의 위치 영역이 손상된 부분을 완전히 포함할 수 없으므로 사진사가 조정을 수행하게 고려된다면, 사진사는 위치 영역의 위치 및 크기를 다시 조정할 수도 있다. 예를 들어, 손상된 부분의 위치는 위치 영역이 손상된 부분을 길게 누름으로써 선택된 후 위치 영역을 이동시킴으로써 조정되거나, 또는 손상된 부분의 크기는 손상된 부분의 위치 영역의 프레임을 늘림으로써 조정된다. 사진사가 클라이언트에서 손상된 부분의 위치 영역을 조정 및 변경한 후, 손상된 부분의 새로운 정보가 생성될 수도 있고, 그리고 이어서 손상된 부분의 새로운 정보가 서버로 전송된다. 또한, 서버는 클라이언트 상의 변경된 정보에 기초하여 손상된 부분의 정보를 동기식으로 업데이트할 수도 있다. 서버는 손상된 부분의 업데이트된 정보에 따라 차후의 비디오 이미지를 식별 및 처리할 수도 있다. 본 출원에 제공된 방법의 또 다른 실시형태에서, 방법은 다음의 단계를 더 포함할 수도 있다:
S220: 클라이언트에 의해 전송된 새로운 손상된 부분의 정보를 수신하는 단계(새로운 손상된 부분은 클라이언트가 수신된 인터랙티브 명령어에 기초하여 손상된 부분의 위치 영역을 변경한 후 재결정되는 손상된 부분을 포함함); 그리고
이에 대응하여, 검출된 손상된 부분에 기초하여 비디오 이미지를 분류하는 것은 새로운 손상된 부분의 정보에 기초하여 비디오 이미지를 분류하는 것을 포함한다.
이 방식으로, 사진사가 현장에서 손상된 부분의 상태에 따라 비디오 이미지 내 손상된 부분의 위치 영역을 편리하게 그리고 유동적으로 조정할 수도 있어서, 손상된 부분을 더 정확하게 찾아서, 서버가 고품질 손실 평가 이미지를 획득한다.
방법의 또 다른 적용 시나리오에서, 손상된 부분의 클로즈업을 촬영할 때, 사진사는 상이한 각에서 손상된 부분을 연속적으로 촬영할 수도 있다. 서버가 손상된 부분의 추적에 따라 이미지의 각각의 프레임의 촬영 각을 계산할 수도 있어서, 손상된 부분의 손실 평가 이미지로서 상이한 각에서의 비디오 이미지의 군을 선택하여, 손실 평가 이미지가 손상의 유형 및 정도를 정확하게 반영할 수 있는 것을 보장한다. 따라서, 본 출원의 방법의 또 다른 실시형태에서, 미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계는 다음의 단계를 포함한다.
S401: 비디오 이미지 내 손상된 부분의 촬영 각 및 비디오 이미지의 선명도에 따라 각각 손상된 부분의 후보 이미지 분류 세트로부터 손상된 부분의 손실 평가 이미지로서 적어도 하나의 비디오 이미지를 선택하는 단계.
예를 들어, 일부 사고 현장에서, 부품 변형이 다른 각에 비해 일부 각에서 뚜렷할 수도 있거나, 또는 손상된 부품이 표면 반사 또는 반사를 갖는다면, 표면 반사 또는 반사는 촬영 각 등의 변경에 따라 변경된다. 본 명세서의 이 실시형태에서, 상이한 각의 이미지가 손실 평가 이미지로서 선택되어, 손실 평가에 관한 이 요인의 간섭을 크게 감소시킨다. 임의로, 클라이언트가 센서, 예컨대, 가속도계 및 자이로스코프를 갖는다면, 촬영 각은 대안적으로 센서의 신호를 사용함으로써 획득될 수도 있거나 또는 계산의 도움으로 획득될 수도 있다.
실시예에서, 다수의 후보 이미지 분류 세트가 생성될 수도 있다. 그러나, 손실 평가 이미지가 선택될 때, 후보 이미지 분류 세트의, 오직 하나 이상의 유형, 예컨대, 전술한 "a" 유형, "b" 유형, 및 "c" 유형이 적용될 수도 있다. 필요한 손실 평가 이미지가 최종적으로 선택될 때, 손실 평가 이미지는 a-유형의 후보 이미지 분류 세트 및 b-유형의 후보 이미지 분류 세트로부터 선택될 수도 있다. a-유형의 이미지 및 b-유형의 이미지에서, 가장 높은 선명도 및 상이한 촬영 각을 가진 다수의 이미지(예를 들어, 동일한 부품의 5개의 이미지가 선택되고, 그리고 동일한 손상된 부분의 10개의 이미지가 선택됨)가 비디오 이미지의 선명도에 따라 손실 평가 이미지로서 각각 선택된다. 이미지 선명도는 손상된 부분 및 검출된 차량 부품이 위치되는 이미지 영역에 기초하여, 예를 들어, 공간 도메인-기반 오퍼레이터(예컨대, 가보 오퍼레이터) 또는 주파수 도메인-기반 오퍼레이터(예컨대, 빠른 푸리에 변환)와 같은 방법을 사용함으로써 계산될 수도 있다. 일반적으로, a-유형의 이미지에 대해, 손상된 부분의 모든 영역이 선택된 이미지 중 적어도 하나에서 나타나는 것이 보장되어야 한다.
본 출원의 방법의 또 다른 구현 시나리오에서, 손상된 차량이 다수의 손상된 부분을 갖고, 그리고 손상된 부분이 서로 가깝다는 것을 검출한다면, 서버는 다수의 손상된 부분을 동시에 추적하고, 그리고 각각의 손상된 부분을 분석 및 처리하여, 대응하는 손실 평가 이미지를 획득할 수도 있다. 서버가 모든 식별된 손상된 부분에서 전술한 처리를 수행하여, 각각의 손상된 부분의 하나 이상의 손실 평가 이미지를 획득하고, 그리고 이어서 모든 생성된 손실 평가 이미지가 전체 손상된 차량의 손실 평가 이미지로서 사용될 수도 있다. 도 6은 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 방법의 처리 시나리오의 개략도이다. 도 6에 도시된 바와 같이, 손상된 부분 A와 손상된 부분 B 간의 거리가 비교적 짧아서, 손상된 부분 A와 손상된 부분 B가 동시에 추적될 수도 있다. 그러나, 손상된 부분 C는 손상된 차량의 다른 편에 위치되고 그리고 캡처된 비디오에서 손상된 부분 A 및 손상된 부분 B로부터 멀다. 따라서, 손상된 부분 A 및 손상된 부분 B와 함께 손상된 부분 C를 추적하는 대신, 손상된 부분 C는 손상된 부분 A와 손상된 부분 B가 촬영된 후 단독으로 촬영될 수도 있다. 이에 따라, 본 출원의 방법의 또 다른 실시형태에서, 비디오 이미지에 적어도 2개의 손상된 부분이 있다고 결정하는 것에 응답하여, 적어도 2개의 손상된 부분 간의 거리가 설정된 근접 조건을 충족시키는지가 결정되고; 그리고
적어도 2개의 손상된 부분 간의 거리가 설정된 근접 조건을 충족시키는지를 결정하는 것에 응답하여, 적어도 2개의 손상된 부분을 동시에 추적하고, 그리고 대응하는 손실 평가 이미지를 각각 생성한다.
근접 조건은 동일한 비디오 이미지에서 손상된 부분의 양, 손상된 부분의 크기, 손상된 부분 간의 거리 등에 따라 설정될 수도 있다.
손상된 부분의 클로즈업된 이미지 세트 및 부품 이미지 세트 중 적어도 하나가 비어있거나, 또는 클로즈업된 이미지 세트 내 비디오 이미지가 대응하는 손상된 부분의 전체 영역을 포함하지 않는다고 결정한다면, 서버는 비디오 녹화 프롬프트 메시지를 생성할 수도 있고, 그리고 이어서 비디오 녹화 프롬프트 메시지를 캡처된 비디오 데이터에 대응하는 클라이언트로 전송할 수도 있다.
예를 들어, 전술한 예시적인 구현 시나리오에서, 서버가 손상된 부분이 위치되는 차량 부품을 결정하도록 사용될 수 있는 b-유형의 손실 평가 이미지를 획득할 수 없다면, 서버가 비디오 녹화 프롬프트 메시지를 사진사의 클라이언트로 복귀시킬 수도 있어서, 사진사가 손상된 부분을 포함하는 다수의 인접한 차량 부품을 촬영하게 하여, 하나 이상의 b-유형의 손실 평가 이미지를 획득하는 것이 보장된다. 서버가 a-유형의 손실 평가 이미지를 획득할 수 없거나, 또는 모든 a-유형의 이미지가, 단독으로 또는 결합하여, 손상된 부분의 전체 영역을 포함할 수 없다면, 서버가 비디오 녹화 프롬프트 메시지를 사진사에게 복귀시킬 수도 있어서, 사진사가 손상된 부분의 클로즈업을 촬영하게 하여 손상된 부분의 전체 영역을 포함한다.
본 출원의 방법의 또 다른 실시형태에서, 서버가 캡처된 비디오 이미지의 선명도가 불충분하다고 검출한다면(선명도가 미리 설정된 문턱값보다 더 낮거나 또는 최근에 녹화된 비디오 세그먼트의 평균 선명도보다 더 낮음), 서버는 사진사가 느리게 이동하게 할 수도 있어서, 캡처된 이미지의 품질을 보장한다. 예를 들어, 비디오 녹화 프롬프트 메시지가 모바일 단말기 APP으로 복귀되어, 사용자가 선명도에 영향을 주는 초점 조정 및 조도와 같은 촬영의 이러한 요인에 유의하게 한다. 예를 들어, 프롬프트 정보("너무 빠릅니다. 이미지 품질을 보장하기 위해서 느리게 이동해주세요.")가 디스플레이된다.
임의로, 서버는 차후의 보기, 인증 등을 위한 손실 평가 이미지를 생성하기 위해 사용되는 비디오 세그먼트를 유지할 수도 있다. 대안적으로, 클라이언트는 비디오 이미지가 캡처된 후 손실 평가 이미지를 여러 묶음으로 서버로 업로드 또는 복사할 수도 있다.
전술한 실시형태에서 차량 손실 평가 이미지를 획득하기 위한 방법은 비디오-기반 차량 손실 평가 이미지를 자동으로 생성하는 해결책을 제공한다. 사진사는 단말기 디바이스를 사용함으로써 손상된 차량에서 비디오 녹화를 수행할 수도 있고, 그리고 캡처된 비디오 데이터는 서버로 전송될 수도 있고, 그리고 서버는 비디오 데이터를 분석하고, 손상된 부분을 식별하고, 그리고 손상된 부분에 따라, 손실 평가를 위해 필요한 상이한 유형의 후보 이미지를 획득한다. 이어서, 손상된 차량의 하나 이상의 손실 평가 이미지가 후보 이미지로부터 생성될 수도 있다. 본 명세서의 실시형태에 따르면, 손실 평가 처리 필요조건을 충족시키는 고품질 손실 평가 이미지가 자동으로 그리고 신속하게 생성될 수 있어서, 손실 평가 이미지를 획득하는 효율을 개선시키고, 그리고 또한 보험 회사 오퍼레이터에 의한 손실 평가 이미지의 획득 및 처리의 비용을 감소시킨다.
전술한 실시형태에서, 본 출원에서 손상된 차량의 녹화된 비디오 데이터를 사용함으로써 손실 평가 이미지를 자동으로 획득하는 구현예가 클라이언트가 서버와 상호작용하는 구현 시나리오에서 설명된다. 전술한 설명에 기초하여, 본 출원은 서버에 적용 가능할 수 있는 차량 손실 평가 이미지를 획득하기 위한 방법을 제공한다. 도 7은 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도이다. 도 7에 도시된 바와 같이, 방법은 다음의 단계를 포함할 수도 있다:
S10: 단말기 디바이스에 의해 업로드되는 손상된 차량의 캡처된 비디오 데이터를 수신하여, 캡처된 비디오 데이터에서 비디오 이미지를 검출하여 비디오 이미지에서 손상된 부분을 식별하는 단계.
S11: 검출된 손상된 부분에 기초하여 비디오 이미지를 분류하여 손상된 부분의 후보 이미지 분류 세트를 결정하는 단계.
S12: 미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계.
단말기 디바이스는 전술한 실시형태에서 설명된 클라이언트일 수도 있고, 그리고 본 출원의 다른 단말기 디바이스, 예를 들어, 데이터베이스 시스템, 제3자 서버, 또는 플래시 메모리일 수도 있다. 이 실시형태에서, 손상된 차량의 촬영을 통해 획득되고 그리고 클라이언트에 의해 업로드 또는 복사되는 캡처된 비디오 데이터를 수신한 후, 서버가 캡처된 비디오 데이터를 검출할 수도 있어서 손상된 부분을 식별하고, 그리고 이어서 식별된 손상된 부분에 따라 비디오 이미지를 분류한다. 게다가, 차량 손실 평가 이미지는 선별을 통해 자동으로 생성된다. 본 출원의 구현예에 따르면, 손실 평가 처리 필요조건을 충족시키는 고품질 손실 평가 이미지가 자동으로 그리고 신속하게 생성될 수 있어서, 손실 평가 이미지를 획득하는 효율을 개선시키고, 그리고 또한 보험 회사 오퍼레이터에 의한 손실 평가 이미지의 획득 및 처리의 비용을 감소시킨다.
차량 손실 평가는 종종 상이한 유형의 이미지 데이터, 예를 들어, 상이한 각에서 전체 차량의 이미지, 손상된 부품을 디스플레이할 수 있는 이미지, 및 손상된 부분의 클로즈업된 상세한 이미지를 요구한다. 본 출원의 실시형태에서, 필요한 손실 평가 이미지는 이에 대응하여 상이한 유형으로 분류될 수도 있다. 방법의 또 다른 실시형태에서, 결정된 후보 이미지 분류 세트는,
손상된 부분을 디스플레이하는 클로즈업된 이미지 세트 및 손상된 부분이 속하는 차량 부품을 디스플레이하는 부품 이미지 세트를 포함할 수도 있다.
일반적으로, 후보 이미지 분류 세트 내 비디오 이미지, 예를 들어, 전술한 a-유형의 클로즈업된 이미지, b-유형의 부품 이미지, 및 "a" 유형 또는 "b" 유형에 속하지 않는 c-유형의 이미지는 적어도 하나의 손상된 부분을 포함한다.
차량 손실 평가 이미지를 획득하기 위한 방법의 또 다른 실시형태에서, 클로즈업된 이미지 세트 내 비디오 이미지는 다음의 방식 중 적어도 하나에서 결정될 수도 있다:
손상된 부분을 포함하는 비디오 이미지의 영역에 대한 손상된 부분이 차지하는 영역의 면적비는 제1 미리 설정된 비보다 더 큼;
손상된 부분을 포함하는 비디오 이미지의 길이에 대한 손상된 부분의 수평 좌표 범위의 비는 제2 미리 설정된 비보다 더 크고, 그리고/또는 손상된 부분을 포함하는 비디오 이미지의 높이에 대한 손상된 부분의 길이방향 좌표 범위의 비는 제3 미리 설정된 비보다 더 큼; 그리고
동일한 손상된 부분을 포함하는 비디오 이미지로부터, 비디오 이미지가 비디오 이미지 내 동일한 손상된 부분의 면적의 내림차순으로 분류된 후, 먼저 K개의 비디오 이미지가 선택되거나, 또는 비디오 이미지의 면적에 대한 손상된 부분의 면적의 비가 제4 미리 설정된 비 이내인 하나 이상의 비디오 이미지가 선택되고, K≥1임.
일부 실시형태에서, a-유형의 이미지의 식별 알고리즘 또는 분류 필요조건 등은 손실 평가 처리를 위한 손상된 부분의 클로즈업된 이미지의 필요조건에 따라 결정될 수도 있다. 본 출원에서, a-유형의 이미지의 식별 동안, 구현예에서, a-유형의 이미지는 현재의 비디오 이미지에서 손상된 부분이 차지하는 영역의 크기(면적 또는 영역 범위)에 기초하여 식별될 수도 있다. 손상된 부분이 비디오 이미지에서 비교적 큰 영역을 차지한다면(예를 들어, 영역의 크기가 문턱값보다 더 크고, 예를 들어, 영역의 길이 또는 폭이 비디오 이미지의 길이 또는 폭의 1/4보다 더 큼), 비디오 이미지는 a-유형의 이미지로서 결정될 수도 있다. 본 출원에 제공된 또 다른 구현예에서, 동일한 손상된 부품의 이미지의 분석된 프레임에서, 이미지의 현재의 프레임 내 손상된 부분의 영역의 면적이 손상된 부분을 포함하고 그리고 이미 분석 및 처리되는 이미지의 다른 분석된 프레임에서의 면적보다 더 크다면(특정한 비에서 또는 TOP 범위 내에서), 이미지의 현재의 프레임은 a-유형의 이미지로서 결정될 수도 있다.
차량 손실 평가 이미지를 획득하기 위한 방법의 또 다른 실시형태에서, 방법은 다음의 단계를 포함할 수도 있다:
손상된 부분의 클로즈업된 이미지 세트 및 부품 이미지 세트 중 적어도 하나가 비어있거나, 또는 클로즈업된 이미지 세트 내 비디오 이미지가 손상된 부분의 전체 영역을 포함하지 않는다고 검출된다면, 비디오 녹화 프롬프트 메시지를 생성하는 단계; 및
비디오 녹화 프롬프트 메시지를 단말기 디바이스로 전송하는 단계.
단말기 디바이스는 서버와 상호작용하는, 전술한 클라이언트, 예를 들어, 모바일 폰일 수도 있다.
차량 손실 평가 이미지를 획득하기 위한 방법의 또 다른 실시형태에서, 방법은 다음의 단계를 더 포함할 수도 있다:
캡처된 비디오 데이터에서 손상된 부분의 위치 영역을 실시간으로 추적하는 단계; 및
손상된 부분이 비디오 이미지 외부에 있은 후 손상된 부분이 비디오 이미지에 재진입할 때, 손상된 부분의 이미지 특징 데이터에 기초하여 손상된 부분의 위치 영역을 다시 찾고 추적하는 단계.
다시 발견되고 추적되는 손상된 부분의 위치 영역은 서버에 디스플레이될 수도 있다.
차량 손실 평가 이미지를 획득하기 위한 방법의 또 다른 실시형태에서, 방법은 다음의 단계를 더 포함할 수도 있다:
단말기 디바이스가 손상된 부분의 위치 영역을 실시간으로 디스플레이하도록 손상된 부분의 추적된 위치 영역을 단말기 디바이스로 전송하는 단계.
사진사가 식별된 손상된 부분을 클라이언트에 실시간으로 디스플레이하여, 사용자가 손상된 부분을 관찰 및 확인하는 것을 도울 수도 있다. 이 방식으로, 사진사가 현장에서 손상된 부분의 상태에 따라 비디오 이미지 내 손상된 부분의 위치 영역을 편리하게 그리고 유동적으로 조정할 수도 있어서, 손상된 부분을 더 정확하게 찾아서, 서버가 고품질 손실 평가 이미지를 획득한다.
또 다른 구현예에서, 사진사는 비디오 이미지에서 손상된 부분의 위치 및 크기를 상호적으로 변경할 수도 있다. 사진사가 클라이언트에서 식별된 손상된 부분의 위치 영역을 조정 및 변경한 후, 손상된 부분의 새로운 정보가 생성될 수도 있고, 그리고 이어서 손상된 부분의 새로운 정보가 서버로 전송된다. 또한, 서버는 클라이언트에서 변경된 새로운 손상된 부분을 동기식으로 업데이트할 수도 있다. 서버는 새로운 손상된 부분에 따라 차후의 비디오 이미지를 식별 및 처리할 수도 있다. 따라서, 차량 손실 평가 이미지를 획득하기 위한 방법의 또 다른 실시형태에서, 방법은 다음의 단계를 더 포함할 수도 있다:
단말기 디바이스에 의해 전송된 새로운 손상된 부분의 정보를 수신하는 단계(새로운 손상된 부분은 단말기 디바이스가 수신된 인터랙티브 명령어에 기초하여 식별된 손상된 부분의 위치 영역을 변경한 후 재결정되는 손상된 부분을 포함함); 그리고
이에 대응하여, 검출된 손상된 부분에 기초하여 비디오 이미지를 분류하는 것은 새로운 손상된 부분의 정보에 기초하여 비디오 이미지를 분류하는 것을 포함한다.
이 방식으로, 사진사가 현장에서 손상된 부분의 상태에 따라 비디오 이미지 내 손상된 부분의 위치 영역을 편리하게 그리고 유동적으로 조정할 수도 있어서, 손상된 부분을 더 정확하게 찾아서, 서버가 고품질 손실 평가 이미지를 획득한다.
손상된 부분의 클로즈업을 촬영할 때, 사진사는 상이한 각에서 손상된 부분을 연속적으로 촬영할 수도 있다. 서버가 손상된 부분의 추적에 따라 이미지의 각각의 프레임의 촬영 각을 계산할 수도 있어서 손상된 부분의 손실 평가 이미지로서 상이한 각의 비디오 이미지의 군을 선택하여, 손실 평가 이미지가 손상의 유형 및 정도를 정확하게 반영할 수 있는 것이 보장된다. 따라서, 차량 손실 평가 이미지를 획득하기 위한 방법의 또 다른 실시형태에서, 미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것은,
비디오 이미지 내 손상된 부분의 촬영 각 및 비디오 이미지의 선명도에 따라 각각 손상된 부분의 후보 이미지 분류 세트로부터 손상된 부분의 손실 평가 이미지로서 적어도 하나의 비디오 이미지를 선택하는 것을 포함한다.
손상된 차량이 다수의 손상된 부분을 갖고, 그리고 손상된 부분이 서로 가깝다는 것을 식별한다면, 서버가 다수의 손상된 부분을 동시에 추적하여, 각각의 손상된 부분의 손실 평가 이미지를 생성할 수도 있다. 서버가 사진사에 의해 명시된 모든 손상된 부분에서 전술한 처리를 수행하여, 각각의 손상된 부분의 손실 평가 이미지를 획득하고, 그리고 이어서 모든 생성된 손실 평가 이미지가 전체 손상된 차량의 손실 평가 이미지로서 사용될 수도 있다. 따라서, 차량 손실 평가 이미지를 획득하기 위한 방법의 또 다른 실시형태에서, 비디오 이미지에 적어도 2개의 손상된 부분이 있다고 검출된다면, 적어도 2개의 손상된 부분 간의 거리가 명시된 근접 조건을 충족시키는지가 결정되고; 그리고
만약 그러하다면, 적어도 2개의 손상된 부분이 동시에 추적되고, 그리고 대응하는 손실 평가 이미지가 각각 생성된다.
근접 조건은 동일한 비디오 이미지에서 손상된 부분의 양, 손상된 부분의 크기, 손상된 부분 간의 거리 등에 따라 설정될 수도 있다.
클라이언트가 서버와 상호작용하는 구현 시나리오에서 설명되는, 손상된 차량의 캡처된 비디오 데이터를 사용함으로써 손실 평가 이미지를 자동으로 획득하는 구현예에 기초하여, 본 출원은 클라이언트에게 적용 가능할 수 있는 차량 손실 평가 이미지를 획득하기 위한 방법을 더 제공한다. 도 8은 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도이다. 도 8에 도시된 바와 같이, 방법은 다음의 단계를 포함할 수도 있다:
S20: 손상된 차량의 비디오 녹화를 수행하여 비디오 데이터를 획득하는 단계.
S21: 캡처된 비디오 데이터를 처리 단말기로 전송하는 단계.
S22: 손상된 부분의 실시간 추적을 통해 획득되고 그리고 처리 단말기에 의해 복귀되는 위치 영역을 수신하고, 그리고 추적된 위치 영역을 디스플레이하는 단계(손상된 부분은 처리 단말기에 의해 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하는 것을 통해 식별됨).
처리 단말기는 캡처된 비디오 데이터를 처리하고 그리고 식별된 손상된 부분에 기초하여 손상된 차량의 손실 평가 이미지를 자동으로 생성하는 단말기 디바이스를 포함한다. 예를 들어, 처리 단말기는 손실 평가 이미지 처리를 수행하기 위한 원격 서버일 수도 있다.
또 다른 실시형태에서, 결정된 후보 이미지 분류 세트는 대안적으로, 손상된 부분을 디스플레이하는 클로즈업된 이미지 세트 및 손상된 부분이 속하는 차량 부품을 디스플레이하는 부품 이미지 세트, 예를 들어, 전술한 a-유형의 이미지 및 b-유형의 이미지를 포함할 수도 있다. 서버가 손상된 부분이 위치되는 차량 부품을 결정하도록 사용될 수 있는 b-유형의 손실 평가 이미지를 획득할 수 없다면, 서버가 비디오 녹화 프롬프트 메시지를 사진사의 클라이언트로 복귀시킬 수도 있어서, 사진사가 손상된 부분을 포함하는 다수의 인접한 차량 부품을 촬영하게 하여, 하나 이상의 b-유형의 손실 평가 이미지를 획득하는 것이 보장된다. 시스템이 a-유형의 손실 평가 이미지를 획득할 수 없거나, 또는 모든 a-유형의 이미지가, 단독으로 또는 결합하여, 전체 손상된 부분을 포함할 수 없다면, 시스템이 또한 비디오 녹화 프롬프트 메시지를 사진사에게 전송할 수도 있어서, 사진사가 손상된 부분의 클로즈업된 이미지를 촬영하게 하여 전체 손상된 부분을 포함한다. 따라서, 또 다른 실시형태에서, 방법은 다음의 단계를 포함할 수도 있다:
S23: 처리 단말기에 의해 전송된 비디오 녹화 프롬프트 메시지를 수신 및 디스플레이하는 단계(비디오 녹화 프롬프트 메시지는, 처리 단말기가 손상된 부분의 클로즈업된 이미지 세트 및 부품 이미지 세트 중 적어도 하나가 비어있다고 검출할 때, 또는 클로즈업된 이미지 세트 내 하나 이상의 비디오 이미지가 손상된 부분의 전체 영역을 포함하지 않을 때, 생성됨).
위에서 설명된 바와 같이, 또 다른 구현예에서, 클라이언트는 서버에 의해 추적되는 손상된 부분의 위치 영역을 실시간으로 디스플레이할 수도 있고, 그리고 위치 영역의 위치 및 크기는 클라이언트에서 상호적으로 변경될 수도 있다. 따라서, 방법의 또 다른 실시형태에서, 방법은 다음의 단계를 더 포함할 수도 있다:
S24: 수신된 인터랙티브 명령어에 기초하여 손상된 부분의 위치 영역을 변경한 후 새로운 손상된 부분을 재결정하는 단계; 및
처리 단말기가 손상된 부분의 새로운 정보에 기초하여 비디오 데이터에서 비디오 이미지를 분류하도록 새로운 손상된 부분의 정보를 처리 단말기로 전송하는 단계.
전술한 실시형태에 제공된 차량 손실 평가 이미지를 획득하기 위한 방법에 따르면, 사진사가 단말기 디바이스를 사용함으로써 손상된 차량의 비디오 녹화를 수행할 수도 있고, 그리고 캡처된 비디오 데이터가 시스템의 서버로 전송될 수도 있고, 그리고 이어서 서버가 비디오 데이터를 분석하고, 손상된 부분을 식별하고, 그리고 손상된 부분에 따라, 손실 평가를 위해 필요한 상이한 유형의 후보 이미지를 획득한다. 이어서, 손상된 차량의 손실 평가 이미지가 후보 이미지로부터 생성될 수도 있다. 본 출원의 구현예에 따르면, 손실 평가 처리 필요조건을 충족시키는 고품질 손실 평가 이미지가 자동으로 그리고 신속하게 생성될 수 있어서, 손실 평가 이미지를 획득하는 효율을 개선시키고, 그리고 또한 보험 회사 오퍼레이터에 의한 손실 평가 이미지의 획득 및 처리의 비용을 감소시킨다.
전술한 실시형태에서, 본 출원에서 손상된 차량의 캡처된 비디오 데이터를 사용함으로써 손실 평가 이미지를 자동으로 획득하는 구현예는 클라이언트가 서버와 상호작용하는 관점, 클라이언트의 관점, 및 서버의 관점으로부터 각각 구현 시나리오에서 설명된다. 본 출원의 또 다른 구현예에서, 차량 비디오가 클라이언트에서 촬영될 때(촬영된 후), 사진사가 클라이언트에서 캡처된 비디오를 바로 분석 및 처리하여, 손실 평가 이미지를 생성할 수도 있다. 구체적으로, 도 9는 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도이다. 도 9에 도시된 바와 같이, 방법은 다음의 단계를 포함한다:
S30: 손상된 차량의 캡처된 비디오 데이터를 수신하는 단계.
S31: 캡처된 비디오 데이터에서 비디오 이미지를 검출하여 비디오 이미지에서 손상된 부분을 식별하는 단계.
S32: 검출된 손상된 부분에 기초하여 비디오 이미지를 분류하여 손상된 부분의 후보 이미지 분류 세트를 결정하는 단계.
S33: 미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계.
구현예에서, 단말기 디바이스는 클라이언트에 배치된 애플리케이션 모듈을 포함할 수도 있다. 일반적으로, 단말기 디바이스는 비디오 녹화 기능 및 이미지 처리 능력을 가진 범용 또는 전용 디바이스, 예를 들어, 클라이언트, 예컨대, 모바일 폰 또는 태블릿 컴퓨터일 수도 있다. 사진사가 클라이언트를 사용함으로써 손상된 차량의 비디오 녹화를 수행할 수도 있고, 그리고 클라이언트가 캡처된 비디오 데이터를 분석하고 그리고 손상된 부분을 식별하여, 손실 평가 이미지를 생성한다.
임의로, 서버가 더 포함될 수도 있다. 서버는 클라이언트에 의해 생성된 손실 평가 이미지를 수신하도록 구성된다. 클라이언트는 생성된 손실 평가 이미지를 서버로 실시간으로 또는 비동기식으로 전송할 수도 있다. 따라서, 방법의 또 다른 실시형태에서, 방법은 다음의 단계를 더 포함할 수도 있다:
S3301: 손실 평가 이미지를 서버로 실시간으로 전송하는 단계; 또는
S3302: 손실 평가 이미지를 서버로 비동기식으로 전송하는 단계.
도 10은 본 출원에 따른, 방법의 또 다른 실시형태의 개략적인 흐름도이다. 도 10에 도시된 바와 같이, 클라이언트는 생성된 손실 평가 이미지를 원격 서버로 바로 업로드할 수도 있거나, 또는 손실 평가 이미지를 여러 묶음으로 원격 서버로 나중에 업로드 또는 복사할 수도 있다. 전술한 실시형태의 설명에 기초하여, 예를 들어, 서버는 손실 평가 이미지를 자동으로 생성하고, 손상된 부분을 찾고 추적하고, 클라이언트에서 손실 평가 이미지를 자동으로 생성하기 위한 방법은 다른 구현예를 더 포함할 수도 있다. 예를 들어, 비디오 녹화 프롬프트 메시지는 생성된 후 촬영 단말기에 바로 디스플레이된다. 다른 실시형태는 손실 평가 이미지 유형 분류 및 식별, 분류 방식, 및 손상된 부분 식별, 위치설정 및 추적을 설명한다. 관련된 실시형태의 설명은 상세사항을 위해 참조될 수도 있고, 이는 본 명세서에서 반복되지 않는다.
본 출원에 제공된 차량 손실 평가 이미지를 획득하기 위한 방법에 따르면, 클라이언트는 손상된 차량의 캡처된 비디오에 기초하여 손실 평가 이미지를 자동으로 생성할 수도 있다. 사진사가 클라이언트를 사용함으로써 손상된 차량의 비디오 녹화를 수행하여, 비디오 데이터를 캡처할 수도 있고; 그리고 이어서 클라이언트가 캡처된 비디오 데이터를 분석하고 그리고 손상된 부분을 식별하여, 손실 평가를 위해 필요한 상이한 유형의 후보 이미지를 획득한다. 게다가, 손상된 차량의 손실 평가 이미지는 후보 이미지로부터 생성될 수도 있다. 본 출원의 구현예에 따르면, 비디오 녹화가 클라이언트에서 바로 수행될 수 있고, 그리고 손실 평가 처리 필요조건을 충족시키는 고품질 손실 평가 이미지가 자동으로 그리고 신속하게 생성될 수 있어서, 손실 평가 이미지를 획득하는 효율을 개선시키고, 그리고 또한 보험 회사 오퍼레이터에 의한 손실 평가 이미지의 획득 및 처리의 비용을 감소시킨다.
차량 손실 평가 이미지를 획득하기 위한 전술한 방법에 기초하여, 본 출원은 차량 손실 평가 이미지를 획득하기 위한 장치를 더 제공한다. 장치는 필요한 구현 하드웨어와 결합하여 본 출원의 방법에서 시스템(분산 시스템을 포함함), 소프트웨어(애플리케이션), 모듈, 부품, 서버, 클라이언트 등을 사용하는 장치를 포함할 수도 있다. 동일한 혁신적인 개념에 기초하여, 본 출원에 제공되는 장치는 다음의 실시형태에서 설명된다. 방법의 구현예와 장치의 구현예는 유사하다. 따라서, 본 출원에서 장치의 구현예에 대해, 전술한 방법의 구현예를 참조하고, 그리고 반복되어 설명되지 않는다. 다음의 용어 "기구" 또는 "모듈"은 미리 결정된 기능을 가진 소프트웨어 및/또는 하드웨어의 조합을 나타낼 수도 있다. 다음의 실시형태에서 설명된 장치가 소프트웨어를 사용함으로써 구현되지만, 하드웨어 또는 소프트웨어와 하드웨어의 조합을 사용함으로써 구현되는 장치의 실시형태가 또한 가능하고 고려된다. 도 11은 본 출원에 따른, 차량 손실 평가 이미지를 획득하기 위한 장치의 실시형태의 모듈의 개략적인 구조도이다. 도 11에 도시된 바와 같이, 장치는,
단말기 디바이스가 업로드하는 손상된 차량의 캡처된 비디오 데이터를 수신하도록 구성된 데이터 수신 모듈(101);
캡처된 비디오 데이터에서 비디오 이미지를 검출하여 비디오 이미지에서 손상된 부분을 식별하도록 구성된 손상된 부분 식별 모듈(102);
검출된 손상된 부분에 기초하여 비디오 이미지를 분류하고, 그리고 손상된 부분의 후보 이미지 분류 세트를 결정하도록 구성된 분류 모듈(103); 및
미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하도록 구성된 선별 모듈(104)을 포함할 수도 있다.
전술한 장치가 서버에 적용 가능하여, 클라이언트가 업로드한 캡처된 비디오 데이터의 분석 및 처리를 구현하여 손실 평가 이미지를 획득할 수도 있다. 본 출원은 클라이언트에 적용 가능할 수 있는 차량 손실 평가 이미지를 획득하기 위한 장치를 더 제공한다. 도 12는 본 출원에 따른, 장치의 또 다른 실시형태의 모듈의 개략적인 구조도이다. 일부 실시형태에서, 장치는,
손상된 차량의 비디오 녹화를 수행하여 비디오 데이터를 획득하도록 구성된 촬영 모듈(201);
캡처된 비디오 데이터를 처리 단말기로 전송하도록 구성된 통신 모듈(202); 및
손상된 부분의 실시간 추적을 통해 획득되고 그리고 처리 단말기에 의해 복귀되는 위치 영역을 수신하고, 그리고 추적된 위치 영역을 디스플레이하도록 구성된 추적 및 디스플레이 모듈(203)(손상된 부분은 처리 단말기에 의해 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지의 검출을 통해 식별됨)을 포함할 수도 있다.
구현예에서, 추적 및 디스플레이 모듈(203)은 디스플레이 스크린을 포함하는 디스플레이 기구일 수도 있다. 사진사는 손상된 부분을 디스플레이 스크린에 나타낼 수도 있고, 그리고 또한 손상된 부분의 추적된 위치 영역을 디스플레이 스크린에 디스플레이할 수도 있다.
본 출원에 제공된 차량 손실 평가 이미지를 획득하기 위한 방법은 컴퓨터에서 프로세서가 실행시키는 대응하는 프로그램 명령어에 의해 구현될 수도 있다. 본 출원에 제공된 차량 손실 평가 이미지 장치를 획득하기 위한 장치는 프로세서 및 프로세서에 의해 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함할 수도 있고, 그리고 프로세서는,
손상된 차량의 캡처된 비디오 데이터를 수신하는 것;
캡처된 비디오 데이터에서 비디오 이미지를 검출하여 비디오 이미지에서 손상된 부분을 식별하는 것;
검출된 손상된 부분에 기초하여 비디오 이미지를 분류하여 손상된 부분의 후보 이미지 분류 세트를 결정하는 것; 및
미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것을 구현하도록 명령어를 실행시킨다.
장치는 서버일 수도 있다. 서버는 클라이언트가 업로드한 캡처된 비디오 데이터를 수신하고, 그리고 이어서 손상된 부분 식별, 유형 분류, 이미지 선택 등을 포함하는, 분석 및 처리를 수행하여, 차량 손실 평가 이미지를 획득한다. 또 다른 구현예에서, 장치는 대안적으로 클라이언트일 수도 있다. 손상된 차량의 비디오 녹화를 수행한 후, 클라이언트는 바로 분석 및 처리를 수행하여 차량 손실 평가 이미지를 획득한다. 따라서, 본 출원의 장치의 또 다른 실시형태에서, 손상된 차량의 캡처된 비디오 데이터는,
단말기 디바이스가 캡처된 비디오 데이터를 획득한 후 단말기 디바이스가 업로드한 데이터 정보; 또는
차량 손실 평가 이미지를 획득하기 위한 장치에 의한 손상된 차량의 비디오 녹화를 통해 획득된 캡처된 비디오 데이터를 포함할 수도 있다.
게다가, 장치가 캡처된 비디오 데이터를 획득하고 그리고 분석 및 처리를 바로 수행하여 손실 평가 이미지를 획득하는 구현 시나리오에서, 장치는 획득된 손실 평가 이미지를 서버로 더 전송할 수도 있고, 그리고 서버는 손실 평가 이미지를 저장하거나 또는 추가의 손실 평가 처리를 수행한다. 따라서, 장치의 또 다른 실시형태에서, 손상된 차량의 캡처된 비디오 데이터가 차량 손실 평가 이미지를 획득하기 위한 장치에 의해, 비디오 녹화를 통해 획득된다면, 프로세서는,
손실 평가 이미지를 처리 단말기로 실시간으로 전송하는 것; 또는
손실 평가 이미지를 처리 단말기로 비동기식으로 전송하는 것을 더 구현하도록 명령어를 실행시킨다.
예를 들어, 손실 평가 이미지가 자동으로 생성되고, 그리고 손상된 부분이 전술한 방법 또는 장치 실시형태에 의해, 발견되고 추적된다는 설명에 기초하여, 본 출원에서 클라이언트에서 손실 평가 이미지를 자동으로 생성하기 위한 장치는 다른 구현예를 더 포함할 수도 있다. 예를 들어, 비디오 녹화 프롬프트 메시지는 생성된 후 촬영 단말기에서 디스플레이된다. 다른 실시형태는 손실 평가 이미지 유형 분류 및 식별, 분류 방식, 및 손상된 부분 위치설정 및 추적을 설명한다. 관련된 실시형태의 설명은 상세사항을 위해 참조될 수도 있고, 이는 본 명세서에서 반복되지 않는다.
사진사가 본 출원에 제공된 차량 손실 평가 이미지를 획득하기 위한 장치를 사용함으로써 손상된 차량의 비디오 녹화를 수행할 수도 있어서, 비디오 데이터를 캡처하고; 그리고 이어서 캡처된 비디오 데이터를 분석하여 손실 평가를 위해 필요한 상이한 유형의 후보 이미지를 획득한다. 게다가, 손상된 차량의 손실 평가 이미지는 후보 이미지로부터 생성될 수도 있다. 본 출원의 구현예에 따르면, 비디오 녹화가 클라이언트에서 수행될 수 있고, 그리고 손실 평가 처리 필요조건을 충족시키는 고품질 손실 평가 이미지가 자동으로 그리고 신속하게 생성될 수 있어서, 손실 평가 이미지를 획득하는 효율을 개선시키고, 그리고 또한 보험 회사 오퍼레이터에 의한 손실 평가 이미지의 획득 및 처리의 비용을 감소시킨다.
본 출원의 전술한 실시형태에서 방법 또는 장치가 작업 논리를 구현할 수 있고 그리고 컴퓨터 프로그램을 사용함으로써 저장 매체에 작업 논리를 기록할 수 있고, 그리고 저장 매체가 컴퓨터에 의해 판독 가능하고 그리고 실행 가능할 수도 있어서 본 출원의 실시형태에 설명된 해결책의 효과를 달성한다. 따라서, 본 출원은 컴퓨터-판독 가능한 저장 매체를 더 제공하고, 컴퓨터-판독 가능한 저장 매체는 컴퓨터 명령어를 저장하고, 그리고 명령어가 실행될 때, 다음의 단계가 구현될 수 있다:
손상된 차량의 캡처된 비디오 데이터를 수신하는 단계;
캡처된 비디오 데이터에서 비디오 이미지를 검출하여 비디오 이미지에서 손상된 부분을 식별하는 단계;
검출된 손상된 부분에 기초하여 비디오 이미지를 분류하여 손상된 부분의 후보 이미지 분류 세트를 결정하는 단계; 및
미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계.
본 출원은 또 다른 컴퓨터-판독 가능한 저장 매체를 더 제공하고, 컴퓨터-판독 가능한 저장 매체는 컴퓨터 명령어를 저장하고, 그리고 명령어가 실행될 때, 다음의 단계가 구현된다:
손상된 차량의 비디오 녹화를 수행하여 캡처된 비디오 데이터를 획득하는 단계;
캡처된 비디오 데이터를 처리 단말기로 전송하는 단계; 및
손상된 부분의 실시간 추적을 통해 획득되고 그리고 처리 단말기에 의해 복귀되는 위치 영역을 수신하고, 그리고 추적된 위치 영역을 디스플레이하는 단계(손상된 부분은 처리 단말기에 의해 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하는 것을 통해 식별됨).
컴퓨터-판독 가능한 저장 매체는 정보를 저장하도록 구성된 물리적 장치를 포함할 수도 있다. 일반적으로, 정보는 정보가 디지털화된 후 매체를 사용함으로써 전기, 자기, 광학, 또는 또 다른 형태로 저장된다. 실시형태에 설명된 컴퓨터-판독 가능한 저장 매체는, 전기 에너지를 사용함으로써 정보를 저장하는 장치, 예를 들어, 메모리의 다양한 유형, 예컨대, RAM 및 ROM; 자기 에너지를 사용함으로써 정보를 저장하는 장치, 예를 들어, 하드 디스크, 플로피 디스크, 자기 테이프, 자기 코어 메모리, 버블 메모리, 또는 USB 플래시 드라이브; 및 정보를 광학적으로 저장하는 장치, 예를 들어, CD 또는 DVD를 포함할 수도 있다. 분명히, 다른 형태의 판독 가능한 저장 매체, 예를 들어, 양자 메모리, 또는 그래핀 메모리가 있을 수도 있다.
전술한 장치, 방법 또는 컴퓨터-판독 가능한 저장 매체가 차량 손실 평가 이미지를 획득하기 위한 서버에 적용 가능할 수도 있어서, 차량 이미지 비디오에 기초하여 차량 손실 평가 이미지를 자동으로 획득한다. 서버는 독립된 서버, 또는 다수의 애플리케이션 서버를 포함하는 시스템 클러스터, 또는 분산 시스템 내 서버일 수도 있다. 실시형태에서, 서버는 프로세서 및 프로세서에 의해 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함할 수도 있고, 그리고 프로세서는,
단말기 디바이스에 의해 업로드되는 손상된 차량의 캡처된 비디오 데이터를 수신하는 것;
캡처된 비디오 데이터에서 비디오 이미지를 검출하여 비디오 이미지에서 손상된 부분을 식별하는 것;
검출된 손상된 부분에 기초하여 비디오 이미지를 분류하여 손상된 부분의 후보 이미지 분류 세트를 결정하는 것; 및
미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것을 구현하도록 명령어를 실행시킨다.
전술한 장치, 방법 또는 컴퓨터-판독 가능한 저장 매체가 차량 손실 평가 이미지를 획득하기 위한 단말기 디바이스에 적용 가능할 수도 있어서, 차량 이미지 비디오에 기초하여 차량 손실 평가 이미지를 자동으로 획득한다. 단말기 디바이스는 서버로서 구현될 수도 있거나, 또는 현장에서 손상된 차량의 비디오 녹화를 수행하는 클라이언트로서 구현될 수도 있다. 도 13은 본 출원에 따른, 단말기 디바이스의 실시형태의 개략적인 구조도이다. 실시형태에서, 단말기 디바이스는 프로세서 및 프로세서에 의해 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함할 수도 있고, 그리고 프로세서는,
손상된 차량의 비디오 녹화를 통해 캡처된 비디오 데이터를 획득하는 것;
캡처된 비디오 데이터에서 비디오 이미지를 검출하여 비디오 이미지에서 손상된 부분을 식별하는 것;
검출된 손상된 부분에 기초하여 비디오 이미지를 분류하여 손상된 부분의 후보 이미지 분류 세트를 결정하는 것; 및
미리 설정된 선별 조건에 따라 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것을 구현하도록 명령어를 실행시킨다.
획득된 캡처된 비디오 데이터는 단말기 디바이스가 캡처된 비디오 데이터를 획득한 후 업로드된 데이터 정보일 수도 있거나, 또는 단말기 디바이스에 의해 손상된 차량의 비디오 녹화를 바로 수행함으로써 캡처된 비디오 데이터일 수도 있다.
게다가, 단말기 디바이스가 비디오 녹화를 수행하는 클라이언트라면, 프로세서는,
손실 평가 이미지를 서버로 실시간으로 전송하는 것; 또는
손실 평가 이미지를 서버로 비동기식으로 전송하는 것을 더 구현하도록 명령어를 실행시킨다.
사진사가 본 출원에 제공된 차량 손실 평가 이미지를 획득하기 위한 단말기 디바이스를 사용함으로써 손상된 차량의 비디오 녹화를 수행할 수도 있어서, 비디오 데이터를 캡처하고, 그리고 이어서 클라이언트가 캡처된 비디오 데이터를 분석하고 그리고 손상된 부분을 식별하여, 손실 평가를 위해 필요한 상이한 유형의 후보 이미지를 획득한다. 게다가, 손상된 차량의 손실 평가 이미지가 후보 이미지로부터 생성될 수도 있다. 본 출원의 구현예에 따르면, 비디오 녹화가 클라이언트에서 바로 수행될 수 있고, 그리고 손실 평가 처리 필요조건을 충족시키는 고품질 손실 평가 이미지가 자동으로 그리고 신속하게 생성될 수 있어서, 손실 평가 이미지를 획득하는 효율을 개선시키고, 그리고 또한 보험 회사 오퍼레이터에 의한 손실 평가 이미지의 획득 및 처리의 비용을 감소시킨다.
본 출원의 내용이 CNN 및 RPN을 사용함으로써 손상된 부분 및 차량 부품을 검출하는, 손상된 영역 추적 방식에서, 데이터 모델 구성, 데이터 획득, 상호작용, 계산, 결정 등, 그리고 손상된 부분-기반 이미지 식별 및 분류를 설명하지만, 본 출원은 산업 통신 표준, 표준 데이터 모델, 컴퓨터 처리 및 저장 규칙, 또는 본 출원에서 설명된 실시형태를 충족시키는 것으로 제한되지 않는다. 맞춤화된 방식으로 또는 본 명세서에서 설명된 구현예에 기초하여 약간 변경되는 일부 산업 표준 또는 구현예는 또한 전술한 실시형태의 효과와 동일한, 등가의, 또는 유사한 효과, 또는 변경 후 예측 가능한 효과를 달성할 수 있다. 이러한 변경 또는 변화를 데이터 획득, 저장, 결정, 및 처리 방식에 적용한 후 획득된 실시형태는 여전히 본 출원의 임의의 구현예의 범위에 속할 수 있다.
1990년대에, 기술의 개선은 하드웨어 개선(예를 들어, 회로 구조, 예컨대, 다이오드, 트랜지스터, 스위치 등의 개선) 또는 소프트웨어 개선(방법 절차의 개선) 으로서 분명히 분류될 수 있다. 그러나, 기술 개발에 대해, 많은 방법 절차의 개선은 하드웨어 회로 구조의 직접적인 개선으로서 간주될 수 있다. 설계자는 개선된 방법 절차를 하드웨어 회로로 거의 항상 프로그래밍하여 대응하는 하드웨어 회로 구조를 획득한다. 따라서, 이것이 방법 절차의 개선이 하드웨어 엔티티 모듈을 사용함으로써 구현될 수 없다는 것을 말하지 않는다. 예를 들어, 프로그램 가능한 논리 디바이스(programmable logic device: PLD), 예컨대, 필드 프로그램 가능한 게이트 어레이(field programmable gate array: FPGA))는 집적 회로의 논리 기능이 디바이스의 사용자의 프로그래밍에 의해 결정되는 집적 회로의 유형이다. 칩 제작업자가 전용 집적 회로 칩을 설계 및 준비하게 요구할 일 없이 설계자는 디지털 시스템을 단일의 PLD에 "통합"시키도록 자발적인 프로그래밍을 수행한다. 또한, 집적 회로 칩을 수동으로 제작하는 것 대신, 프로그래밍은 프로그램에 기입하도록 사용되는 소프트웨어 컴파일러와 유사한, "논리 컴파일러" 소프트웨어를 사용함으로써 대부분 구현된다. 컴파일링되기 전 원시 코드는 또한 하드웨어 기술 언어(Hardware Description Language: HDL)로서 지칭되는 특정한 프로그래밍 언어로 기입된다. 많은 유형의 HDL, 예컨대, 진보된 부울식 언어(Advanced Boolean Expression Language: ABEL), 알테라 하드웨어 기술 언어(Altera Hardware Description Language: AHDL), 컨플루언스(Confluence), 코널 대학 프로그래밍 언어(Cornell University Programming Language: CUPL), HDCal, 자바 하드웨어 기술 언어(Java Hardware Description Language: JHDL), 라바(Lava), 로라(Lola), MyHDL, PALASM, 루비 하드웨어 기술 언어(Ruby Hardware Description Language: RHDL) 등이 있다. 현재, 초고속 집적 회로 하드웨어 기술 언어(Very-High-Speed Integrated Circuit Hardware Description Language: VHDL)와 베릴로그(Verilog)가 가장 흔히 사용된다. 당업자는 또한 방법 절차가 논리적으로 프로그래밍되고 그리고 이어서 앞서 말한 하드웨어 기술 언어를 사용함으로써 집적 회로에 프로그래밍되는 한, 논리적 방법 절차를 구현하는 하드웨어 회로가 쉽게 획득될 수 있다는 것을 이해해야 한다.
제어기가 임의의 적절한 방식으로 구현될 수도 있고, 예를 들어, 제어기는 예를 들어, 마이크로프로세서 또는 프로세서, 그리고 프로세서, 논리 게이트, 스위치, 응용 주문형 집적 회로(application-specific integrated circuit: ASIC), 프로그램 가능한 논리 제어기 및 내장형 마이크로제어기에 의해 실행 가능한 컴퓨터 판독 가능한 프로그램 코드(예를 들어, 소프트웨어 또는 펌웨어)를 저장하는 컴퓨터 판독 가능한 매체의 형태를 취할 수 있다. 제어기의 예는 다음의 마이크로제어기: ARC 625D, 아트멜(Atmel) AT91SAM, 마이크로칩(Microchip) PIC18F26K20, 및 실리콘 연구소(Silicone Labs) C8051F320을 포함하지만, 이들로 제한되지 않는다. 메모리 제어기는 또한 메모리 제어 논리의 부분으로서 구현될 수도 있다. 당업자는 또한 제어기를 완전한 컴퓨터 판독 가능한 프로그램 코드의 형태로 구현하는 것에 더하여, 제어기가 논리 게이트, 스위치, ASIC, 프로그램 가능한 논리 제어기, 및 내장형 마이크로제어기의 형태 및 동일한 기능을 달성하기 위한 다른 형태로 제어기를 구현하는 것이 가능하다는 것을 이해할 것이다. 이러한 제어기가 하드웨어 컴포넌트로서 간주될 수 있고 그리고 다양한 기능을 구현하기 위해 제어기에 포함된 장치가 또한 하드웨어 컴포넌트 내부의 구조체로서 간주될 수도 있다. 대안적으로, 다양한 기능을 달성하도록 구성된 장치는 방법을 구현하는 소프트웨어 모듈과 하드웨어 컴포넌트 내부의 구조체 둘 다로서 간주될 수 있다.
전술한 실시형태에서 설명된 시스템, 장치, 모듈 또는 기구는 컴퓨터 칩 또는 엔티티에 의해 구현될 수도 있거나 또는 특정한 기능을 가진 제품에 의해 구현될 수도 있다. 전형적인 디바이스는 컴퓨터이다. 컴퓨터는 예를 들어, 개인용 컴퓨터, 랩탑 컴퓨터, 차량 내 인간-기계 상호작용 디바이스, 휴대폰, 카메라폰, 스마트폰, 개인 휴대용 단말기, 미디어 플레이어, 네비게이션 디바이스, 이메일 디바이스, 게임 콘솔, 태블릿 컴퓨터, 착용 가능 디바이스, 또는 임의의 디바이스의 조합일 수도 있다.
본 출원이 실시형태 또는 흐름도에 설명된 방법 작동 단계를 제공하지만, 더 많은 또는 더 적은 작동 단계가 종래의 수단 또는 비창조적 수단에 기초하여 포함될 수도 있다. 실시형태에 나열된 단계의 순서는 실행 순서의 다수의 단계 중 단지 하나이고, 그리고 유일한 실행 순서를 나타내지 않는다. 실제 장치 또는 단말기 제품이 실행될 때, 순차적인 실행 또는 병렬 실행이 실시형태 또는 첨부 도면에 도시된 방법 순서에 따라 수행될 수도 있다(예를 들어, 병렬 프로세서 또는 멀티-스레드 처리 환경, 그리고 심지어 분산 데이터 처리 환경에서). 용어 "포함" 및 이의 임의의 다른 변형은 배타적이지 않은 포함을 포함하도록 의도되어, 일련의 구성요소를 포함하는 과정, 방법, 제품 또는 디바이스가 이 구성요소를 포함할 뿐만 아니라 분명히 나열되지 않은 다른 구성요소를 포함하거나, 또는 이러한 과정, 방법, 제품 또는 디바이스에 고유한 구성요소를 더 포함한다. 달리 나타내지 않는 한, 구성요소를 포함하는 과정, 방법, 제품 또는 디바이스에 존재하는 다른 동일한 또는 등가의 구성요소가 배제되지 않는다.
설명의 용이성을 위해, 전술한 장치가 설명될 때, 장치는 각각 설명된 기능에 따라 기구로 분할된다. 분명히, 본 출원의 구현예에서, 모듈의 기능은 소프트웨어 및/또는 하드웨어의 동일한 피스 또는 다수의 피스에서 구현될 수도 있거나, 또는 동일한 기능을 구현하는 모듈은 다수의 하위 모듈 또는 하위 기구의 조합을 사용함으로써 구현될 수도 있다. 예를 들어, 전술한 장치 실시형태는 단지 예이다. 예를 들어, 기구 분할은 단지 논리적 기능 분할이고 그리고 다른 구현예에서 다른 분할일 수도 있다. 예를 들어, 다수의 기구 또는 부품은 또 다른 시스템과 결합 또는 통합될 수도 있거나, 또는 일부 특징은 무시될 수도 있거나 또는 수행될 수도 없다. 또한, 디스플레이된 또는 논의된 상호 결합 또는 직접적인 결합 또는 통신 연결은 일부 인터페이스를 사용함으로써 구현될 수도 있다. 장치 또는 기구 간의 간접적인 결합 또는 통신 연결은 전자, 기계 또는 다른 형태로 구현될 수도 있다.
당업자는 또한 완전한 컴퓨터-판독 가능한 프로그램 코드의 형태로 제어기를 구현하는 것에 더하여, 논리 게이트, 스위치, 응용 주문형 집적 회로, 프로그램 가능한 논리 제어기, 및 내장된 마이크로제어기의 형태 및 다른 형태로 제어기를 구현하여 동일한 기능을 달성하는 것이 또한 가능하다는 것을 또한 이해할 것이다. 이러한 제어기는 하드웨어 부품으로서 간주될 수 있고 그리고 다양한 기능을 구현하기 위해 내부에 포함된 장치는 또한 하드웨어 부품 내부의 구조체로서 간주될 수 있다. 대안적으로, 다양한 기능을 구현하도록 구성된 장치는 방법을 구현하는 소프트웨어 모듈과 하드웨어 부품 내부의 구조체 둘 다로서 간주될 수 있다.
본 출원은 본 명세서의 실시형태에 따라 방법, 디바이스(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및/또는 블록도를 참조하여 설명된다. 컴퓨터 프로그램 명령어가 흐름도 및/또는 블록도에서 각각의 과정 및/또는 각각의 블록 그리고 흐름도 및/또는 블록도에서 과정 및/또는 블록의 조합을 구현하기 위해 사용될 수도 있다는 것이 이해되어야 한다. 이 컴퓨터 프로그램 명령어가 기계를 생산하도록 다용도 컴퓨터, 특수화 컴퓨터, 내장된 프로세서, 또는 또 다른 프로그램 가능한 데이터 처리 디바이스의 프로세서에 제공될 수도 있어서, 컴퓨터 또는 임의의 다른 프로그램 가능한 데이터 처리 디바이스의 프로세서에 의해 실행되는 명령어가 흐름도의 하나 이상의 과정 및/또는 블록도의 하나 이상의 블록에서 명시된 기능을 구현하기 위한 장치를 생성한다.
이 컴퓨터 프로그램 명령어가 대안적으로 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 디바이스가 특정한 방식으로 작동하게 명령할 수 있는 컴퓨터 판독 가능한 메모리에 저장될 수도 있어서, 이 컴퓨터 판독 가능한 메모리에 저장된 명령어가 명령어 장치를 포함하는 인공물을 생성한다. 이 명령어 장치는 흐름도의 하나 이상의 과정 및/또는 블록도의 하나 이상의 블록에서 특정한 기능을 구현한다.
이 컴퓨터 프로그램 명령어가 대안적으로 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 디바이스에 로딩될 수도 있어서, 일련의 작업 및 단계가 컴퓨터 또는 다른 프로그램 가능한 디바이스에서 수행되어 컴퓨터 구현 처리를 생성한다. 따라서, 컴퓨터 또는 다른 프로그램 가능한 디바이스에서 실행된 명령어가 흐름도의 하나 이상의 과정 및/또는 블록도의 하나 이상의 블록에서 기능을 구현하기 위한 단계를 제공한다.
전형적인 구성에서, 연산 디바이스는 하나 이상의 프로세서(CPU), 입력/출력 인터페이스, 네트워크 인터페이스 및 메모리를 포함한다.
메모리는 컴퓨터 판독 가능한 매체 중에서, 휘발성 메모리, 예컨대, 랜덤 액세스 메모리(random access memory: RAM) 및/또는 비휘발성 메모리, 예컨대, 판독-전용 메모리(read-only memory: ROM) 또는 플래시 메모리(플래시 RAM)를 포함할 수도 있다. 메모리는 컴퓨터 판독 가능한 매체의 예이다.
컴퓨터 판독 가능한 매체는 임의의 방법 또는 기술을 사용함으로써 정보 저장을 구현할 수도 있는 비휘발성, 휘발성, 이동, 및 부동 매체를 포함한다. 정보는 컴퓨터 판독 가능한 명령어, 데이터 구조, 프로그램 모듈 또는 다른 데이터일 수도 있다. 컴퓨터의 저장 매체의 예는 상-변화 메모리(phase change memory: PRAM), 정적 랜덤 액세스 메모리(static random access memory: SRAM), 동적 랜덤 액세스 메모리(dynamic random access memory: DRAM), 다른 유형의 랜덤 액세스 메모리(RAM), 판독-전용 메모리(ROM), 전기적으로 소거 가능한 프로그램 가능한 판독 전용 메모리(electrically erasable programmable read-only memory: EEPROM), 플래시 메모리 또는 다른 메모리 기술, 콤팩트 디스크 판독-전용 메모리(compact disc read-only memory: CD-ROM), 디지털 다기능 디스크(digital versatile disc: DVD) 또는 다른 광 기억장치, 카세트 자기 테이프, 테이프 및 디스크 기억장치 또는 다른 자기 저장 디바이스 또는 연산 디바이스가 액세스할 수 있는 정보를 저장하도록 구성될 수도 있는 임의의 다른 비전송 매체를 포함하지만, 이들로 제한되지 않는다. 본 개시내용의 설명에 기초하여, 컴퓨터 판독 가능한 매체는 일시적인 컴퓨터 판독 가능한 매체(비일시적 매체), 예컨대, 변조된 데이터 신호 및 캐리어를 포함하지 않는다.
당업자는 본 출원의 실시형태가 방법, 시스템 또는 컴퓨터 프로그램 제품으로서 제공될 수도 있다는 것을 이해해야 한다. 따라서, 본 출원은 하드웨어 전용, 소프트웨어 전용, 또는 소프트웨어와 하드웨어의 조합의 형태를 사용할 수도 있다. 게다가, 본 출원은 컴퓨터 사용 가능한 프로그램 코드를 포함하는 하나 이상의 컴퓨터 사용 가능한 저장 매체(디스크 메모리, CD-ROM, 광 메모리 등을 포함하지만 이들로 제한되지 않음)에 구현되는 컴퓨터 프로그램 제품의 형태를 사용할 수도 있다.
본 출원은 컴퓨터, 예를 들어, 프로그램 모듈에 의해 실행되는 컴퓨터 실행 가능한 명령어의 일반적인 맥락으로 설명될 수도 있다. 일반적으로, 프로그램 모듈은 특정한 태스크를 실행시키거나 또는 특정한 추상 데이터 유형을 구현하기 위한 루틴, 프로그램, 객체, 컴포넌트, 데이터 구조 등을 포함한다. 본 출원은 또한 태스크가 통신 네트워크를 통해 연결되는 원격 처리 디바이스에 의해 수행되는 분산형 연산 환경에서 실행될 수도 있다. 이 분산형 연산 환경에서, 프로그램 모듈은 저장 디바이스를 포함하는, 국부적 및 원격 컴퓨터 저장 매체 둘 다에 위치될 수도 있다.
본 개시내용의 실시형태는 진보적인 방식으로 설명된다. 실시형태에서 동일한 또는 유사한 부분에 대해, 이 실시형태를 참조한다. 각각의 실시형태는 다른 실시형태와의 차이에 초점을 맞춘다. 특히, 시스템 실시형태가 방법 실시형태와 근본적으로 유사하고, 따라서 간략하게 설명되며; 관련된 부분에 대해, 방법 실시형태에서 부분적인 설명을 참조한다. 본 명세서의 설명에서, 참조 용어, 예컨대, "실시형태", "일부 실시형태" "실시예" "특정한 실시예" 또는 "일부 실시예"는 실시형태 또는 실시예를 참조하여 설명되는 특징, 구조, 물질, 또는 특성이 본 출원의 적어도 하나 실시형태 또는 실시예에 포함되는 것을 의미한다. 본 명세서에서, 전술한 용어의 개략적인 설명은 반드시 동일한 실시형태 또는 실시예에 관한 것이 아니다. 게다가, 설명된 특징, 구조, 물질, 또는 특성은 임의의 하나 이상의 실시형태 또는 실시예에서 적절한 방식으로 결합될 수도 있다. 또한, 서로 모순되지 않는다면, 당업자는 본 명세서에서 설명되는 상이한 실시형태 또는 실시예뿐만 아니라 상이한 실시형태 또는 실시예의 특징을 결합 또는 분류할 수 있다.
전술한 설명은 단지 본 출원의 실시형태이고 그리고 본 출원을 제한하도록 의도되지 않는다. 당업자는 본 출원에 대한 다양한 변경 및 변화를 행할 수도 있다. 본 출원의 정신 및 원리 내에 이루어진 모든 변경, 등가 대체 및 개선은 본 출원의 청구항의 범위 내에 속할 것이다.
Claims (40)
- 차량 손실 평가 이미지를 획득하기 위한 방법으로서,
클라이언트에 의해, 캡처된 비디오 데이터를 획득하고, 상기 캡처된 비디오 데이터를 서버로 전송하는 단계;
상기 서버에 의해, 상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 상기 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 단계;
상기 서버에 의해, 식별된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하여 상기 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 단계; 및
미리 설정된 선별 조건에 따라 상기 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계를 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 차량 손실 평가 이미지를 획득하기 위한 방법으로서,
단말기 디바이스에 의해 업로드되는 손상된 차량의 캡처된 비디오 데이터를 수신하여, 상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 상기 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 단계;
식별된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하여 상기 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 단계; 및
미리 설정된 선별 조건에 따라 상기 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계를 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제2항에 있어서, 상기 하나 이상의 결정된 후보 이미지 분류 세트는,
상기 손상된 부분을 디스플레이하는 클로즈업된 이미지 세트 및 상기 손상된 부분이 속하는 차량 부품을 디스플레이하는 부품 이미지 세트를 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제3항에 있어서, 상기 클로즈업된 이미지 세트 내 비디오 이미지는 다음의 방식 중 적어도 하나에서 결정되는, 차량 손실 평가 이미지를 획득하기 위한 방법:
상기 손상된 부분을 포함하는 상기 비디오 이미지의 영역에 대한 상기 손상된 부분이 차지하는 영역의 면적비는 제1 미리 설정된 비보다 더 큼;
상기 손상된 부분을 포함하는 상기 비디오 이미지의 길이에 대한 상기 손상된 부분의 수평 좌표 범위의 비는 제2 미리 설정된 비보다 더 크고, 그리고/또는 상기 손상된 부분을 포함하는 상기 비디오 이미지의 높이에 대한 상기 손상된 부분의 길이방향 좌표 범위의 비는 제3 미리 설정된 비보다 더 큼; 및
동일한 손상된 부분을 포함하는 비디오 이미지로부터, 상기 비디오 이미지가 상기 비디오 이미지 내 상기 동일한 손상된 부분의 면적의 내림차순으로 분류된 후, 먼저 K개의 비디오 이미지가 선택되거나 또는 상기 비디오 이미지의 면적에 대한 상기 손상된 부분의 면적의 비가 제4 미리 설정된 면적비 이내인 하나 이상의 비디오 이미지가 선택되고, K≥1임. - 제3항에 있어서,
상기 손상된 부분의 상기 클로즈업된 이미지 세트 및 상기 부품 이미지 세트 중 적어도 하나가 비어있거나, 또는 상기 클로즈업된 이미지 세트 내 상기 하나 이상의 비디오 이미지가 대응하는 손상된 부분의 전체 영역을 포함하지 않는다고 검출하는 것에 응답하여, 비디오 녹화 프롬프트 메시지를 생성하는 단계; 및
상기 비디오 녹화 프롬프트 메시지를 상기 단말기 디바이스로 전송하는 단계를 더 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제2항에 있어서, 상기 비디오 이미지에서 상기 손상된 부분이 식별된 후, 상기 방법은,
상기 캡처된 비디오 데이터에서 상기 손상된 부분의 위치 영역을 실시간으로 추적하는 단계; 및
상기 손상된 부분이 상기 비디오 이미지 외부에 있은 후 상기 손상된 부분이 상기 비디오 이미지에 재진입하는 것에 응답하여, 상기 손상된 부분의 이미지 특징 데이터에 기초하여 상기 손상된 부분의 상기 위치 영역을 다시 찾고 추적하는 단계를 더 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제6항에 있어서,
상기 단말기 디바이스가 상기 손상된 부분의 상기 위치 영역을 실시간으로 디스플레이하도록 상기 손상된 부분의 추적된 위치 영역을 상기 단말기 디바이스로 전송하는 단계를 더 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제7항에 있어서,
상기 단말기 디바이스에 의해 전송된 새로운 손상된 부분의 정보를 수신하는 단계로서, 상기 새로운 손상된 부분은 상기 단말기 디바이스가 수신된 인터랙티브 명령어에 기초하여 상기 식별된 손상된 부분의 상기 위치 영역을 변경한 후 재결정되는 손상된 부분을 포함하는, 상기 단말기 디바이스에 의해 전송된 새로운 손상된 부분의 정보를 수신하는 단계를 더 포함하고; 그리고
이에 대응하여, 상기 식별된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하는 것은 상기 새로운 손상된 부분의 상기 정보에 기초하여 상기 하나 이상의 비디오 이미지를 분류하는 것을 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제2항 내지 제5항 중 어느 한 항에 있어서, 미리 설정된 선별 조건에 따라 상기 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계는,
상기 하나 이상의 비디오 이미지의 선명도 및 상기 하나 이상의 비디오 이미지 내 상기 손상된 부분의 촬영 각에 따라 각각 상기 손상된 부분의 하나 이상의 표시된 후보 이미지 분류 세트로부터 상기 손상된 부분의 손실 평가 이미지로서 적어도 하나의 비디오 이미지를 선택하는 것을 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제6항 내지 제8항 중 어느 한 항에 있어서, 상기 하나 이상의 비디오 이미지에 적어도 2개의 손상된 부분이 있다고 결정한 것에 응답하여, 상기 적어도 2개의 손상된 부분 간의 거리가 설정된 근접 조건을 충족시키는지를 결정하는 단계; 및
상기 적어도 2개의 손상된 부분 간의 상기 거리가 상기 설정된 근접 조건을 충족시킨다고 결정한 것에 응답하여, 상기 적어도 2개의 손상된 부분을 동시에 추적하고, 그리고 대응하는 손실 평가 이미지를 각각 생성하는 단계를 더 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 차량 손실 평가 이미지를 획득하기 위한 방법으로서,
손상된 차량의 비디오 녹화를 수행하여 캡처된 비디오 데이터를 획득하는 단계;
상기 캡처된 비디오 데이터를 처리 단말기로 전송하는 단계; 및
상기 비디오 데이터에서 손상된 부분의 실시간 추적을 통해 획득되고 그리고 상기 처리 단말기에 의해 복귀되는 위치 영역을 수신하고, 그리고 추적된 위치 영역을 디스플레이하는 단계를 포함하되, 상기 손상된 부분은 상기 처리 단말기에 의해 상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하는 것을 통해 식별되는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제11항에 있어서,
상기 처리 단말기에 의해 전송된 비디오 녹화 프롬프트 메시지를 수신 및 디스플레이하는 단계를 더 포함하되, 상기 처리 단말기가, 상기 손상된 부분의 클로즈업된 이미지 세트 및 부품 이미지 세트 중 적어도 하나가 비어있거나, 또는 상기 클로즈업된 이미지 세트 내 상기 하나 이상의 비디오 이미지가 대응하는 손상된 부분의 전체 영역을 덮지 않는다고 검출할 때 상기 비디오 녹화 프롬프트 메시지가 생성되는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제11항 또는 제12항에 있어서,
수신된 인터랙티브 명령어에 기초하여 상기 손상된 부분의 상기 위치 영역을 변경한 후 새로운 손상된 부분을 재결정하는 단계; 및
상기 처리 단말기가 상기 새로운 손상된 부분의 정보에 기초하여 하나 이상의 비디오 이미지를 분류하도록 상기 새로운 손상된 부분의 상기 정보를 상기 처리 단말기로 전송하는 단계를 더 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 차량 손실 평가 이미지를 획득하기 위한 방법으로서,
손상된 차량의 캡처된 비디오 데이터를 수신하는 단계;
상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 상기 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 단계;
식별된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하여 상기 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 단계; 및
미리 설정된 선별 조건에 따라 상기 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계를 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제14항에 있어서, 하나 이상의 결정된 후보 이미지 분류 세트는,
상기 손상된 부분을 디스플레이하는 클로즈업된 이미지 세트 및 상기 손상된 부분이 속하는 차량 부품을 디스플레이하는 부품 이미지 세트를 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제15항에 있어서, 상기 클로즈업된 이미지 세트 내 비디오 이미지는 다음의 방식 중 적어도 하나에서 결정되는, 차량 손실 평가 이미지를 획득하기 위한 방법:
상기 손상된 부분을 포함하는 상기 비디오 이미지의 영역에 대한 상기 손상된 부분이 차지하는 영역의 면적비는 제1 미리 설정된 비보다 더 큼;
상기 손상된 부분을 포함하는 상기 비디오 이미지의 길이에 대한 상기 손상된 부분의 수평 좌표 범위의 비는 제2 미리 설정된 비보다 더 크고, 그리고/또는 상기 손상된 부분을 포함하는 상기 비디오 이미지의 높이에 대한 상기 손상된 부분의 길이방향 좌표 범위의 비는 제3 미리 설정된 비보다 더 큼; 및
동일한 손상된 부분을 포함하는 비디오 이미지로부터, 상기 비디오 이미지가 상기 비디오 이미지 내 상기 동일한 손상된 부분의 면적의 내림차순으로 분류된 후, 먼저 K개의 비디오 이미지가 선택되거나 또는 상기 비디오 이미지의 면적에 대한 상기 손상된 부분의 면적의 비가 제4 미리 설정된 면적비 이내인 하나 이상의 비디오 이미지가 선택되고, K≥1임. - 제15항에 있어서,
상기 손상된 부분의 상기 클로즈업된 이미지 세트 및 상기 부품 이미지 세트 중 적어도 하나가 비어있거나, 또는 상기 클로즈업된 이미지 세트 내 상기 하나 이상의 비디오 이미지가 대응하는 손상된 부분의 전체 영역을 덮지 않는다고 검출하는 것에 응답하여, 비디오 녹화 프롬프트 메시지를 생성하는 단계; 및
상기 비디오 녹화 프롬프트 메시지를 디스플레이하는 단계를 더 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제14항에 있어서, 상기 비디오 이미지에서 상기 손상된 부분이 식별된 후, 상기 방법은,
상기 캡처된 비디오 데이터에서 상기 손상된 부분의 위치 영역을 실시간으로 추적 및 디스플레이하는 단계; 및
상기 손상된 부분이 상기 비디오 이미지 외부에 있은 후 상기 손상된 부분이 상기 비디오 이미지에 재진입하는 것에 응답하여, 상기 손상된 부분의 이미지 특징 데이터에 기초하여 상기 손상된 부분의 상기 위치 영역을 다시 찾고 추적하는 단계를 더 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제18항에 있어서, 수신된 인터랙티브 명령어에 기초하여 상기 식별된 손상된 부분의 상기 위치 영역을 변경한 후 새로운 손상된 부분을 재결정하는 단계를 더 포함하고; 그리고
이에 대응하여, 상기 식별된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하는 것은 상기 새로운 손상된 부분의 정보에 기초하여 상기 하나 이상의 비디오 이미지를 분류하는 것을 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제14항 내지 제17항 중 어느 한 항에 있어서, 미리 설정된 선별 조건에 따라 상기 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계는,
상기 비디오 이미지의 선명도 및 상기 손상된 부분의 촬영 각에 따라 각각 상기 손상된 부분의 하나 이상의 표시된 후보 이미지 분류 세트로부터 상기 손상된 부분의 손실 평가 이미지로서 적어도 하나의 비디오 이미지를 선택하는 것을 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제18항 또는 제19항에 있어서,
적어도 2개의 표시된 손상된 부분을 수신하는 것에 응답하여, 상기 적어도 2개의 손상된 부분 간의 거리가 설정된 근접 조건을 충족시키는지를 결정하는 단계; 및
상기 적어도 2개의 손상된 부분 간의 상기 거리가 상기 설정된 근접 조건을 충족시킨다고 결정한 것에 응답하여, 상기 적어도 2개의 손상된 부분을 동시에 추적하고, 그리고 대응하는 손실 평가 이미지를 각각 생성하는 단계를 더 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 제14항에 있어서,
상기 손실 평가 이미지를 서버로 실시간으로 전송하는 단계; 또는
상기 손실 평가 이미지를 서버로 비동기식으로 전송하는 단계를 더 포함하는, 차량 손실 평가 이미지를 획득하기 위한 방법. - 차량 손실 평가 이미지를 획득하기 위한 장치로서,
단말기 디바이스가 업로드하는 손상된 차량의 캡처된 비디오 데이터를 수신하도록 구성된 데이터 수신 모듈;
상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 상기 하나 이상의 비디오 이미지에서 손상된 부분을 식별하도록 구성된 손상된 부분 식별 모듈;
식별된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하여 상기 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하도록 구성된 분류 모듈; 및
미리 설정된 선별 조건에 따라 상기 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하도록 구성된 선별 모듈을 포함하는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 차량 손실 평가 이미지를 획득하기 위한 장치로서,
손상된 차량의 비디오 녹화를 수행하여 캡처된 비디오 데이터를 획득하도록 구성된 촬영 모듈;
상기 캡처된 비디오 데이터를 처리 단말기로 전송하도록 구성된 통신 모듈; 및
상기 비디오 데이터에서 손상된 부분의 실시간 추적을 통해 획득되고 그리고 상기 처리 단말기에 의해 복귀되는 위치 영역을 수신하고, 그리고 추적된 위치 영역을 디스플레이하도록 구성된 추적 모듈을 포함하되, 상기 손상된 부분은 상기 처리 단말기에 의해 상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지의 검출을 통해 식별되는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 차량 손실 평가 이미지를 획득하기 위한 장치로서, 프로세서 및 상기 프로세서에 의해 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하되, 상기 프로세서는,
손상된 차량의 캡처된 비디오 데이터를 수신하는 것;
상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 상기 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 것;
식별된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하여 상기 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 것; 및
미리 설정된 선별 조건에 따라 상기 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것을 구현하도록 명령어를 실행시키는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 제25항에 있어서, 상기 손상된 차량의 상기 캡처된 비디오 데이터는,
단말기 디바이스가 상기 캡처된 비디오 데이터를 획득한 후 상기 단말기 디바이스에 의해 업로드된 데이터 정보; 또는
차량 손실 평가 이미지를 획득하기 위해 상기 장치에 의한 상기 손상된 차량의 비디오 녹화를 통해 획득된 상기 캡처된 비디오 데이터를 포함하는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 제26항에 있어서, 상기 프로세서가 상기 명령어를 실행시킬 때, 하나 이상의 결정된 후보 이미지 분류 세트는,
상기 손상된 부분을 디스플레이하는 클로즈업된 이미지 세트 및 상기 손상된 부분이 속하는 차량 부품을 디스플레이하는 부품 이미지 세트를 포함하는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 제27항에 있어서, 상기 프로세서가 상기 명령어를 실행시킬 때, 상기 클로즈업된 이미지 세트 내 비디오 이미지는 다음의 방식 중 적어도 하나에서 결정되는, 차량 손실 평가 이미지를 획득하기 위한 장치:
상기 손상된 부분을 포함하는 상기 비디오 이미지의 영역에 대한 상기 손상된 부분이 차지하는 영역의 면적비는 제1 미리 설정된 비보다 더 큼;
상기 손상된 부분을 포함하는 상기 비디오 이미지의 길이에 대한 상기 손상된 부분의 수평 좌표 범위의 비는 제2 미리 설정된 비보다 더 크고, 그리고/또는 상기 손상된 부분을 포함하는 상기 비디오 이미지의 높이에 대한 상기 손상된 부분의 길이방향 좌표 범위의 비는 제3 미리 설정된 비보다 더 큼; 및
동일한 손상된 부분을 포함하는 비디오 이미지로부터, 상기 비디오 이미지가 상기 비디오 이미지 내 상기 동일한 손상된 부분의 면적의 내림차순으로 분류된 후, 먼저 K개의 비디오 이미지가 선택되거나 또는 상기 비디오 이미지의 면적에 대한 상기 손상된 부분의 면적의 비가 제4 미리 설정된 면적비 이내인 하나 이상의 비디오 이미지가 선택되고, K≥1임. - 제28항에 있어서, 상기 프로세서는,
상기 손상된 부분의 상기 클로즈업된 이미지 세트 및 상기 부품 이미지 세트 중 적어도 하나가 비어있거나, 또는 상기 클로즈업된 이미지 세트 내 상기 하나 이상의 비디오 이미지가 대응하는 손상된 부분의 전체 영역을 덮지 않는다고 검출하는 것에 응답하여, 비디오 녹화 프롬프트 메시지를 생성하는 것을 더 구현하도록 명령어를 실행시키고,
상기 비디오 녹화 프롬프트 메시지는 상기 단말기 디바이스에 디스플레이되는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 제26항에 있어서, 상기 프로세서는,
상기 캡처된 비디오 데이터에서 상기 손상된 부분의 위치 영역을 실시간으로 추적하는 것; 및
상기 손상된 부분이 상기 비디오 이미지 외부에 있은 후 상기 손상된 부분이 상기 비디오 이미지에 재진입하는 것에 응답하여, 상기 손상된 부분의 이미지 특징 데이터에 기초하여 상기 손상된 부분의 상기 위치 영역을 다시 찾고 추적하는 것을 더 구현하도록 명령어를 실행시키는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 제30항에 있어서, 상기 캡처된 비디오 데이터가 상기 단말기 디바이스에 의해 업로드되는 데이터 정보라면, 상기 프로세서는,
상기 단말기 디바이스가 상기 손상된 부분의 상기 위치 영역을 실시간으로 디스플레이하도록 상기 손상된 부분의 추적된 위치 영역을 상기 단말기 디바이스로 전송하는 것을 더 구현하도록 명령어를 실행시키는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 제26항에 있어서, 상기 프로세서는,
식별된 손상된 부분의 상기 위치 영역이 변경된 후 재결정되는 새로운 손상된 부분의 정보를 수신하는 것을 더 구현하도록 명령어를 실행시키고,
이에 대응하여, 상기 식별된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하는 것은 상기 새로운 손상된 부분의 상기 정보에 기초하여 상기 하나 이상의 비디오 이미지를 분류하는 것을 포함하는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 제30항에 있어서, 상기 프로세서가 상기 명령어를 실행시킬 때, 미리 설정된 선별 조건에 따라 상기 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것은,
상기 하나 이상의 비디오 이미지의 선명도 및 상기 하나 이상의 비디오 이미지 내 상기 손상된 부분의 촬영 각에 따라 각각 상기 손상된 부분의 하나 이상의 표시된 후보 이미지 분류 세트로부터 상기 손상된 부분의 손실 평가 이미지로서 적어도 하나의 비디오 이미지를 선택하는 것을 포함하는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 제30항 내지 제32항 중 어느 한 항에 있어서, 상기 프로세서가 상기 명령어를 실행시킬 때, 상기 하나 이상의 비디오 이미지에 적어도 2개의 손상된 부분이 있다는 결정에 응답하여, 상기 적어도 2개의 손상된 부분 간의 거리가 설정된 근접 조건을 충족시키는지를 결정하고; 그리고
상기 적어도 2개의 손상된 부분 간의 상기 거리가 상기 설정된 근접 조건을 충족시킨다는 결정에 응답하여, 상기 적어도 2개의 손상된 부분을 동시에 추적하고, 그리고 대응하는 손실 평가 이미지를 각각 생성하는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 제26항에 있어서, 상기 손상된 차량의 상기 캡처된 비디오 데이터가 차량 손실 평가 이미지를 획득하기 위한 상기 장치에 의한 상기 비디오 녹화를 수행함으로써 획득된다면, 상기 프로세서는,
상기 손실 평가 이미지를 처리 단말기로 실시간으로 전송하는 것; 또는
상기 손실 평가 이미지를 처리 단말기로 비동기식으로 전송하는 것을 더 구현하도록 상기 명령어를 실행시키는, 차량 손실 평가 이미지를 획득하기 위한 장치. - 컴퓨터-판독 가능한 저장 매체로서, 상기 컴퓨터-판독 가능한 저장 매체는 컴퓨터 명령어를 저장하고, 그리고 상기 명령어가 실행될 때,
손상된 차량의 캡처된 비디오 데이터를 수신하는 단계;
상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 상기 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 단계;
식별된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하여 상기 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 단계; 및
미리 설정된 선별 조건에 따라 상기 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 단계가 구현되는, 컴퓨터-판독 가능한 저장 매체. - 컴퓨터-판독 가능한 저장 매체로서, 상기 컴퓨터-판독 가능한 저장 매체는 컴퓨터 명령어를 저장하고, 그리고 상기 명령어가 실행될 때,
손상된 차량의 비디오 녹화를 수행하여 캡처된 비디오 데이터를 획득하는 단계;
상기 캡처된 비디오 데이터를 처리 단말기로 전송하는 단계; 및
상기 비디오 데이터에서 손상된 부분의 실시간 추적을 통해 획득되고 그리고 상기 처리 단말기에 의해 복귀되는 위치 영역을 수신하고, 그리고 추적된 위치 영역을 디스플레이하는 단계가 구현되되, 상기 손상된 부분은 상기 처리 단말기에 의해 상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하는 것을 통해 식별되는, 컴퓨터-판독 가능한 저장 매체. - 서버로서, 프로세서 및 상기 프로세서에 의해 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하되, 상기 프로세서는,
단말기 디바이스에 의해 업로드되는 손상된 차량의 캡처된 비디오 데이터를 수신하여, 상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 상기 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 것;
식별된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하여 상기 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 것; 및
미리 설정된 선별 조건에 따라 상기 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것을 구현하도록 명령어를 실행시키는, 서버. - 단말기 디바이스로서, 프로세서 및 상기 프로세서에 의해 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하되, 상기 프로세서는,
손상된 차량의 비디오 캡처를 통해 캡처된 비디오 데이터를 획득하는 것;
상기 캡처된 비디오 데이터에서 하나 이상의 비디오 이미지를 검출하여 상기 하나 이상의 비디오 이미지에서 손상된 부분을 식별하는 것;
검출된 손상된 부분에 기초하여 상기 하나 이상의 비디오 이미지를 분류하여 상기 손상된 부분의 하나 이상의 후보 이미지 분류 세트를 결정하는 것; 및
미리 설정된 선별 조건에 따라 상기 하나 이상의 후보 이미지 분류 세트로부터 차량 손실 평가 이미지를 선택하는 것을 구현하도록 명령어를 실행시키는, 단말기 디바이스. - 제39항에 있어서, 상기 프로세서는,
데이터 통신 모듈을 사용함으로써 상기 손실 평가 이미지를 서버로 실시간으로 전송하는 것; 또는
상기 손실 평가 이미지를 서버로 비동기식으로 전송하는 것을 더 구현하도록 명령어를 실행시키는, 단말기 디바이스.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710294010.4A CN107194323B (zh) | 2017-04-28 | 2017-04-28 | 车辆定损图像获取方法、装置、服务器和终端设备 |
CN201710294010.4 | 2017-04-28 | ||
PCT/CN2018/084760 WO2018196837A1 (zh) | 2017-04-28 | 2018-04-27 | 车辆定损图像获取方法、装置、服务器和终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190139262A true KR20190139262A (ko) | 2019-12-17 |
Family
ID=59872897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197033366A KR20190139262A (ko) | 2017-04-28 | 2018-04-27 | 차량 손실 평가 이미지를 획득하기 위한 방법과 장치, 서버 및 단말기 디바이스 |
Country Status (9)
Country | Link |
---|---|
US (1) | US11151384B2 (ko) |
EP (1) | EP3605386B1 (ko) |
JP (1) | JP6905081B2 (ko) |
KR (1) | KR20190139262A (ko) |
CN (2) | CN107194323B (ko) |
PH (1) | PH12019502401A1 (ko) |
SG (1) | SG11201909740RA (ko) |
TW (1) | TW201839666A (ko) |
WO (1) | WO2018196837A1 (ko) |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194323B (zh) | 2017-04-28 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 车辆定损图像获取方法、装置、服务器和终端设备 |
CN107610091A (zh) * | 2017-07-31 | 2018-01-19 | 阿里巴巴集团控股有限公司 | 车险图像处理方法、装置、服务器及系统 |
CN107748893A (zh) * | 2017-09-29 | 2018-03-02 | 阿里巴巴集团控股有限公司 | 提升车辆定损图像识别结果的方法、装置及服务器 |
CN107766805A (zh) * | 2017-09-29 | 2018-03-06 | 阿里巴巴集团控股有限公司 | 提升车辆定损图像识别结果的方法、装置及服务器 |
CN109753985A (zh) * | 2017-11-07 | 2019-05-14 | 北京京东尚科信息技术有限公司 | 视频分类方法及装置 |
CN108090838B (zh) * | 2017-11-21 | 2020-09-29 | 阿里巴巴集团控股有限公司 | 识别车辆受损部件的方法、装置、服务器、客户端及系统 |
CN108038459A (zh) * | 2017-12-20 | 2018-05-15 | 深圳先进技术研究院 | 一种水下生物的检测识别方法、终端设备及存储介质 |
CN108647563A (zh) * | 2018-03-27 | 2018-10-12 | 阿里巴巴集团控股有限公司 | 一种车辆定损的方法、装置及设备 |
CN108921811B (zh) | 2018-04-03 | 2020-06-30 | 阿里巴巴集团控股有限公司 | 检测物品损伤的方法和装置、物品损伤检测器 |
CN108647712A (zh) * | 2018-05-08 | 2018-10-12 | 阿里巴巴集团控股有限公司 | 车辆损伤识别的处理方法、处理设备、客户端及服务器 |
CN108632530B (zh) * | 2018-05-08 | 2021-02-23 | 创新先进技术有限公司 | 一种车辆定损的数据处理方法、装置、设备及客户端、电子设备 |
CN108665373B (zh) * | 2018-05-08 | 2020-09-18 | 阿里巴巴集团控股有限公司 | 一种车辆定损的交互处理方法、装置、处理设备及客户端 |
CN108682010A (zh) * | 2018-05-08 | 2018-10-19 | 阿里巴巴集团控股有限公司 | 车辆损伤识别的处理方法、处理设备、客户端及服务器 |
CN110634120B (zh) * | 2018-06-05 | 2022-06-03 | 杭州海康威视数字技术股份有限公司 | 一种车辆损伤判别方法及装置 |
CN110609877B (zh) * | 2018-06-14 | 2023-04-18 | 百度在线网络技术(北京)有限公司 | 一种图片采集的方法、装置、设备和计算机存储介质 |
CN109190469B (zh) * | 2018-07-27 | 2020-06-23 | 阿里巴巴集团控股有限公司 | 一种检测方法及装置、一种计算设备及存储介质 |
CN109034264B (zh) * | 2018-08-15 | 2021-11-19 | 云南大学 | 交通事故严重性预测csp-cnn模型及其建模方法 |
CN109145903A (zh) * | 2018-08-22 | 2019-01-04 | 阿里巴巴集团控股有限公司 | 一种图像处理方法和装置 |
CN108989684A (zh) * | 2018-08-23 | 2018-12-11 | 阿里巴巴集团控股有限公司 | 控制拍摄距离的方法和装置 |
CN110569694A (zh) * | 2018-08-31 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 车辆的部件检测方法、装置及设备 |
CN110569695B (zh) * | 2018-08-31 | 2021-07-09 | 创新先进技术有限公司 | 基于定损图像判定模型的图像处理方法和装置 |
CN110569697A (zh) * | 2018-08-31 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 车辆的部件检测方法、装置及设备 |
CN110570316A (zh) | 2018-08-31 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 训练损伤识别模型的方法及装置 |
CN110567728B (zh) * | 2018-09-03 | 2021-08-20 | 创新先进技术有限公司 | 用户拍摄意图的识别方法、装置及设备 |
CN110569864A (zh) * | 2018-09-04 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 基于gan网络的车损图像生成方法和装置 |
CN109359542B (zh) * | 2018-09-18 | 2024-08-02 | 平安科技(深圳)有限公司 | 基于神经网络的车辆损伤级别的确定方法及终端设备 |
CN110569700B (zh) * | 2018-09-26 | 2020-11-03 | 创新先进技术有限公司 | 优化损伤识别结果的方法及装置 |
CN109389169A (zh) * | 2018-10-08 | 2019-02-26 | 百度在线网络技术(北京)有限公司 | 用于处理图像的方法和装置 |
CN109615649A (zh) * | 2018-10-31 | 2019-04-12 | 阿里巴巴集团控股有限公司 | 一种图像标注方法、装置及系统 |
CN109447071A (zh) * | 2018-11-01 | 2019-03-08 | 博微太赫兹信息科技有限公司 | 一种基于fpga和深度学习的毫米波成像危险物品检测方法 |
CN110033608B (zh) * | 2018-12-03 | 2020-12-11 | 创新先进技术有限公司 | 车辆损伤检测的处理方法、装置、设备、服务器和系统 |
CN109657599B (zh) * | 2018-12-13 | 2023-08-01 | 深源恒际科技有限公司 | 距离自适应的车辆外观部件的图片识别方法 |
CN109784171A (zh) * | 2018-12-14 | 2019-05-21 | 平安科技(深圳)有限公司 | 车辆定损图像筛选方法、装置、可读存储介质及服务器 |
WO2020121679A1 (ja) * | 2018-12-14 | 2020-06-18 | 富士フイルム株式会社 | ミニバッチ学習装置とその作動プログラムおよび作動方法 |
KR102097120B1 (ko) * | 2018-12-31 | 2020-04-09 | 주식회사 애자일소다 | 딥러닝 기반의 자동차 부위별 파손정도 자동 판정 시스템 및 방법 |
CN110569702B (zh) | 2019-02-14 | 2021-05-14 | 创新先进技术有限公司 | 视频流的处理方法和装置 |
CN110033386B (zh) * | 2019-03-07 | 2020-10-02 | 阿里巴巴集团控股有限公司 | 车辆事故的鉴定方法及装置、电子设备 |
CN110287768A (zh) * | 2019-05-06 | 2019-09-27 | 浙江君嘉智享网络科技有限公司 | 图像智能识别车辆定损方法 |
CN110363238A (zh) * | 2019-07-03 | 2019-10-22 | 中科软科技股份有限公司 | 智能车辆定损方法、系统、电子设备及存储介质 |
CN110473418B (zh) * | 2019-07-25 | 2022-05-20 | 平安科技(深圳)有限公司 | 危险路段识别方法、装置、服务器及存储介质 |
CN110688513B (zh) * | 2019-08-15 | 2023-08-18 | 平安科技(深圳)有限公司 | 基于视频的农作物查勘方法、装置及计算机设备 |
CN110969183B (zh) * | 2019-09-20 | 2023-11-21 | 北京方位捷讯科技有限公司 | 一种根据图像数据确定目标对象受损程度的方法及系统 |
CN110650292B (zh) * | 2019-10-30 | 2021-03-02 | 支付宝(杭州)信息技术有限公司 | 辅助用户拍摄车辆视频的方法及装置 |
AU2021204872A1 (en) | 2020-01-03 | 2022-08-04 | Tractable Ltd | Method of determining damage to parts of a vehicle |
JP7356941B2 (ja) * | 2020-03-26 | 2023-10-05 | 株式会社奥村組 | 管渠損傷特定装置、管渠損傷特定方法および管渠損傷特定プログラム |
CN111612104B (zh) * | 2020-06-30 | 2021-04-13 | 爱保科技有限公司 | 车辆定损图像获取方法、装置、介质和电子设备 |
CN111881321B (zh) * | 2020-07-27 | 2021-04-20 | 东来智慧交通科技(深圳)有限公司 | 一种基于人工智能的智慧城市安全监控方法 |
WO2022047736A1 (zh) * | 2020-09-04 | 2022-03-10 | 江苏前沿交通研究院有限公司 | 一种基于卷积神经网络的损伤检测方法 |
CN112492105B (zh) * | 2020-11-26 | 2022-04-15 | 深源恒际科技有限公司 | 一种基于视频的车辆外观部件自助定损采集方法及系统 |
CN112465018B (zh) * | 2020-11-26 | 2024-02-02 | 深源恒际科技有限公司 | 一种基于深度学习的车辆视频定损系统的智能截图方法及系统 |
CN112712498B (zh) * | 2020-12-25 | 2024-09-13 | 北京百度网讯科技有限公司 | 移动终端执行的车辆定损方法、装置、移动终端、介质 |
CN113033372B (zh) * | 2021-03-19 | 2023-08-18 | 北京百度网讯科技有限公司 | 车辆定损方法、装置、电子设备及计算机可读存储介质 |
EP4309124A1 (en) * | 2021-04-21 | 2024-01-24 | Siemens Mobility GmbH | Automated selection and semantic connection of images |
CN113033517B (zh) * | 2021-05-25 | 2021-08-10 | 爱保科技有限公司 | 车辆定损图像获取方法、装置和存储介质 |
CN113361426A (zh) * | 2021-06-11 | 2021-09-07 | 爱保科技有限公司 | 车辆定损图像获取方法、介质、装置和电子设备 |
CN113361424A (zh) * | 2021-06-11 | 2021-09-07 | 爱保科技有限公司 | 一种车辆智能定损图像获取方法、装置、介质和电子设备 |
US20230125477A1 (en) * | 2021-10-26 | 2023-04-27 | Nvidia Corporation | Defect detection using one or more neural networks |
CN118176515A (zh) * | 2021-11-09 | 2024-06-11 | 阿尔法人工智能科技有限公司 | 车辆损坏情况评估系统和方便车辆维修或维护服务的平台 |
US20230334866A1 (en) * | 2022-04-19 | 2023-10-19 | Tractable Ltd | Remote Vehicle Inspection |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981739A (ja) * | 1995-09-12 | 1997-03-28 | Toshiba Corp | 損害額算出システム及び損傷位置検出装置 |
JP2001188906A (ja) * | 1999-12-28 | 2001-07-10 | Hitachi Ltd | 画像自動分類方法及び画像自動分類装置 |
US7546219B2 (en) * | 2005-08-31 | 2009-06-09 | The Boeing Company | Automated damage assessment, report, and disposition |
US8379914B2 (en) | 2008-01-18 | 2013-02-19 | Mitek Systems, Inc. | Systems and methods for mobile image capture and remittance processing |
US20130297353A1 (en) | 2008-01-18 | 2013-11-07 | Mitek Systems | Systems and methods for filing insurance claims using mobile imaging |
CN101739611A (zh) * | 2009-12-08 | 2010-06-16 | 上海华平信息技术股份有限公司 | 一种高清远程协同车辆定损系统及方法 |
US20130262156A1 (en) | 2010-11-18 | 2013-10-03 | Davidshield L.I.A. (2000) Ltd. | Automated reimbursement interactions |
US20140229207A1 (en) * | 2011-09-29 | 2014-08-14 | Tata Consultancy Services Limited | Damage assessment of an object |
US8510196B1 (en) * | 2012-08-16 | 2013-08-13 | Allstate Insurance Company | Feedback loop in mobile damage assessment and claims processing |
US8712893B1 (en) * | 2012-08-16 | 2014-04-29 | Allstate Insurance Company | Enhanced claims damage estimation using aggregate display |
US20140114692A1 (en) * | 2012-10-23 | 2014-04-24 | InnovaPad, LP | System for Integrating First Responder and Insurance Information |
FR3007172B1 (fr) * | 2013-06-12 | 2020-12-18 | Renault Sas | Procede et systeme d'identification d'un degat cause a un vehicule |
US10748216B2 (en) | 2013-10-15 | 2020-08-18 | Audatex North America, Inc. | Mobile system for generating a damaged vehicle insurance estimate |
KR20150112535A (ko) | 2014-03-28 | 2015-10-07 | 한국전자통신연구원 | 비디오 대표 이미지 관리 장치 및 방법 |
US10423982B2 (en) | 2014-05-19 | 2019-09-24 | Allstate Insurance Company | Content output systems using vehicle-based data |
CN104268783B (zh) * | 2014-05-30 | 2018-10-26 | 翱特信息系统(中国)有限公司 | 车辆定损估价的方法、装置和终端设备 |
KR101713387B1 (ko) | 2014-12-29 | 2017-03-22 | 주식회사 일도엔지니어링 | 사진 자동 분류 및 저장 시스템 및 그 방법 |
KR101762437B1 (ko) | 2015-05-14 | 2017-07-28 | (주)옥천당 | 관능성이 개선된 커피 원두의 제조 방법 |
KR20160134401A (ko) * | 2015-05-15 | 2016-11-23 | (주)플래닛텍 | 자동차의 수리견적 자동산출시스템 및 그 방법 |
US10529028B1 (en) | 2015-06-26 | 2020-01-07 | State Farm Mutual Automobile Insurance Company | Systems and methods for enhanced situation visualization |
CN106407984B (zh) * | 2015-07-31 | 2020-09-11 | 腾讯科技(深圳)有限公司 | 目标对象识别方法及装置 |
GB201517462D0 (en) * | 2015-10-02 | 2015-11-18 | Tractable Ltd | Semi-automatic labelling of datasets |
CN105678622A (zh) * | 2016-01-07 | 2016-06-15 | 平安科技(深圳)有限公司 | 车险理赔照片的分析方法及系统 |
CN105719188B (zh) | 2016-01-22 | 2017-12-26 | 平安科技(深圳)有限公司 | 基于多张图片一致性实现保险理赔反欺诈的方法及服务器 |
US10692050B2 (en) * | 2016-04-06 | 2020-06-23 | American International Group, Inc. | Automatic assessment of damage and repair costs in vehicles |
CN105956667B (zh) * | 2016-04-14 | 2018-09-25 | 平安科技(深圳)有限公司 | 车险定损理赔审核方法及系统 |
US9922471B2 (en) | 2016-05-17 | 2018-03-20 | International Business Machines Corporation | Vehicle accident reporting system |
CN106021548A (zh) * | 2016-05-27 | 2016-10-12 | 大连楼兰科技股份有限公司 | 基于分布式人工智能图像识别的远程定损方法及系统 |
CN106127747B (zh) * | 2016-06-17 | 2018-10-16 | 史方 | 基于深度学习的汽车表面损伤分类方法及装置 |
CN106251421A (zh) * | 2016-07-25 | 2016-12-21 | 深圳市永兴元科技有限公司 | 基于移动终端的车辆定损方法、装置及系统 |
CN106296118A (zh) * | 2016-08-03 | 2017-01-04 | 深圳市永兴元科技有限公司 | 基于图像识别的车辆定损方法及装置 |
US10902525B2 (en) | 2016-09-21 | 2021-01-26 | Allstate Insurance Company | Enhanced image capture and analysis of damaged tangible objects |
CN106600421A (zh) * | 2016-11-21 | 2017-04-26 | 中国平安财产保险股份有限公司 | 一种基于图片识别的车险智能定损方法及系统 |
CN106600422A (zh) * | 2016-11-24 | 2017-04-26 | 中国平安财产保险股份有限公司 | 一种车险智能定损方法和系统 |
US10424132B2 (en) * | 2017-02-10 | 2019-09-24 | Hitachi, Ltd. | Vehicle component failure prevention |
CN107358596B (zh) | 2017-04-11 | 2020-09-18 | 阿里巴巴集团控股有限公司 | 一种基于图像的车辆定损方法、装置、电子设备及系统 |
CN107194323B (zh) * | 2017-04-28 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 车辆定损图像获取方法、装置、服务器和终端设备 |
US10470023B2 (en) | 2018-01-16 | 2019-11-05 | Florey Insurance Agency, Inc. | Emergency claim response unit |
US10997413B2 (en) * | 2018-03-23 | 2021-05-04 | NthGen Software Inc. | Method and system for obtaining vehicle target views from a video stream |
-
2017
- 2017-04-28 CN CN201710294010.4A patent/CN107194323B/zh active Active
- 2017-04-28 CN CN202010682172.7A patent/CN111914692B/zh active Active
-
2018
- 2018-03-14 TW TW107108570A patent/TW201839666A/zh unknown
- 2018-04-27 SG SG11201909740R patent/SG11201909740RA/en unknown
- 2018-04-27 JP JP2019558552A patent/JP6905081B2/ja active Active
- 2018-04-27 EP EP18791520.2A patent/EP3605386B1/en active Active
- 2018-04-27 WO PCT/CN2018/084760 patent/WO2018196837A1/zh unknown
- 2018-04-27 KR KR1020197033366A patent/KR20190139262A/ko not_active IP Right Cessation
-
2019
- 2019-10-16 US US16/655,001 patent/US11151384B2/en active Active
- 2019-10-23 PH PH12019502401A patent/PH12019502401A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
CN107194323A (zh) | 2017-09-22 |
SG11201909740RA (en) | 2019-11-28 |
JP2020518078A (ja) | 2020-06-18 |
US20200050867A1 (en) | 2020-02-13 |
CN107194323B (zh) | 2020-07-03 |
WO2018196837A1 (zh) | 2018-11-01 |
EP3605386A4 (en) | 2020-04-01 |
EP3605386A1 (en) | 2020-02-05 |
PH12019502401A1 (en) | 2020-12-07 |
CN111914692A (zh) | 2020-11-10 |
EP3605386B1 (en) | 2024-09-11 |
TW201839666A (zh) | 2018-11-01 |
US11151384B2 (en) | 2021-10-19 |
JP6905081B2 (ja) | 2021-07-21 |
CN111914692B (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20190139262A (ko) | 차량 손실 평가 이미지를 획득하기 위한 방법과 장치, 서버 및 단말기 디바이스 | |
US20200058075A1 (en) | Method and apparatus for obtaining vehicle loss assessment image, server and terminal device | |
US11423695B2 (en) | Face location tracking method, apparatus, and electronic device | |
US20210365707A1 (en) | Maintaining fixed sizes for target objects in frames | |
CN106651955B (zh) | 图片中目标物的定位方法及装置 | |
JPWO2019220622A1 (ja) | 画像処理装置、システム、方法及びプログラム | |
WO2019240988A1 (en) | Camera area locking | |
CN107395957B (zh) | 拍照方法、装置、存储介质及电子设备 | |
US12033347B2 (en) | Image processing system for extending a range for image analytics | |
CN114267041A (zh) | 场景中对象的识别方法及装置 | |
EP3109695B1 (en) | Method and electronic device for automatically focusing on moving object | |
CN106922181A (zh) | 方向感知自动聚焦 | |
CN104123716A (zh) | 检测图像稳定性的方法、装置和终端 | |
US20220122341A1 (en) | Target detection method and apparatus, electronic device, and computer storage medium | |
US11622073B2 (en) | Method of generating a panoramic image | |
WO2014169441A1 (en) | Method and system for eye tracking using combination of detection and motion estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
X601 | Decision of rejection after re-examination |