TW201840214A - 車輛損害圖像獲取方法、裝置、伺服器和終端設備 - Google Patents
車輛損害圖像獲取方法、裝置、伺服器和終端設備 Download PDFInfo
- Publication number
- TW201840214A TW201840214A TW107108571A TW107108571A TW201840214A TW 201840214 A TW201840214 A TW 201840214A TW 107108571 A TW107108571 A TW 107108571A TW 107108571 A TW107108571 A TW 107108571A TW 201840214 A TW201840214 A TW 201840214A
- Authority
- TW
- Taiwan
- Prior art keywords
- damaged
- image
- damaged part
- video
- vehicle
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 161
- 238000012545 processing Methods 0.000 claims abstract description 86
- 239000000284 extract Substances 0.000 claims abstract description 10
- 238000012216 screening Methods 0.000 claims abstract description 6
- 238000001914 filtration Methods 0.000 claims description 29
- 238000004891 communication Methods 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 5
- 230000002452 interceptive effect Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 238000013527 convolutional neural network Methods 0.000 description 13
- 230000006872 improvement Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 7
- 230000005291 magnetic effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000000047 product Substances 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000007795 chemical reaction product Substances 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/08—Insurance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Computing Systems (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Library & Information Science (AREA)
- Medical Informatics (AREA)
- Technology Law (AREA)
- Development Economics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Tourism & Hospitality (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
本申請實施例公開了一種車輛損害圖像獲取方法、裝置、伺服器和終端設備。用戶端獲取拍攝視頻資料,將所述拍攝視頻資料發送至伺服器;所述用戶端接收對受損車輛指定的受損部位的訊息,將所述受損部位的訊息發送至所述伺服器;所述伺服器接收所述用戶端上傳的拍攝視頻資料和受損部位的訊息,提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述受損部位的候選圖像分類集合;按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。利用本申請各個實施例,可以自動、快速的產生符合損害處理需求的高品質損害圖像,滿足損害處理需求,提高損害圖像的獲取效率。
Description
本申請屬於電腦圖像資料處理技術領域,尤其涉及一種車輛損害圖像獲取方法、裝置、伺服器和終端設備。
發生車輛交通事故後,保險公司需要若干損害圖像來對出險車輛進行損害核損,並進行出險的資料進行存檔。 目前車輛損害的圖像通常是由作業人員現場進行拍照獲得,然後根據現場拍照的照片進行車輛損害處理。車輛損害的圖像要求需要能夠清楚的反應出車輛受損的具體部位、損傷部件、損傷類型、損傷程度等訊息,這通常需要拍照人員具有專業車輛損害的相關知識,才能拍照獲取符合損害處理要求的圖像,這顯然需要比較大的人力培訓和損害處理的經驗成本。尤其是在一些發生車輛交通事故後需要儘快撤離或移動車輛現場的情況下,保險公司作業人員趕到事故現場需要耗費較長的時間。並且,如果車主用戶主動或者在保險公司作業人員要求下先行拍照,獲取一些原始損害圖像,由於非專業行,車主用戶拍照獲得的損害圖像常常不符合損害影像處理要求。另外,作業人員現場拍照獲得的圖像往往也需要後期再次從拍攝設備匯出,進行人工篩選,確定需要的損害圖像,這同樣需要消耗較大人力和時間,進而降低最終損害處理需要的損害圖像的獲取效率。 現有的保險公司作業人員或車主用戶現場拍照獲取損害圖像的方式,需要專業的車輛損害的相關知識,人力和時間成本較大,獲取符合損害處理需求的損害圖像的方式效率仍然較低。
本申請目的在於提供一種車輛損害圖像獲取方法、裝置、伺服器和終端設備,通過拍攝者對受損車輛的受損部位進行視頻拍攝,可以自動、快速的產生符合損害處理需求的高品質損害圖像,滿足損害處理需求,提高損害圖像的獲取效率,便於作業人員作業。 本申請提供的一種車輛損害圖像獲取方法、裝置、伺服器和終端設備是這樣實現的: 一種車輛損害圖像獲取方法,包括: 用戶端獲取拍攝視頻資料,將所述拍攝視頻資料發送至伺服器; 所述用戶端接收對受損車輛指定的受損部位的訊息,將所述受損部位的訊息發送至所述伺服器; 所述伺服器接收所述用戶端上傳的拍攝視頻資料和受損部位的訊息,提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 一種車輛損害圖像獲取方法,所述方法包括: 接收終端設備上傳的受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 一種車輛損害圖像獲取方法,所述方法包括: 對受損車輛進行視頻拍攝,獲取拍攝視頻資料; 接收對所述受損車輛指定的受損部位的訊息; 將所述拍攝視頻資料和所述受損部位的訊息發送至處理終端; 接收所述處理終端返回的對所述受損部位即時跟蹤的位置區域,在視頻拍攝過程中即時顯示所述跟蹤的位置區域。 一種車輛損害圖像獲取方法,所述方法包括: 接收受損車輛的拍攝視頻資料 ; 接收對所述受損車輛指定的受損部位的訊息,基於所述受損部位的訊息對所述拍攝視頻資料中的視頻圖像進行識分類,確定所述受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 一種車輛損害圖像獲取裝置,所述裝置包括: 資料接收模組,用於接收終端設備上傳的受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 識別分類別模組,用於提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合; 篩選模組,用於按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 一種車輛損害圖像獲取裝置,所述裝置包括: 拍攝模組,用於對受損車輛進行視頻拍攝,獲取拍攝視頻資料; 交互模組,用於接收對所述受損車輛指定的受損部位的訊息; 通信模組,用於將所述拍攝視頻資料和所述受損部位的訊息發送至處理終端; 跟蹤模組,用於接收所述處理終端返回的對所述受損部位即時跟蹤的位置區域,在視頻拍攝過程中即時顯示所述跟蹤的位置區域。 一種車輛損害圖像獲取裝置,包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時實現: 接收受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時實現以下步驟: 接收對受損車輛進行視頻拍攝的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 基於所述受損部位的訊息對所述拍攝視頻資料中的視頻圖像進行識分類,確定所述受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時實現以下步驟: 對受損車輛進行視頻拍攝,獲取拍攝視頻資料; 接收對所述受損車輛指定的受損部位的訊息; 將所述拍攝視頻資料和所述受損部位的訊息發送至處理終端; 接收所述處理終端返回的對所述受損部位即時跟蹤的位置區域,在視頻拍攝過程中即時顯示所述跟蹤的位置區域。 一種伺服器,包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時實現: 接收終端設備上傳的受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位;提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合;按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 一種終端設備,包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時實現: 獲取對受損車輛進行視頻拍攝的拍攝視頻資料; 接收對所述受損車輛指定的受損部位的訊息; 基於所述受損部位的訊息對所述拍攝視頻資料中的視頻圖像進行識分類,確定所述受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 本申請提供的一種車輛損害圖像獲取方法、裝置、伺服器和終端設備,提出了基於視頻的車輛損害圖像自動產生方案。拍攝者可以通過終端設備對受損車輛進行視頻拍攝,並指定受損車輛的受損部位。拍攝的視頻資料可以傳輸到系統的伺服器,伺服器再對視頻資料進行分析,獲取損害所需的不同類別的候選圖像,然後可以從候選圖像中產生受損車輛的損害圖像。利用本申請實施方案,可以自動、快速的產生符合損害處理需求的高品質損害圖像,滿足損害處理需求,提高損害圖像的獲取效率,同時也減少了保險公司作業人員的損害圖像獲取和處理成本。
為了使本技術領域的人員更好地理解本申請中的技術方案,下面將結合本申請實施例中的附圖,對本申請實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本申請一部分實施例,而不是全部的實施例。基於本申請中的實施例,本領域普通技術人員在沒有作出創造性勞動前提下所獲得的所有其他實施例,都應當屬於本申請保護的範圍。 圖1是本申請所述一種車輛損害圖像獲取方法實施例的流程示意圖。雖然本申請提供了如下述實施例或附圖所示的方法操作步驟或裝置結構,但基於常規或者無需創造性的勞動在所述方法或裝置中可以包括更多或者部分合併後更少的操作步驟或模組單元。在邏輯性上不存在必要因果關係的步驟或結構中,這些步驟的執行順序或裝置的模組結構不限於本申請實施例或附圖所示的執行順序或模組結構。所述的方法或模組結構的在實際中的裝置、伺服器或終端產品應用時,可以按照實施例或者附圖所示的方法或模組結構進行循序執行或者並存執行(例如並行處理器或者多執行緒處理的環境、甚至包括分散式處理、伺服器集群的實施環境)。 為了清楚起見,下述實施例以具體的一個拍攝者通過移動終端進行視頻拍攝、伺服器對拍攝視頻資料進行處理獲取損害圖像的實施場景進行說明。拍攝者可以為保險公司作業人員,拍攝者手持移動終端對受損車輛進行視頻拍攝。所述的移動終端可以包括手機、平板電腦,或者其他有視頻拍攝功能和資料通信功能的通用或專用設備。所述的移動終端和伺服器可以部署有相應的應用模組(如移動終端安裝的某個車輛損害APP(application,應用),以實現相應的資料處理。但是,本領域技術人員能夠理解到,可以將本方案的實質精神應用到獲取車輛損害圖像的其他實施場景中,如拍攝者也可以為車主用戶,或者移動終端拍攝後直接在移動終端一側對視頻資料進行處理並獲取損害圖像等。 具體的一種實施例如圖1所示,本申請提供的一種車輛損害圖像獲取方法的一種實施例中,所述方法可以包括: S1:用戶端獲取拍攝視頻資料,將所述拍攝視頻資料發送至伺服器。 所述的用戶端可以包括具有視頻拍攝功能和資料通信功能的通用或專用設備,如手機、平板電腦等的終端設備。本實施例其他的實施場景中,所述的用戶端也可以包括具有資料通信功能的固定電腦設備(如PC端)和與其連接的可移動的視頻拍攝設備,兩者組合後視為本實施例的一種用戶端的終端設備。拍攝者通過用戶端拍攝視頻資料,所述的拍攝視頻資料可以傳輸到伺服器。所述的伺服器可以包括對所述視頻資料中的幀圖像進行分析處理並確定出損害圖像的處理設備。所述伺服器可以包括具有圖像資料處理和資料通信功能的邏輯單元裝置,如本實施例應用場景的伺服器。從資料交互的角度來看,所述伺服器是相對於所述用戶端作為第一終端設備時的另一個與第一終端設備進行資料通信的第二終端設備,因此,為以便描述,在此可以將對車輛視頻拍攝產生拍攝視頻資料的一側稱為用戶端,將對所述拍攝視頻資料進行處理產生損害圖像的一側稱為伺服器。本申請不排除在一些實施例中所述的用戶端與伺服器為物理連接的同一終端設備。 本申請的一些實施方式中,用戶端拍攝得到的視頻資料可以即時傳輸到伺服器,以便於伺服器快速處理。其他的實施方式中,也可以在用戶端視頻拍攝完成後再傳輸至伺服器。如拍攝者使用的移動終端當前沒有網路連接,則可以先進行視頻拍攝,等連接上移動蜂窩資料或WLAN(Wireless Local Area Networks,無線局域網)或者專有網路後再進行傳輸。當然,即使在用戶端可以與伺服器進行正常資料通信的情況下,也可以將拍攝視頻資料非同步傳輸至伺服器。 需要說明的是,本實施例中拍攝者對車輛受損部位進行拍攝獲取的拍攝視頻資料,可以為一個視頻片段,也可以為多個視頻片段。如對同一個受損部位進行了多次不同角度和遠近距離的拍攝產生的多段拍攝視頻資料,或者對不同的受損部位分別進行拍攝得到各個受損部位的拍攝視頻資料。當然,一些實施場景下,也可以圍繞受損車輛的各個受損部位進行一次完整拍攝,得到一個相對時間較長的視頻片段。 S2:所述用戶端接收對受損車輛指定的受損部位的訊息,將所述受損部位的訊息發送至所述伺服器。 在本實施例實施方式中,拍攝者對受損車輛進行視頻拍攝時,可以採用對話模式在所述用戶端上指定視頻圖像中受損車輛的受損部位,該受損部位佔據視頻圖像上的一塊區域,並有相應的區域訊息,如受損部位所在區域的位置和大小等。用戶端可以將拍攝者指定的受損部位的訊息傳輸給伺服器。 在本實施例應用場景中,拍攝者使用移動終端圍繞受損車輛緩慢移動拍攝視頻車輛。在拍到受損部位時,可以在移動終端的顯示幕上互動式指定受損部位在視頻圖像中的區域,具體的可以通過手指在顯示幕點擊受損部位,或者通過手指滑動畫出一片區域,如將受損部位圈住,形成一個手指滑動的圓圈軌跡,如圖2所示,圖2是本申請所述方法一個實施例中指定受損部位的場景示意圖。 一種實施中,所述發送給伺服器的受損部位的形狀和大小可以與拍攝者在用戶端上畫出的相同。其他的實施方式中,也可以預先默認設定受損部位的形狀格式,如矩形,為保障受損圖像的格式統一,則可以產生包含拍攝者畫出的受損部位的最小面積的矩形區域。具體的一個示例中如圖3所示,圖3是本申請所述方法另一個實施例中確定受損部位的場景示意圖,當拍攝者與用戶端交互指定受損部位時,通過手指滑動畫出一個橫坐標跨度為540圖元、縱坐標跨度為190圖元的不規則軌跡,則可以產生一個540*190圖元的矩形受損部位的區域。然後將該矩形受損部位的區域訊息發送給伺服器。 拍攝者在用戶端上指定車輛受損部位時,確定出的受損部位的位置區域可以即時顯示在用戶端上,以便於用戶觀察和確認受損部位。拍攝者可以通過用戶端指定受損部位在圖像中對應的位置區域,伺服器可以自動跟蹤指定受損部位,並且隨著拍攝距離和角度變化,該受損部位在視頻圖像中對應的位置區域大小和位置也可以相應的變化。 另一種實施方式中,拍攝者可以互動式修改受損部位的位置和大小。例如用戶端根據拍攝者的滑動軌跡確定受損部位的位置區域。若拍攝者認為預設產生的位置區域未能全部覆蓋受損部位,需要調整,則可以在用戶端上調整該位置區域的位置和大小。如長按受損部位選擇該位置區域後,進行移動,調整受損部位的位置,或者拉伸受損部位位置區域的邊框調整大小等。拍攝者在用戶端調整修改受損部位的位置區域後可以產生新的受損部位,然後將新的受損部位發送給伺服器。 這樣,拍攝者可以方便、靈活根據實際現場受損部位情況調整受損部位在視頻圖像中的位置區域,更準確的定位受損部位,便於伺服器更準確可靠的獲取高品質的損害圖像。 確定出拍攝者指定的受損部位,將該受損部位的訊息發送給伺服器進行處理。 S3:所述伺服器接收所述用戶端上傳的拍攝視頻資料和受損部位的訊息,提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述受損部位的候選圖像分類集合。 車輛損害常常需要不同類別的圖像資料,如整車的不同角度的圖像、能展示出受損部件的圖像、具體受損部位的近景細節圖等。本申請在獲取損害圖像的處理中,可以對視頻圖像進行識別,如是否為受損車輛的圖像、識別圖像中包含的車輛部件、包含一個還是多個車輛部件、車輛部件上是否有損傷等等。本申請實施例的一個場景中,可以將車輛損害需要的損害圖像相應的分為不同的類別,其他不符合損害圖像要求的可以單獨另分為一個類別。具體的可以提取拍攝視頻的每一幀圖像,對每一幀圖像進行識別後分類,形成受損部位的候選圖像分類集合。 本申請提供所述方法的另一種實施例中,確定出的所述候選圖像分類集合可以包括: S301:顯示受損部位的近景圖像集合、展示受損部位所屬車輛部件的部件圖像集合。 近景圖像集合中包括了受損部位的近景圖像,部件圖像集合中包括了受損車輛的受損部件,受損部件上有至少一處受損部位。具體的在本實施例應用場景中,拍攝者可以對指定的受損部位進行由近到遠(或者由遠到近)的拍攝,可以通過拍攝者移動或者變焦來完成。伺服器端可以對拍攝視頻中的幀圖像(可以是對每一幀圖像進行處理,也可以選取一段視頻的幀圖像進行處理)進行分類和識別。在本實施例應用場景中,可以將拍攝視頻的視頻圖像分成包括下述的3類,具體的包括: a:近景圖,為受損部位的近景圖像,能清晰顯示受損部位的細節訊息; b:部件圖,包含受損部位,並能展示受損部位所在的車輛部件; c:a類和b類都不滿足的圖像。 具體的,可以根據損害圖像中受損部位近景圖像的需求來確定a類圖像的識別演算法/分類要求等。本申請在a類圖像的識別處理過程中,一種實施方式中可以通過受損部位在當前所在的視頻圖像中所占區域的大小(面積或區域跨度)來識別確定。如果受損部位在視頻圖像中的佔有較大區域(如大於一定臨限值,比如長或者寬大於四分之一視頻圖像大小),則可以確定該視頻圖像為a類圖像。本申請提供的另一種實施方式中,如果在屬於同一個受損部件的已分析處理幀圖像中,當前受損部位相對於包含所述當前受損部位的其他已分析處理幀圖像的區域面積相對較大(處於一定比例或TOP範圍內),則可以確定該當前幀圖像為a類圖像。因此,本申請所述方法的另一種實施例中,可以採用下述中的至少一種方式確定所述近景圖像集合中的視頻圖像: S3011:受損部位在所屬視頻圖像中所占區域的面積比值大於第一預設比例: S3012:受損部位的橫坐標跨度與所屬視頻圖像長度的比值大於第二預設比例,和/或,受損部位的縱坐標與所屬視頻圖像高度的比例大於第三預設比例; S3013:從相同受損部位的視頻圖像中,選擇受損部位的面積降冪後的前K張視頻圖像,或者所述面積降冪後屬於第四預設比例內的視頻圖像,K≥1。 a類型的受損細節圖像中受損部位通常佔據較大的區域範圍,通過S3011中第一預設比例的設置,可以很好的控制受損部位細節圖像的選取,得到符合處理需求的a類型圖像。a類型圖像中受損區域的面積可以通過所述受損區域所述包含的圖元點統計得到。 另一個實施方式S3012中,也可以根據受損部位相對於視頻圖像的座標跨度來確認是否為a類型圖像。例如一個示例中,視頻圖像為800*650圖元,受損車輛的損傷的兩條較長的劃痕,該劃痕對應的橫坐標跨度長600圖元,每條劃痕的跨度卻很窄。雖然此時受損部位的區域面積不足所屬視頻圖像的十分之一,但因該受損部位的橫向跨度600圖元占整個視頻圖像長度800圖元的四分之三,則此時可以將該視頻圖像標記為a類型圖像,如圖4所示,圖4是本申請一個實施例中基於指定的受損部位確定為近景圖像的示意圖。 S3013中實施方式中,所述的受損部位的面積可以為S3011中的受損部位的區域面積,也可以為受損部位長或者高的跨度數值。 當然,也可以結合上述多種方式來識別出a類圖像,如受損部位的區域面積既滿足佔用一定比例的視頻圖像,又在所有的相同受損區域圖像中屬於區域面積最大的第四預設比例範圍內。本實施例場景中所述的 a類圖像通常包含受損部位的全部或者部分細節圖像訊息。 上述中所述的第一預設比例、第二預設比例、第三預設比例、第四預設比例等具體的可以根據圖像識別精度或分類精度或其他處理需求等進行相應的設置,例如所述第二預設比例或第三預設比例取值可以為四分之一。 b類圖像的識別處理的一種實現方式上,可以通過構建的車輛部件檢測模型來識別視頻圖像中所包括的部件(如前保險杠、左前葉子板、右後門等)和其所在的位置。如果受損部位處於檢測出的受損部件上,則可以確認該視頻圖像屬於b類圖像。 本實施例中所述的部件檢測模型使用深度神經網路檢測出部件和部件在圖像中的區域。本申請的一個實施例中可以基於卷積神經網路(Convolutional Neural Network,CNN)和區域建議網路(Region Proposal Network,RPN),結合池化層、全連接層等構建所述部件損傷識別模型。例如部件識別模型中,可以使用基於卷積神經網路和區域建議網路的多種模型和變種,如Faster R-CNN、YOLO、Mask-FCN等。其中的卷積神經網路(CNN)可以用任意CNN模型,如ResNet、Inception, VGG等及其變種。通常神經網路中的卷積網路(CNN)部分可以使用在物體識別取得較好效果的成熟網路結構,如Inception、ResNet等網路,如ResNet網路,輸入為一張圖片,輸出為多個部件區域,和對應的部件分類和置信度(這裡的置信度為表示識別出來的車輛部件真實性程度的參量)。faster R-CNN、YOLO、Mask-FCN等都是屬於本實施例可以使用的包含卷積層的深度神經網路。本實施例使用的深度神經網路結合區域建議層和CNN層能檢測出所述待處理圖像中的車輛部件,並確認所述車輛部件在待處理圖像中的部件區域。具體的,本申請可以卷積網路(CNN)部分可以使用在物體識別取得很好效果的成熟網路結構,ResNet網路,該模型參數可以通過使用打標資料進行小批量梯度下降(mini-batch gradient descent)訓練得到。 一種應用場景中,如果同一個視頻圖像同時滿足a類和b類圖像的判斷邏輯,則可以同時屬於a類和b類圖像。 所述伺服器可以提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位在視頻圖像中的位置區域訊息對所述視頻圖像進行分類,確定所述指定的受損部位的候選圖像分類集合。 S4:按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 可以根據損害圖像的類別、清晰度等從所述候選圖像分類集合中選取符合預設篩選條件的圖像作為損害圖像。所述的預設篩選條件可以自訂的設置,例如一種實施方式中,可以在a類和b類圖像中根據圖像的清晰度,分別選取多張(比如5或10張)清晰度最高,並且拍攝角度不一樣的圖像作為指定受損部位的損害圖像。圖像的清晰度可以通過對受損部位和檢測出來的車輛部件所在的圖像區域進行計算,例如可以使用基於空間域的運算元(如Gabor運算元)或者基於頻域的運算元(如快速傅立葉轉換)等方法得到。對於a類圖像中,通常需要保證一張或多個圖像組合後可以顯示受損部位中的全部區域,這樣可以保障得到全面的受損區域訊息。 本申請提供的一種車輛損害圖像獲取方法,提供基於視頻的車輛損害圖像自動產生方案。拍攝者可以通過終端設備對受損車輛進行視頻拍攝,並指定受損車輛的受損部位。拍攝的視頻資料可以傳輸到系統的伺服器端,系統在伺服器端再對視頻資料進行分析,獲取損害所需的不同類別的候選圖像,然後可以從候選圖像中產生受損車輛的損害圖像。利用本申請實施方案,可以自動、快速的產生符合損害處理需求的高品質損害圖像,滿足損害處理需求,提高損害圖像的獲取效率,同時也減少了保險公司作業人員的損害圖像獲取和處理成本。 本申請所述方法的一個實施例中,所述用戶端拍攝的視頻傳輸給伺服器,伺服器可以根據受損部位即時跟蹤受損部位在視頻中的位置。如在上述實施例場景中,因為車輛為靜止物體,移動終端在跟隨拍攝者移動,此時可以採用一些圖像演算法求得拍攝視頻相鄰幀圖像之間的對應關係,比如使用基於光流(optical flow)的演算法,實現完成對受損部位的跟蹤。如果移動終端存在比如加速度儀和陀螺儀等傳感器,則可以結合這些傳感器的訊號資料進一步確定拍攝者運動的方向和角度,實現更加精確的對受損部位的跟蹤。因此,本申請所述方法的另一種實施例中,還可以包括: S200:伺服器即時跟蹤所述受損部位在所述拍攝視頻資料中的位置區域; 以及,在所述伺服器判斷所述受損部位脫離視頻圖像後重新進入視頻圖像時,基於所述受損部位的圖像特徵資料重新對所述受損部位的位置區域進行定位和跟蹤。 伺服器可以提取受損區域的圖像特徵資料,比如SIFT特徵資料(Scale-invariant feature transform,尺度不變特徵變換)。如果受損部位脫離視頻圖像後重新進入視頻圖像,系統能自動定位和繼續跟蹤,例如拍攝設備斷電後重啟或者拍攝區域位移到無損傷部位後又返回再次拍攝相同損傷部位。 拍攝者在用戶端上指定車輛受損部位時,確定出的受損部位的位置區域可以即時顯示在用戶端上,以便於用戶觀察和確認受損部位。拍攝者通過用戶端指定受損部位在圖像中對應的位置區域,伺服器可以自動跟蹤指定受損部位,並且隨著拍攝距離和角度變化,該受損部位在視頻圖像中對應的位置區域大小和位置也可以相應的變化。這樣,伺服器一側可以即時展示用戶端跟蹤的受損部位,便於伺服器的作業人員觀察和使用。 另一種實施方式中,伺服器在即時跟蹤時可以將跟蹤的所述受損部位的位置區域發送給用戶端,這樣用戶端可以與伺服器同步即時顯示所述受損部位,以便於拍攝者觀察伺服器定位跟蹤的受損部位。因此,所述方法的另一個實施例中,還可以包括: S210:所述伺服器將跟蹤的所述受損部位的位置區域發送給所述用戶端,以使用戶端即時顯示所述受損部位的位置區域。 另一種實施方式中,拍攝者可以互動式修改受損部位的位置和大小。例如用戶端根據拍攝者的滑動軌跡確定受損部位的位置區域。若拍攝者認為預設產生的位置區域未能全部覆蓋受損部位,需要調整,則可以再調整該位置區域的位置和大小,如長按受損部位選擇該位置區域後,進行移動,調整受損部位的位置,或者拉伸受損部位位置區域的邊框可以調整大小等。拍攝者在用戶端調整修改受損部位的位置區域後可以產生新的受損部位,然後將新的受損部位發送給伺服器。同時,伺服器可以同步更新用戶端修改後的新的受損部位。伺服器可以根據新的受損部位對後續的視頻圖像進行識別處理。具體的,本申請提供的所述方法的另一種實施例中,所述方法還可以包括: S220:接收所述用戶端發送的新的受損部位,所述新的受損部位包括所述用戶端基於接收的交互指令修改所述指定的受損部位的位置區域後重新確定的受損部位; 相應的,所述基於所述受損部位的訊息對所述視頻圖像進行分類包括基於所述新的受損部位對視頻圖像進分類。 這樣,拍攝者可以方便、靈活根據實際現場受損部位情況調整受損部位在視頻圖像中的位置區域,更準確的定位受損部位,便於伺服器獲取高品質的損害圖像。 所述方法的另一個應用場景中,在拍攝受損部位的近景時,拍攝者可以對其從不同角度的連續拍攝。伺服器一側可以根據受損部位的跟蹤,求得每幀圖像的拍攝角度,進而選取一組不同角度的視頻圖像作為該受損部位的損害圖像,從而確保損害圖像能準確的反應出受損的類型和程度。因此,本申請所述方法的另一個實施例中,所述按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像包括: S401:從指定的所述受損部位候選圖像分類集合中,根據視頻圖像的清晰度和所述受損部位的拍攝角度,分別選取至少一張視頻圖像作為所述受損部位的損害圖像。 比如在一些事故現場中,部件變形在某些角度會相對於其他角度非常明顯,或者如果受損部件有反光或者倒影,反光或者倒影會隨著拍攝角度變化而變化等,而利用本申請實施方案選取不同角度的圖像作為損害圖像,可以大幅減少這些因素對損害的干擾。可選的,如果用戶端存在比如加速度儀和陀螺儀等傳感器,也可以通過這些傳感器的訊號得到或者輔助計算得到拍攝角度。 具體的一個示例中,可以產生多個候選圖像分類集合,但在具體選取損害圖像時可以僅適用其中的一個或多個類型的候選圖像分類集合,如上述所示的a類、b類和c類。選取最終需要的損害圖像時,可以指定從a類和b類的候選圖像分類集合中選取。在a類和b類圖像中,可以根據視頻圖像的清晰度,分別選取多張(比如同一個部件的圖像選取5張,同一個受損部位的圖像選取10張)清晰度最高,並且拍攝角度不一樣的圖像作為損害圖像。圖像的清晰度可以通過對受損部位和檢測出來的車輛部件部位所在的圖像區域進行計算,例如可以使用基於空間域的運算元(如Gabor運算元)或者基於頻域的運算元(如快速傅立葉轉換)等方法得到。一般的,對於a類圖像,需要保證受損部位中的任意區域至少在一張圖像中存在。 在本申請所述方法的一種應用場景中,拍攝者在移動終端視頻拍攝時可以每次指定一個受損部位,然後傳輸至伺服器進行處理,產生該受損部位的損害圖像。另一種實施場景中,如果受損車輛存在多個受損部位,並且受損部位的距離很近,則用戶可以同時指定多個受損部位。伺服器可以同時跟蹤這多個受損部位,並產生每個受損部位的損害圖像。伺服器對拍攝者指定的所有的受損部位都按照上述處理獲取每個受損部位的損害圖像,然後可以將所有產生的損害圖像作為整個受損車輛的損害圖像。圖5是本申請所述方一種車輛損害圖像獲取方法的處理場景示意圖,如圖5所示,受損部位A和受損部位B距離較近,則可以同時進行跟蹤處理,但受損部位C位於受損車輛的另一側,在拍攝視頻中距離受損部位A和受損部位B較遠,則可以先不跟蹤受損部位C,等受損部位A和受損部位B拍攝完後再單獨拍攝受損部位C。因此本申請所述方法的另一個實施例中,若所接收到指定的至少兩個受損部位 ,則可以判斷所述至少兩個受損部位的距離是否符合設置的鄰近條件; 若是,則同時跟蹤所述至少兩個受損部位,並分別產生相應的損害圖像。 所述的鄰近條件可以根據同一個視頻圖像中受損部位的個數、受損部位的大小、受損部位之間的距離等進行設置。 如果伺服器檢測到所述受損部位的近景圖像集合、部件圖像集合中的至少一個為空,或者所述近景圖像集合中的視頻圖像未覆蓋到對應受損部位的全部區域時,則可以產生視頻拍攝提示消息,然後可以向對應於所述拍攝視頻資料的用戶端發送所述視頻拍攝提示消息。 例如上述示例實施場景中,如果伺服器無法得到能確定受損部位所在車輛部件的b類損害圖像,則可以回饋給拍攝者,提示其拍攝包括受損部位在內的相鄰多個車輛部件,從而確保得到(b)類損害圖像。如果伺服器無法得到a類損害圖像,或者a類圖像沒能覆蓋到受損部位的全部區域,則可以回饋給拍攝者,提示其拍攝受損部位的近景。 本申請所述方法的其他實施例中,如果伺服器檢測出拍攝的視頻圖像清晰度不足(低於一個事先設定的臨限值或者低於最近一段拍攝視頻中的平均清晰度),則可以提示拍攝者緩慢移動,保證拍攝圖像品質。例如回饋到移動終端APP上,提示用戶拍攝圖像時注意對焦,光照等影響清晰度的因素,如顯示提示訊息“速度過快,請緩慢移動,以保障圖像品質”。 可選的,伺服器可以保留產生損害圖像的視頻片段,以便於後續的查看和驗證等。或者用戶端可以在視頻圖像拍攝後將損害圖像批量上傳或者拷貝到遠端伺服器。 上述實施例所述車輛損害圖像獲取方法,提出了基於視頻的車輛損害圖像自動產生方案。拍攝者可以通過終端設備對受損車輛進行視頻拍攝,並指定受損車輛的受損部位。拍攝的視頻資料可以傳輸,獲取損害所需的不同類別的候選圖像。然後可以從候選圖像中產生受損車輛的損害圖像。利用本申請實施方案,可以自動、快速的產生符合損害處理需求的高品質損害圖像,滿足損害處理需求,提高損害圖像的獲取效率,同時也減少了保險公司作業人員的損害圖像獲取和處理成本。 上述實施例從用戶端與伺服器交互的實施場景中描述了本申請通過受損車輛拍攝視頻資料自動獲取損害圖像的實施方案。基於上述所述,本申請提供一種可以用於伺服器一側的車輛損害圖像獲取方法,圖6是本申請所述方法另一個實施例的流程示意圖,如圖6所示,可以包括: S10:接收終端設備上傳的受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; S11:提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合; S12:按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 所述的終端設備可以為前述實施例所述的用戶端,但本申請不排除可以為其他的終端設備,如資料庫系統、協力廠商伺服器、快閃記憶體等。在本實施例中,伺服器接收用戶端上傳的或者拷貝來的對受損車輛進行拍攝獲取的拍攝視頻資料後,可以根據拍攝者對受損車輛指定的受損部位的訊息對視頻圖像進行識別和分類。然後通過篩選自動產生車輛的損害圖像。利用本申請實施方案,可以自動、快速的產生符合損害處理需求的高品質損害圖像,滿足損害處理需求,提高損害圖像的獲取效率,便於作業人員作業。 車輛損害常常需要不同類別的圖像資料,如整車的不同角度的圖像、能展示出受損部件的圖像、具體受損部位的近景細節圖等。本申請的一個實施例中,可以將需要的損害圖像相應的分為不同的類別,具體的所述方法另一個實施例中,確定出的所述候選圖像分類集合具體的可以包括: 顯示受損部位的近景圖像集合、展示受損部位所屬車輛部件的部件圖像集合。 一般的,所述部件圖像集合中的視頻圖像中包括至少一處受損部位,如上述所述的a類近景圖、b類部件圖、a類和b類都不滿足的c類圖像。 所述一種車輛損害圖像獲取方法的另一個實施例中,可以採用下述中的至少一種方式確定所述近景圖像集合中的視頻圖像: 受損部位在所屬視頻圖像中所占區域的面積比值大於第一預設比例: 受損部位的橫坐標跨度與所屬視頻圖像長度的比值大於第二預設比例,和/或,受損部位的縱坐標與所屬視頻圖像高度的比例大於第三預設比例; 從相同受損部位的視頻圖像中,選擇受損部位的面積降冪後的前K張視頻圖像,或者所述面積降冪後屬於第四預設比例內的視頻圖像,K≥1。 具體的可以根據損害處理所需的受損部位近景圖像的要求來確定a類圖像的識別演算法/分類要求等。本申請在a類圖像的識別處理過程中,一種實施方式中可以通過受損部位在當前所在的視頻圖像中所占區域的大小(面積或區域跨度)來識別確定。如果受損部位在視頻圖像中的佔有較大區域(如大於一定臨限值,比如長或者寬大於四分之一視頻圖像大小),則可以確定該視頻圖像為a類圖像。本申請提供的另一種實施方式中,如果在對該受損部位所在的受損部件的其他已分析處理的當前幀圖像中,該受損部位相對於其他相同受損部位的區域面積相對較大(處於一定比例或TOP範圍內),則可以確定該當前幀圖像為a類圖像。 所述一種車輛損害圖像獲取方法另一個實施例中,還可以包括: 若檢測到所述受損部位的近景圖像集合、部件圖像集合中的至少一個為空,或者所述近景圖像集合中的視頻圖像未覆蓋到對應受損部位的全部區域時,產生視頻拍攝提示消息; 向所述終端設備發送所述視頻拍攝提示消息。 所述的終端設備可以為前述與伺服器交互的用戶端,如手機。 所述一種車輛損害圖像獲取方法另一個實施例中,所述方法還可以包括: 即時跟蹤所述受損部位在所述拍攝視頻資料中的位置區域; 以及,在所述受損部位脫離視頻圖像後重新進入視頻圖像時,基於所述受損部位的圖像特徵資料重新對所述受損部位的位置區域進行定位和跟蹤。 重新定位和跟蹤的受損部位的位置區域可以顯示在伺服器上。 所述一種車輛損害圖像獲取方法另一個實施例中,所述方法還可以包括: 將跟蹤的所述受損部位的位置區域發送至所述終端設備,以使所述終端設備即時顯示所述受損部位的位置區域。 拍攝者在用戶端上指定車輛受損部位時,確定出的受損部位的位置區域可以即時顯示在用戶端上,以便於用戶觀察和確認受損部位。拍攝者通過用戶端指定受損部位在圖像中對應的位置區域,伺服器可以自動跟蹤指定受損部位,將跟蹤的所述受損部位的位置區域發送應於所述拍攝視頻資料的終端設備。 另一種實施方式中,拍攝者可以互動式修改受損部位的位置和大小。例如用戶端根據拍攝者的滑動軌跡確定受損部位的位置區域。若拍攝者認為預設產生的位置區域未能全部覆蓋受損部位,需要調整,則可以再調整該位置區域的位置和大小,如長按受損部位選擇該位置區域後,進行移動,調整受損部位的位置,或者拉伸受損部位位置區域的邊框可以調整大小等。拍攝者在用戶端調整修改受損部位的位置區域後可以產生新的受損部位,然後將新的受損部位發送給伺服器。同時,伺服器可以同步更新用戶端修改後的新的受損部位。伺服器可以根據新的受損部位對後續的視頻圖像進行識別處理。因此,所述一種車輛損害圖像獲取方法另一個實施例中,所述方法還可以包括: 接收所述終端設備發送的新的受損部位,所述新的受損部位包括所述終端設備基於接收的交互指令修改所述指定的受損部位的位置區域後重新確定的受損部位; 相應的,所述基於所述受損部位的訊息對所述視頻圖像進行分類包括基於所述新的受損部位對視頻圖像進分類。 這樣,拍攝者可以方便、靈活根據實際現場受損部位情況調整受損部位在視頻圖像中的位置區域,更準確的定位受損部位,便於伺服器獲取高品質的損害圖像。 在拍攝受損部位的近景時,拍攝者可以對其從不同角度的連續拍攝。伺服器一側可以根據受損部位的跟蹤,求得每幀圖像的拍攝角度,進而選取一組不同角度的視頻圖像作為該受損部位的損害圖像,從而確保損害圖像能準確的反應出受損的類型和程度。因此,所述一種車輛損害圖像獲取方法另一個實施例中,所述按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像包括: 從指定的所述受損部位候選圖像分類集合中,根據視頻圖像的清晰度和所述受損部位的拍攝角度,分別選取至少一張視頻圖像作為所述受損部位的損害圖像。 如果受損車輛存在多個受損部位,並且受損部位的距離很近,則用戶可以同時指定多個受損部位。伺服器可以同時跟蹤這多個受損部位,並產生每個受損部位的損害圖像。伺服器對拍攝者指定的所有的受損部位都按照上述處理獲取每個受損部位的損害圖像,然後可以將所有產生的損害圖像作為整個受損車輛的損害圖像。因此,所述一種車輛損害圖像獲取方法另一個實施例中,若接收到指定的至少兩個受損部位 ,則判斷所述至少兩個受損部位的距離是否符合設置的鄰近條件; 若是,則同時跟蹤所述至少兩個受損部位,並分別產生相應的損害圖像。 所述的鄰近條件可以根據同一個視頻圖像中受損部位的個數、受損部位的大小、受損部位之間的距離等進行設置。 基於前述用戶端與伺服器交互的實施場景中描述的通過受損車輛拍攝視頻資料自動獲取損害圖像的實施方案,本申請還提供一種可以用於用戶端一側的車輛損害圖像獲取方法,圖7是本申請所述方法另一個實施例的流程示意圖,如圖7所示,可以包括: S20:對受損車輛進行視頻拍攝,獲取拍攝視頻資料; S21:接收對所述受損車輛指定的受損部位的訊息; S22:將所述拍攝視頻資料和所述受損部位的訊息發送至處理終端; S23:接收所述處理終端返回的對所述受損部位即時跟蹤的位置區域,在視頻拍攝過程中即時顯示所述跟蹤的位置區域。 所述的處理終端包括對所述拍攝視頻資料進行處理,基於指定受損部位的訊息自動產生受損車輛的損害圖像的終端設備,如可以為損害影像處理的遠端伺服器。 另一個實施例中,確定出的所述候選圖像分類集合也可以包括:顯示受損部位的近景圖像集合、展示受損部位所屬車輛部件的部件圖像集合。如上述的a類圖像、b類圖像等。如果伺服器無法得到能確定受損部位所在車輛部件的b類損害圖像,伺服器可以回饋給拍攝者發送視頻拍攝提示消息,提示其拍攝包括受損部位在內的相鄰多個車輛部件,從而確保得到b類損害圖像。如果系統無法得到a類損害圖像, 或者a類圖像沒能覆蓋到受損部位的全部區域,同樣可以發送給拍攝者,提示其拍攝受損部位的近景圖。因此,另一種實施例中,所述方法還可以包括: S24:接收並顯示所述處理終端發送的視頻拍攝提示消息,所述視頻拍攝提示消息包括在所述處理終端檢測到所述受損部位的近景圖像集合、部件圖像集合中的至少一個為空,或者所述近景圖像集合中的視頻圖像未覆蓋到對應受損部位的全部區域時產生。 如前述所述,另一種實施方式中,用戶端可以即時顯示伺服器跟蹤的受損部位的位置區域,並且可以在用戶端一側互動式修改該位置區域的位置和大小。因此所述方法的另一個實施例中,還可以包括: S25:基於接收的交互指令修改所述受損部位的位置區域後,重新確定新的受損部位; 將所述新的受損部位發送給所述處理終端,以使所述處理終端基於所述新的受損部位對視頻圖像進行分類。 上述實施例提供的車輛損害圖像獲取方法,拍攝者可以通過終端設備對受損車輛進行視頻拍攝,並指定受損車輛的受損部位。拍攝的視頻資料可以傳輸到系統的伺服器,伺服器再對視頻資料進行分析,獲取損害所需的不同類別的候選圖像,然後可以從候選圖像中產生受損車輛的損害圖像。利用本申請實施方案的終端設備,在終端設備上對受損部位進行視頻拍攝並指定受損部位,這些資料訊息發送給伺服器,可以實現自動、快速的產生符合損害處理需求的高品質損害圖像,滿足損害處理需求,提高損害圖像的獲取效率,同時也減少了保險公司作業人員的損害圖像獲取和處理成本。 前述實施例分別從用戶端與伺服器交互、用戶端、伺服器的角度的實施場景中描述了本申請通過受損車輛拍攝視頻資料自動獲取損害圖像的實施方案。本申請的另一種實施方式中,拍攝者在用戶端拍攝車輛視頻時(或拍攝完成後)並指定車輛受損部位後,可以直接在用戶端一側對拍攝視頻進行分析處理,並產生損害圖像。具體的,圖8是本申請所述方法另一個實施例的流程示意圖,如圖8所示,所述方法包括: S30:接收對受損車輛的拍攝視頻資料; S31:接收對所述受損車輛指定的受損部位的訊息,基於所述受損部位的訊息對所述拍攝視頻資料中的視頻圖像進行識分類,確定所述受損部位的候選圖像分類集合; S32:按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 具體的一個實現方式中可以由部署在用戶端的應用模組組成。一般的,所述終端設備可以為具有視頻拍攝功能和影像處理能力的通用或者專用設備,如手機、平板電腦等用戶端。攝者使用可以用戶端對受損車輛進行視頻拍攝,同時對拍攝視頻資料進行分析,產生損害圖像。 可選的,還可以包括一個伺服器端,用來接收用戶端產生的損害圖像。用戶端可以產生的損害圖像即時或者非同步傳輸至指定的伺服器。因此,所述方法的另一個實施例中還可以包括: S3201:將所述損害圖像即時傳輸至指定的伺服器; 或者, S3202:將所述損害圖像非同步傳輸至指定的伺服器。 圖9是本申請所述方法另一個實施例的流程示意圖,如圖9所示,用戶端可以將產生的損害圖像立即上傳給遠端伺服器,或者也可以在事後將損害圖像批量上傳或者拷貝到遠端伺服器。 基於前述伺服器自動產生損害圖像、受損部位定位跟蹤等實施例的描述,本申請由用戶端一側自動產生損害圖像的方法還可以包括其他的實施方式,如產生視頻拍攝提示消息後直接顯示在拍攝終端上、損害圖像類別的具體劃分和識別、分類方式,受損部位定位和跟蹤等。具體的可以參照相關實施例的描述,在此不做一一贅述。 本申請提供的一種車輛損害圖像獲取方法,在用戶端一側可以基於受損車輛的拍攝視頻自動產生損害圖像。拍攝者可以通過用戶端對受損車輛進行視頻拍攝,產生拍攝視頻資料。然後再對拍攝視頻資料進行分析,獲取損害所需的不同類別的候選圖像。進一步可以從候選圖像中產生受損車輛的損害圖像。利用本申請實施方案,可以直接在用戶端一側進行視頻拍攝,並自動、快速的產生符合損害處理需求的高品質損害圖像,滿足損害處理需求,提高損害圖像的獲取效率,同時也減少了保險公司作業人員的損害圖像獲取和處理成本。 基於上述所述的輛損害圖像獲取方法,本申請還提供一種車輛損害圖像獲取裝置。所述的裝置可以包括使用了本申請所述方法的系統(包括分散式系統)、軟體(應用)、模組、組件、伺服器、用戶端等並結合必要的實施硬體的裝置。基於同一創新構思,本申請提供的一種實施例中的裝置如下面的實施例所述。由於裝置解決問題的實現方案與方法相似,因此本申請具體的裝置的實施可以參見前述方法的實施,重複之處不再贅述。以下所使用的,術語“單元”或者“模組”可以實現預定功能的軟體和/或硬體的組合。儘管以下實施例所描述的裝置較佳地以軟體來實現,但是硬體,或者軟體和硬體的組合的實現也是可能並被構想的。具體的,圖10是本申請提供的一種車輛損害圖像獲取裝置實施例的模組結構示意圖,如圖10所示,所述裝置可以包括: 資料接收模組101,可以用於接收終端設備上傳的受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 識別分類別模組102,可以用於提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合; 篩選模組103,可以用於按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 上述所述的裝置可以用於伺服器一側,實現對用戶端上傳的拍攝視頻資料分析處理後獲取損害圖像。本申請還提供一種可以用於用戶端一側的車輛損害圖像獲取裝置。如圖11所示,圖11為本申請所裝置另一個實施例的模組結構示意圖,具體的可以包括: 拍攝模組201,可以用於對受損車輛進行視頻拍攝,獲取拍攝視頻資料; 交互模組201,可以用於接收對所述受損車輛指定的受損部位的訊息; 通信模組202,可以用於將所述拍攝視頻資料和所述受損部位的訊息發送至處理終端; 跟蹤模組203,可以用於接收所述處理終端返回的對所述受損部位即時跟蹤的位置區域,以及顯示所述跟蹤的位置區域。 一種實施方式中,所述的交互模組201與跟蹤模組203可以為同一個處理裝置,如顯示單元,拍攝者可以在顯示單元中指定受損部位,同時也可以在顯示單元中實施顯示跟蹤的受損部位的位置區域。 本申請提供的車輛損害圖像獲取方法可以在電腦中由處理器執行相應的程式指令來實現。具體的,本申請提供的一種車輛損害圖像獲取裝置的另一種實施例中,所述裝置可以包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時實現: 接收受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 所述的裝置可以為伺服器,伺服器接收用戶端上傳的拍攝視頻資料和受損部位的訊息,然後進行分析處理,得到車輛的損害圖像。另一種實施方式中,所述裝置也可以為用戶端,用戶端對受損車輛進行視頻拍攝後直接在用戶端一側進行分析處理,得到車輛的損害圖像。因此,本申請所述裝置的另一種實施例中,所述受損車輛的拍攝視頻資料可以包括: 終端設備獲取拍攝視頻資料後上傳的資料訊息; 或者, 所述車輛損害圖像獲取裝置對受損車輛進行視頻拍攝獲取的拍攝視頻資料。 進一步的,在所述裝置獲取拍攝視頻資料並直接進行分析處理獲取損害圖像的實施場景中,還可以將得到的損害圖像發送給伺服器,由伺服器進行儲存或進一步損害處理。因此,所述裝置的另一種實施例中,若所述受損車輛的拍攝視頻資料為所述車輛損害圖像獲取裝置進行視頻拍攝獲取得到,則所述處理器執行所述指令時還包括: 將所述損害圖像即時傳輸至指定的處理終端; 或者, 將所述損害圖像非同步傳輸至指定的處理終端。 基於前述實施例方法或裝置自動產生損害圖像、受損部位定位跟蹤等實施例的描述,本申請由用戶端一側自動產生損害圖像的裝置還可以包括其他的實施方式,如產生視頻拍攝提示消息後直接顯示在終端設備上、損害圖像類別的具體劃分和識別、分類方式,受損部位定位和跟蹤等。具體的可以參照相關實施例的描述,在此不做一一贅述。 拍攝者可以通過本申請提供的車輛損害圖像獲取裝置,對受損車輛進行視頻拍攝,產生拍攝視頻資料。然後再對拍攝視頻資料進行分析,獲取損害所需的不同類別的候選圖像。進一步可以從候選圖像中產生受損車輛的損害圖像。利用本申請實施方案,可以直接在用戶端一側進行視頻拍攝,並自動、快速的產生符合損害處理需求的高品質損害圖像,滿足損害處理需求,提高損害圖像的獲取效率,同時也減少了保險公司作業人員的損害圖像獲取和處理成本。 本申請上述實施例所述的方法或裝置可以通過電腦程式實現業務邏輯並記錄在儲存媒體上,所述的儲存媒體可以電腦讀取並執行,實現本申請實施例所描述方案的效果。因此,本申請還提供一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時可以實現以下步驟: 接收對受損車輛進行視頻拍攝的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 基於所述受損部位的訊息對所述拍攝視頻資料中的視頻圖像進行識分類,確定所述受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 本申請還提供的另一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時實現以下步驟: 對受損車輛進行視頻拍攝,獲取拍攝視頻資料; 接收對所述受損車輛指定的受損部位的訊息; 將所述拍攝視頻資料和所述受損部位的訊息發送至處理終端; 接收所述處理終端返回的對所述受損部位即時跟蹤的位置區域,在視頻拍攝過程中即時顯示所述跟蹤的位置區域。 所述電腦可讀儲存媒體可以包括用於儲存訊息的物理裝置,通常是將訊息數位化後再以利用電、磁或者光學等方式的媒體加以儲存。本實施例所述的電腦可讀儲存媒體有可以包括:利用電能方式儲存訊息的裝置如,各式記憶體,如RAM、ROM等;利用磁能方式儲存訊息的裝置如,硬碟、軟碟、磁帶、磁芯記憶體、磁泡記憶體、USB;利用光學方式儲存訊息的裝置如,CD或DVD。當然,還有其他方式的可讀儲存媒體,例如量子記憶體、石墨烯記憶體等等。 上述所述的裝置或方法或電腦可讀儲存媒體可以用於獲取車輛損害圖像的伺服器中,實現基於車輛圖像視頻自動獲取車輛損害圖像。所述的伺服器可以是單獨的伺服器,也可以是多台應用伺服器組成的系統集群,也可以是分散式系統中的伺服器。具體的,一種實施例中,所述伺服器可以包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時實現: 接收終端設備上傳的受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位;提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合;按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 上述所述的裝置或方法或電腦可讀儲存媒體可以用於獲取車輛損害圖像的終端設備中,實現基於車輛圖像視頻自動獲取車輛損害圖像。所述的終端設備可以以伺服器的方式實施,也可以為現場對受損車輛進行視頻拍攝的用戶端實施。圖12是本申請提供的一種終端設備實施例的結構示意圖,具體的,一種實施例中,所述終端上設備可以包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時可以實現: 獲取對受損車輛進行視頻拍攝的拍攝視頻資料; 接收對所述受損車輛指定的受損部位的訊息; 基於所述受損部位的訊息對所述拍攝視頻資料中的視頻圖像進行識分類,確定所述受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。 進一步的,如果所述終端設備為視頻拍攝的用戶端一側的實施方式,則所述處理器執行所述指令時還可以實現: 將所述損害圖像即時傳輸至指定的伺服器; 或者, 將所述損害圖像非同步傳輸至指定的伺服器。 拍攝者可以通過本申請提供的車輛損害圖像的終端設備,對受損車輛進行視頻拍攝,產生拍攝視頻資料。然後再對拍攝視頻資料進行分析,獲取損害所需的不同類別的候選圖像。進一步可以從候選圖像中產生受損車輛的損害圖像。利用本申請實施方案,可以直接在用戶端一側進行視頻拍攝,並自動、快速的產生符合損害處理需求的高品質損害圖像,滿足損害處理需求,提高損害圖像的獲取效率,同時也減少了保險公司作業人員的損害圖像獲取和處理成本。 儘管本申請內容中提到受損區域跟蹤方式、採用CNN和RPN網路檢測車輛部件、基於受損部位的圖像識別和分類等之類的資料模型構建、資料獲取、交互、計算、判斷等描述,但是,本申請並不局限於必須是符合行業通信標準、標準資料模型、電腦處理和儲存規則或本申請實施例所描述的情況。某些行業標準或者使用自訂方式或實施例描述的實施基礎上略加修改後的實施方案也可以實現上述實施例相同、等同或相近、或變形後可預料的實施效果。應用這些修改或變形後的資料獲取、儲存、判斷、處理方式等獲取的實施例,仍然可以屬於本申請的可選實施方案範圍之內。 在20世紀90年代,對於一個技術的改進可以很明顯地區分是硬體上的改進(例如,對二極體、電晶體、開關等電路結構的改進)還是軟體上的改進(對於方法流程的改進)。然而,隨著技術的發展,當今的很多方法流程的改進已經可以視為硬體電路結構的直接改進。設計人員幾乎都通過將改進的方法流程程式設計到硬體電路中來得到相應的硬體電路結構。因此,不能說一個方法流程的改進就不能用硬體實體模組來實現。例如,可程式設計邏輯裝置(Programmable Logic Device, PLD)(例如現場可程式設計閘陣列(Field Programmable Gate Array,FPGA))就是這樣一種積體電路,其邏輯功能由用戶對裝置程式設計來確定。由設計人員自行程式設計來把一個數位系統“集成”在一片PLD上,而不需要請晶片製造廠商來設計和製作專用的積體電路晶片。而且,如今,取代手工地製作積體電路晶片,這種程式設計也多半改用“邏輯編譯器(logic compiler)”軟體來實現,它與程式開發撰寫時所用的軟體編譯器相類似,而要編譯之前的原始代碼也得用特定的程式設計語言來撰寫,此稱之為硬體描述語言(Hardware Description Language,HDL),而HDL也並非僅有一種,而是有許多種,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby Hardware Description Language)等,目前最普遍使用的是VHDL(Very-High-Speed Integrated Circuit Hardware Description Language)與Verilog。本領域技術人員也應該清楚,只需要將方法流程用上述幾種硬體描述語言稍作邏輯程式設計並程式設計到積體電路中,就可以很容易得到實現該邏輯方法流程的硬體電路。 控制器可以按任何適當的方式實現,例如,控制器可以採取例如微處理器或處理器以及儲存可由該(微)處理器執行的電腦可讀程式碼(例如軟體或韌體)的電腦可讀媒體、邏輯門、開關、專用積體電路(Application Specific Integrated Circuit,ASIC)、可程式設計邏輯控制器和嵌入微控制器的形式,控制器的例子包括但不限於以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,記憶體控制器還可以被實現為記憶體的控制邏輯的一部分。本領域技術人員也知道,除了以純電腦可讀程式碼方式實現控制器以外,完全可以通過將方法步驟進行邏輯程式設計來使得控制器以邏輯門、開關、專用積體電路、可程式設計邏輯控制器和嵌入微控制器等的形式來實現相同功能。因此這種控制器可以被認為是一種硬體部件,而對其內包括的用於實現各種功能的裝置也可以視為硬體部件內的結構。或者甚至,可以將用於實現各種功能的裝置視為既可以是實現方法的軟體模組又可以是硬體部件內的結構。 上述實施例闡明的系統、裝置、模組或單元,具體可以由電腦晶片或實體實現,或者由具有某種功能的產品來實現。一種典型的實現設備為電腦。具體的,電腦例如可以為個人電腦、膝上型電腦、車載人機交互設備、蜂窩電話、相機電話、智慧型電話、個人數位助理、媒體播放機、導航設備、電子郵件設備、遊戲控制台、平板電腦、可穿戴設備或者這些設備中的任何設備的組合。 雖然本申請提供了如實施例或流程圖所述的方法操作步驟,但基於常規或者無創造性的手段可以包括更多或者更少的操作步驟。實施例中列舉的步驟順序僅僅為眾多步驟執行順序中的一種方式,不代表唯一的執行順序。在實際中的裝置或終端產品執行時,可以按照實施例或者附圖所示的方法循序執行或者並存執行(例如並行處理器或者多執行緒處理的環境,甚至為分散式資料處理環境)。術語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、產品或者設備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、產品或者設備所固有的要素。在沒有更多限制的情況下,並不排除在包括所述要素的過程、方法、產品或者設備中還存在另外的相同或等同要素。 為了描述的方便,描述以上裝置時以功能分為各種模組分別描述。當然,在實施本申請時可以把各模組的功能在同一個或多個軟體和/或硬體中實現,也可以將實現同一功能的模組由多個子模組或子單元的組合實現等。以上所描述的裝置實施例僅僅是示意性的,例如,所述單元的劃分,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式,例如多個單元或組件可以結合或者可以集成到另一個系統,或一些特徵可以忽略,或不執行。另一點,所顯示或討論的相互之間的耦合或直接耦合或通信連接可以是通過一些介面,裝置或單元的間接耦合或通信連接,可以是電性,機械或其它的形式。 本領域技術人員也知道,除了以純電腦可讀程式碼方式實現控制器以外,完全可以通過將方法步驟進行邏輯程式設計來使得控制器以邏輯門、開關、專用積體電路、可程式設計邏輯控制器和嵌入微控制器等的形式來實現相同功能。因此這種控制器可以被認為是一種硬體部件,而對其內部包括的用於實現各種功能的裝置也可以視為硬體部件內的結構。或者甚至,可以將用於實現各種功能的裝置視為既可以是實現方法的軟體模組又可以是硬體部件內的結構。 本發明是參照根據本發明實施例的方法、設備(系統)、和電腦程式產品的流程圖和/或方塊圖來描述的。應理解可由電腦程式指令實現流程圖和/或方塊圖中的每一流程和/或方塊、以及流程圖和/或方塊圖中的流程和/或方塊的結合。可提供這些電腦程式指令到通用電腦、專用電腦、嵌入式處理機或其他可程式設計資料處理設備的處理器以產生一個機器,使得通過電腦或其他可程式設計資料處理設備的處理器執行的指令產生用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的裝置。 這些電腦程式指令也可儲存在能引導電腦或其他可程式設計資料處理設備以特定方式工作的電腦可讀記憶體中,使得儲存在該電腦可讀記憶體中的指令產生包括指令裝置的製造品,該指令裝置實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能。 這些電腦程式指令也可裝載到電腦或其他可程式設計資料處理設備上,使得在電腦或其他可程式設計設備上執行一系列操作步驟以產生電腦實現的處理,從而在電腦或其他可程式設計設備上執行的指令提供用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的步驟。 在一個典型的配置中,計算設備包括一個或多個處理器(CPU)、輸入/輸出介面、網路介面和記憶體。 記憶體可能包括電腦可讀媒體中的非永久性記憶體,隨機存取記憶體(RAM)和/或非揮發性記憶體等形式,如唯讀記憶體(ROM)或快閃記憶體(flash RAM)。記憶體是電腦可讀媒體的示例。 電腦可讀媒體包括永久性和非永久性、可移動和非可移動媒體可以由任何方法或技術來實現訊息儲存。訊息可以是電腦可讀指令、資料結構、程式的模組或其他資料。電腦的儲存媒體的例子包括,但不限於相變記憶體(PRAM)、靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)、其他類型的隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電可擦除可程式設計唯讀記憶體(EEPROM)、快閃記憶體或其他記憶體技術、唯讀光碟唯讀記憶體(CD-ROM)、數位多功能光碟(DVD)或其他光學儲存、磁盒式磁帶,磁帶磁磁片儲存或其他磁性存放裝置或任何其他非傳輸媒體,可用於儲存可以被計算設備訪問的訊息。按照本文中的界定,電腦可讀媒體不包括暫存電腦可讀媒體(transitory media),如調製的資料訊號和載波。 本領域技術人員應明白,本申請的實施例可提供為方法、系統或電腦程式產品。因此,本申請可採用完全硬體實施例、完全軟體實施例或結合軟體和硬體方面的實施例的形式。而且,本申請可採用在一個或多個其中包含有電腦可用程式碼的電腦可用儲存媒體(包括但不限於磁碟記憶體、CD-ROM、光學記憶體等)上實施的電腦程式產品的形式。 本申請可以在由電腦執行的電腦可執行指令的一般上下文中描述,例如程式模組。一般地,程式模組包括執行特定任務或實現特定抽象資料類型的常式、程式、物件、組件、資料結構等等。也可以在分散式運算環境中實踐本申請,在這些分散式運算環境中,由通過通信網路而被連接的遠端處理設備來執行任務。在分散式運算環境中,程式模組可以位於包括存放裝置在內的本地和遠端電腦儲存媒體中。 本說明書中的各個實施例均採用遞進的方式描述,各個實施例之間相同相似的部分互相參見即可,每個實施例重點說明的都是與其他實施例的不同之處。尤其,對於系統實施例而言,由於其基本相似於方法實施例,所以描述的比較簡單,相關之處參見方法實施例的部分說明即可。在本說明書的描述中,參考術語“一個實施例”、“一些實施例”、“示例”、“具體示例”、或“一些示例”等的描述意指結合該實施例或示例描述的具體特徵、結構、材料或者特點包含於本申請的至少一個實施例或示例中。在本說明書中,對上述術語的示意性表述不必須針對的是相同的實施例或示例。而且,描述的具體特徵、結構、材料或者特點可以在任一個或多個實施例或示例中以合適的方式結合。此外,在不相互矛盾的情況下,本領域的技術人員可以將本說明書中描述的不同實施例或示例以及不同實施例或示例的特徵進行結合和組合。 以上所述僅為本申請的實施例而已,並不用於限制本申請。對於本領域技術人員來說,本申請可以有各種更改和變化。凡在本申請的精神和原理之內所作的任何修改、等同替換、改進等,均應包含在本申請的申請專利範圍範圍之內。
101‧‧‧資料接收模組
102‧‧‧識別分類別模組
103‧‧‧篩選模組
201‧‧‧拍攝模組
202‧‧‧交互模組
203‧‧‧通信模組
204‧‧‧跟蹤模組
為了更清楚地說明本申請實施例或現有技術中的技術方案,下面將對實施例或現有技術描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本申請中記載的一些實施例,對於本領域普通技術人員來講,在不付出創造性勞動性的前提下,還可以根據這些附圖獲得其他的附圖。 圖1是本申請所述一種車輛損害圖像獲取方法實施例的流程示意圖; 圖2是本申請所述方法一個實施例中指定受損部位的場景示意圖; 圖3是本申請所述方法另一個實施例中指定受損部位的場景示意圖; 圖4是本申請一個實施例中基於受損部位確定近景圖像的示意圖; 圖5是本申請所述方一種車輛損害圖像獲取方法的處理場景示意圖; 圖6是本申請所述方法另一個實施例的流程示意圖; 圖7是本申請所述方法另一個實施例的流程示意圖; 圖8是本申請所述方法另一個實施例的流程示意圖; 圖9是本申請所述方法另一個實施例的流程示意圖; 圖10是本申請提供的一種車輛損害圖像獲取裝置實施例的模組結構示意圖; 圖11是本申請提供的另一種車輛損害圖像獲取裝置實施例的模組結構示意圖; 圖12是本申請提供的一種終端設備實施例的結構示意圖。
Claims (40)
- 一種車輛損害圖像獲取方法,所述方法包括: 用戶端獲取拍攝視頻資料,將所述拍攝視頻資料發送至伺服器; 所述用戶端接收對受損車輛指定的受損部位的訊息,將所述受損部位的訊息發送至所述伺服器; 所述伺服器接收所述用戶端上傳的拍攝視頻資料和受損部位的訊息,提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。
- 一種車輛損害圖像獲取方法,所述方法包括: 接收終端設備上傳的受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。
- 如申請專利範圍第2項所述的車輛損害圖像獲取方法,確定出的所述候選圖像分類集合包括: 顯示受損部位的近景圖像集合、展示受損部位所屬車輛部件的部件圖像集合。
- 如申請專利範圍第3項所述的車輛損害圖像獲取方法,採用下述中的至少一種方式確定所述近景圖像集合中的視頻圖像: 受損部位在所屬視頻圖像中所占區域的面積比值大於第一預設比例: 受損部位的橫坐標跨度與所屬視頻圖像長度的比值大於第二預設比例,和/或,受損部位的縱坐標與所屬視頻圖像高度的比例大於第三預設比例; 從相同受損部位的視頻圖像中,選擇受損部位的面積降冪後的前K張視頻圖像,或者所述面積降冪後屬於第四預設比例內的視頻圖像,K≥1。
- 如申請專利範圍第3項所述的車輛損害圖像獲取方法,還包括: 若檢測到所述受損部位的近景圖像集合、部件圖像集合中的至少一個為空,或者所述近景圖像集合中的視頻圖像未覆蓋到對應受損部位的全部區域時,產生視頻拍攝提示消息; 向所述終端設備發送所述視頻拍攝提示消息。
- 如申請專利範圍第2項所述的車輛損害圖像獲取方法,所述方法還包括: 即時跟蹤所述受損部位在所述拍攝視頻資料中的位置區域; 以及,在所述受損部位脫離視頻圖像後重新進入視頻圖像時,基於所述受損部位的圖像特徵資料重新對所述受損部位的位置區域進行定位和跟蹤。
- 如申請專利範圍第6項所述的車輛損害圖像獲取方法,所述方法還包括: 將跟蹤的所述受損部位的位置區域發送至所述終端設備,以使所述終端設備即時顯示所述受損部位的位置區域。
- 如申請專利範圍第7項所述的車輛損害圖像獲取方法,所述方法還包括: 接收所述終端設備發送的新的受損部位,所述新的受損部位包括所述終端設備基於接收的交互指令修改所述指定的受損部位的位置區域後重新確定的受損部位; 相應的,所述基於所述受損部位的訊息對所述視頻圖像進行分類包括基於所述新的受損部位對視頻圖像進分類。
- 如申請專利範圍第2至5項中任意一項所述的車輛損害圖像獲取方法,所述按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像包括: 從指定的所述受損部位候選圖像分類集合中,根據視頻圖像的清晰度和所述受損部位的拍攝角度,分別選取至少一張視頻圖像作為所述受損部位的損害圖像。
- 如申請專利範圍第6至8項中任意一項所述的車輛損害圖像獲取方法,若接收到指定的至少兩個受損部位,則判斷所述至少兩個受損部位的距離是否符合設置的鄰近條件; 若是,則同時跟蹤所述至少兩個受損部位,並分別產生相應的損害圖像。
- 一種車輛損害圖像獲取方法,所述方法包括: 對受損車輛進行視頻拍攝,獲取拍攝視頻資料; 接收對所述受損車輛指定的受損部位的訊息; 將所述拍攝視頻資料和所述受損部位的訊息發送至處理終端; 接收所述處理終端返回的對所述受損部位即時跟蹤的位置區域,顯示所述跟蹤的位置區域。
- 如申請專利範圍第11項所述的車輛損害圖像獲取方法,還包括: 接收並顯示所述處理終端發送的視頻拍攝提示消息,所述視頻拍攝提示消息包括在所述處理終端檢測到所述受損部位的近景圖像集合、部件圖像集合中的至少一個為空,或者所述近景圖像集合中的視頻圖像未覆蓋到對應受損部位的全部區域時產生。
- 如申請專利範圍第11或12項所述的車輛損害圖像獲取方法,所述方法還包括: 基於接收的交互指令修改所述受損部位的位置區域後,重新確定新的受損部位; 將所述新的受損部位發送給所述處理終端,以使所述處理終端基於所述新的受損部位對視頻圖像進行分類。
- 一種車輛損害圖像獲取方法,所述方法包括: 接收受損車輛的拍攝視頻資料; 接收對所述受損車輛指定的受損部位的訊息,基於所述受損部位的訊息對所述拍攝視頻資料中的視頻圖像進行識分類,確定所述受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。
- 如申請專利範圍第14項所述的車輛損害圖像獲取方法,確定出的所述候選圖像分類集合包括: 顯示受損部位的近景圖像集合、展示受損部位所屬車輛部件的部件圖像集合。
- 如申請專利範圍第15項所述的車輛損害圖像獲取方法,採用下述中的至少一種方式確定所述近景圖像集合中的視頻圖像: 受損部位在所屬視頻圖像中所占區域的面積比值大於第一預設比例: 受損部位的橫坐標跨度與所屬視頻圖像長度的比值大於第二預設比例,和/或,受損部位的縱坐標與所屬視頻圖像高度的比例大於第三預設比例; 從相同受損部位的視頻圖像中,選擇受損部位的面積降冪後的前K張視頻圖像,或者所述面積降冪後屬於第四預設比例內的視頻圖像,K≥1。
- 如申請專利範圍第15項所述的車輛損害圖像獲取方法,還包括: 若檢測到所述受損部位的近景圖像集合、部件圖像集合中的至少一個為空,或者所述近景圖像集合中的視頻圖像未覆蓋到對應受損部位的全部區域時,產生視頻拍攝提示消息; 顯示所述視頻拍攝提示消息。
- 如申請專利範圍第14項所述的車輛損害圖像獲取方法,還包括: 即時跟蹤並顯示所述受損部位在所述拍攝視頻資料中的位置區域; 以及,在所述受損部位脫離視頻圖像後重新進入視頻圖像時,基於所述受損部位的圖像特徵資料重新對所述受損部位的位置區域進行定位和跟蹤。
- 如申請專利範圍第18項所述的車輛損害圖像獲取方法,還包括: 基於接收的交互指令修改所述受損部位的位置區域,重新確定新的受損部位; 相應的,所述基於所述受損部位的訊息對所述視頻圖像進行分類包括基於所述新的受損部位對視頻圖像進分類。
- 如申請專利範圍第14至17項中任意一項所述的車輛損害圖像獲取方法,所述按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像包括: 從指定的所述受損部位候選圖像分類集合中,根據視頻圖像的清晰度和所述受損部位的拍攝角度,分別選取至少一張視頻圖像作為所述受損部位的損害圖像。
- 如申請專利範圍第18或19項所述的車輛損害圖像獲取方法,若接收到指定的至少兩個受損部位,則判斷所述至少兩個受損部位的距離是否符合設置的鄰近條件; 若是,則同時跟蹤所述至少兩個受損部位,並分別產生相應的損害圖像。
- 如申請專利範圍第14項所述的車輛損害圖像獲取方法,還包括: 將所述損害圖像即時傳輸至指定的伺服器; 或者, 將所述損害圖像非同步傳輸至指定的伺服器。
- 一種車輛損害圖像獲取裝置,所述裝置包括: 資料接收模組,用於接收終端設備上傳的受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 識別分類別模組,用於提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合; 篩選模組,用於按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。
- 一種車輛損害圖像獲取裝置,所述裝置包括: 拍攝模組,用於對受損車輛進行視頻拍攝,獲取拍攝視頻資料; 交互模組,用於接收對所述受損車輛指定的受損部位的訊息; 通信模組,用於將所述拍攝視頻資料和所述受損部位的訊息發送至處理終端; 跟蹤模組,用於接收所述處理終端返回的對所述受損部位即時跟蹤的位置區域,以及顯示所述跟蹤的位置區域。
- 一種車輛損害圖像獲取裝置,包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時實現: 接收受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。
- 如申請專利範圍第25項所述的車輛損害圖像獲取裝置,所述受損車輛的拍攝視頻資料包括: 終端設備獲取拍攝視頻資料後上傳的資料訊息; 或者, 所述車輛損害圖像獲取裝置對受損車輛進行視頻拍攝獲取的拍攝視頻資料。
- 如申請專利範圍第26項所述的車輛損害圖像獲取裝置,所述處理器執行所述指令時,確定出的所述候選圖像分類集合包括: 顯示受損部位的近景圖像集合、展示受損部位所屬車輛部件的部件圖像集合。
- 如申請專利範圍第27項所述的車輛損害圖像獲取裝置,所述處理器執行所述指令時,採用下述中的至少一種方式確定所述近景圖像集合中的視頻圖像: 受損部位在所屬視頻圖像中所占區域的面積比值大於第一預設比例: 受損部位的橫坐標跨度與所屬視頻圖像長度的比值大於第二預設比例,和/或,受損部位的縱坐標與所屬視頻圖像高度的比例大於第三預設比例; 從相同受損部位的視頻圖像中,選擇受損部位的面積降冪後的前K張視頻圖像,或者所述面積降冪後屬於第四預設比例內的視頻圖像,K≥1。
- 如申請專利範圍第28項所述的車輛損害圖像獲取裝置,所述處理器執行所述指令時還實現: 若檢測到所述受損部位的近景圖像集合、部件圖像集合中的至少一個為空,或者所述近景圖像集合中的視頻圖像未覆蓋到對應受損部位的全部區域時,產生視頻拍攝提示消息; 所述視頻拍攝提示消息用於顯示在所述終端設備。
- 如申請專利範圍第26項所述的車輛損害圖像獲取裝置,所述處理器執行所述指令時還實現: 即時跟蹤所述受損部位在所述拍攝視頻資料中的位置區域; 以及,在所述受損部位脫離視頻圖像後重新進入視頻圖像時,基於所述受損部位的圖像特徵資料重新對所述受損部位的位置區域進行定位和跟蹤。
- 如申請專利範圍第30項所述的車輛損害圖像獲取裝置,若所拍攝視頻資料為所述終端設備上傳的資料訊息,則所述處理器執行所述指令時還實現: 將跟蹤的所述受損部位的位置區域發送至所述終端設備,以使所述終端設備即時顯示所述受損部位的位置區域。
- 如申請專利範圍第26項所述的車輛損害圖像獲取裝置,所述處理器執行所述指令時還實現: 接收修改所述受損部位的位置區域後重新確定新的受損部位; 相應的,所述基於所述受損部位的訊息對所述視頻圖像進行分類包括基於所述新的受損部位對視頻圖像進分類。
- 如申請專利範圍第30項所述的車輛損害圖像獲取裝置,所述處理器執行所述指令時所述按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像包括: 從指定的所述受損部位候選圖像分類集合中,根據視頻圖像的清晰度和所述受損部位的拍攝角度,分別選取至少一張視頻圖像作為所述受損部位的損害圖像。
- 如申請專利範圍第30至32項中任意一項所述的車輛損害圖像獲取裝置,所述處理器執行所述指令時若接收到指定的至少兩個受損部位 ,則判斷所述至少兩個受損部位的距離是否符合設置的鄰近條件; 若是,則同時跟蹤所述至少兩個受損部位,並分別產生相應的損害圖像。
- 如申請專利範圍第26項所述的車輛損害圖像獲取裝置,若所述受損車輛的拍攝視頻資料為所述車輛損害圖像獲取裝置進行視頻拍攝獲取得到,則所述處理器執行所述指令時還包括: 將所述損害圖像即時傳輸至指定的處理終端; 或者, 將所述損害圖像非同步傳輸至指定的處理終端。
- 一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時實現以下步驟: 接收對受損車輛進行視頻拍攝的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位; 基於所述受損部位的訊息對所述拍攝視頻資料中的視頻圖像進行識分類,確定所述受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。
- 一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時實現以下步驟: 對受損車輛進行視頻拍攝,獲取拍攝視頻資料; 接收對所述受損車輛指定的受損部位的訊息; 將所述拍攝視頻資料和所述受損部位的訊息發送至處理終端; 接收所述處理終端返回的對所述受損部位即時跟蹤的位置區域,在視頻拍攝過程中即時顯示所述跟蹤的位置區域。
- 一種伺服器,包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時實現: 接收終端設備上傳的受損車輛的拍攝視頻資料和受損部位的訊息,所述受損部位包括對所述受損車輛指定的受損部位;提取所述拍攝視頻資料中的視頻圖像,基於所述受損部位的訊息對所述視頻圖像進行分類,確定所述指定受損部位的候選圖像分類集合;按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。
- 一種終端設備,包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時實現: 獲取對受損車輛進行視頻拍攝的拍攝視頻資料; 接收對所述受損車輛指定的受損部位的訊息; 基於所述受損部位的訊息對所述拍攝視頻資料中的視頻圖像進行識分類,確定所述受損部位的候選圖像分類集合; 按照預設篩選條件從所述候選圖像分類集合中選出車輛的損害圖像。
- 如申請專利範圍第39項所述的終端設備,所述處理器執行所述指令時還實現: 將所述損害圖像即時傳輸至指定的伺服器; 或者, 將所述損害圖像非同步傳輸至指定的伺服器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
??201710294742.3 | 2017-04-28 | ||
CN201710294742.3A CN107368776B (zh) | 2017-04-28 | 2017-04-28 | 车辆定损图像获取方法、装置、服务器和终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201840214A true TW201840214A (zh) | 2018-11-01 |
TWI677252B TWI677252B (zh) | 2019-11-11 |
Family
ID=60304349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107108571A TWI677252B (zh) | 2017-04-28 | 2018-03-14 | 車輛損害圖像獲取方法、裝置、伺服器和終端設備 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200058075A1 (zh) |
CN (2) | CN107368776B (zh) |
TW (1) | TWI677252B (zh) |
WO (1) | WO2018196815A1 (zh) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368776B (zh) * | 2017-04-28 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 车辆定损图像获取方法、装置、服务器和终端设备 |
CN109935107B (zh) * | 2017-12-18 | 2023-07-14 | 姜鹏飞 | 一种提升交通通视范围的方法及装置 |
CN108038459A (zh) * | 2017-12-20 | 2018-05-15 | 深圳先进技术研究院 | 一种水下生物的检测识别方法、终端设备及存储介质 |
CN108647563A (zh) * | 2018-03-27 | 2018-10-12 | 阿里巴巴集团控股有限公司 | 一种车辆定损的方法、装置及设备 |
CN108665373B (zh) * | 2018-05-08 | 2020-09-18 | 阿里巴巴集团控股有限公司 | 一种车辆定损的交互处理方法、装置、处理设备及客户端 |
CN108682010A (zh) * | 2018-05-08 | 2018-10-19 | 阿里巴巴集团控股有限公司 | 车辆损伤识别的处理方法、处理设备、客户端及服务器 |
CN113179368B (zh) * | 2018-05-08 | 2023-10-27 | 创新先进技术有限公司 | 一种车辆定损的数据处理方法、装置、处理设备及客户端 |
CN108647712A (zh) * | 2018-05-08 | 2018-10-12 | 阿里巴巴集团控股有限公司 | 车辆损伤识别的处理方法、处理设备、客户端及服务器 |
CN109035478A (zh) * | 2018-07-09 | 2018-12-18 | 北京精友世纪软件技术有限公司 | 一种移动式车辆定损终端设备 |
CN109145903A (zh) * | 2018-08-22 | 2019-01-04 | 阿里巴巴集团控股有限公司 | 一种图像处理方法和装置 |
CN110570316A (zh) | 2018-08-31 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 训练损伤识别模型的方法及装置 |
CN110569694A (zh) * | 2018-08-31 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 车辆的部件检测方法、装置及设备 |
CN110569697A (zh) * | 2018-08-31 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 车辆的部件检测方法、装置及设备 |
CN109062220B (zh) * | 2018-08-31 | 2021-06-29 | 创新先进技术有限公司 | 控制终端运动的方法和装置 |
CN110569695B (zh) * | 2018-08-31 | 2021-07-09 | 创新先进技术有限公司 | 基于定损图像判定模型的图像处理方法和装置 |
CN110567728B (zh) * | 2018-09-03 | 2021-08-20 | 创新先进技术有限公司 | 用户拍摄意图的识别方法、装置及设备 |
CN109344819A (zh) * | 2018-12-13 | 2019-02-15 | 深源恒际科技有限公司 | 基于深度学习的车辆损伤识别方法 |
CN109785157A (zh) * | 2018-12-14 | 2019-05-21 | 平安科技(深圳)有限公司 | 一种基于人脸识别的车辆定损方法、存储介质及服务器 |
CN109784171A (zh) * | 2018-12-14 | 2019-05-21 | 平安科技(深圳)有限公司 | 车辆定损图像筛选方法、装置、可读存储介质及服务器 |
CN110033386B (zh) * | 2019-03-07 | 2020-10-02 | 阿里巴巴集团控股有限公司 | 车辆事故的鉴定方法及装置、电子设备 |
JP7193728B2 (ja) * | 2019-03-15 | 2022-12-21 | 富士通株式会社 | 情報処理装置および蓄積画像選択方法 |
CN111726558B (zh) * | 2019-03-20 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 现场查勘信息采集方法、装置、计算机设备以及存储介质 |
CN110012351B (zh) * | 2019-04-11 | 2021-12-31 | 深圳市大富科技股份有限公司 | 标签数据获取方法、存储器、终端、车辆以及车联网系统 |
CN110287768A (zh) * | 2019-05-06 | 2019-09-27 | 浙江君嘉智享网络科技有限公司 | 图像智能识别车辆定损方法 |
CN110427810B (zh) * | 2019-06-21 | 2023-05-30 | 北京百度网讯科技有限公司 | 视频定损方法、装置、拍摄端及机器可读存储介质 |
CN110650292B (zh) * | 2019-10-30 | 2021-03-02 | 支付宝(杭州)信息技术有限公司 | 辅助用户拍摄车辆视频的方法及装置 |
US11935219B1 (en) | 2020-04-10 | 2024-03-19 | Allstate Insurance Company | Systems and methods for automated property damage estimations and detection based on image analysis and neural network training |
CN111881321B (zh) * | 2020-07-27 | 2021-04-20 | 东来智慧交通科技(深圳)有限公司 | 一种基于人工智能的智慧城市安全监控方法 |
CN112036283A (zh) * | 2020-08-25 | 2020-12-04 | 湖北经济学院 | 图像智能识别车辆定损方法 |
CN112365008B (zh) * | 2020-10-27 | 2023-01-10 | 南阳理工学院 | 基于大数据的汽车配件选定方法及装置 |
CN112465018B (zh) * | 2020-11-26 | 2024-02-02 | 深源恒际科技有限公司 | 一种基于深度学习的车辆视频定损系统的智能截图方法及系统 |
CN113033517B (zh) * | 2021-05-25 | 2021-08-10 | 爱保科技有限公司 | 车辆定损图像获取方法、装置和存储介质 |
CN113486725A (zh) * | 2021-06-11 | 2021-10-08 | 爱保科技有限公司 | 智能车辆定损方法及装置、存储介质及电子设备 |
CN113436175B (zh) * | 2021-06-30 | 2023-08-18 | 平安科技(深圳)有限公司 | 车图像分割质量的评估方法、装置、设备及存储介质 |
CN113656689B (zh) * | 2021-08-13 | 2023-07-25 | 北京百度网讯科技有限公司 | 模型生成方法和网络信息的推送方法 |
CN116434047B (zh) * | 2023-03-29 | 2024-01-09 | 邦邦汽车销售服务(北京)有限公司 | 基于数据处理的车辆损伤范围确定方法及系统 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004282162A (ja) * | 2003-03-12 | 2004-10-07 | Minolta Co Ltd | カメラ、監視システム |
KR20060031208A (ko) * | 2004-10-07 | 2006-04-12 | 김준호 | 자동차사고 파손차량의 보험처리를 위한 자동화시스템 및그 방법 |
JP5218272B2 (ja) * | 2009-05-13 | 2013-06-26 | 富士通株式会社 | 車載画像記録装置 |
JP5886634B2 (ja) * | 2012-01-11 | 2016-03-16 | 株式会社ホムズ技研 | 移動体の運行管理方法 |
US10387960B2 (en) * | 2012-05-24 | 2019-08-20 | State Farm Mutual Automobile Insurance Company | System and method for real-time accident documentation and claim submission |
JP5481606B1 (ja) * | 2013-07-22 | 2014-04-23 | 株式会社fuzz | 画像生成システムおよび画像生成用プログラム |
CN104517117A (zh) * | 2013-10-06 | 2015-04-15 | 青岛联合创新技术服务平台有限公司 | 智能汽车定损装置 |
CN104268783B (zh) * | 2014-05-30 | 2018-10-26 | 翱特信息系统(中国)有限公司 | 车辆定损估价的方法、装置和终端设备 |
US9491355B2 (en) * | 2014-08-18 | 2016-11-08 | Audatex North America, Inc. | System for capturing an image of a damaged vehicle |
CN105550756B (zh) * | 2015-12-08 | 2017-06-16 | 优易商业管理成都有限公司 | 一种基于模拟车辆受损的汽车快速定损方法 |
CN105719188B (zh) * | 2016-01-22 | 2017-12-26 | 平安科技(深圳)有限公司 | 基于多张图片一致性实现保险理赔反欺诈的方法及服务器 |
CN106251421A (zh) * | 2016-07-25 | 2016-12-21 | 深圳市永兴元科技有限公司 | 基于移动终端的车辆定损方法、装置及系统 |
CN106327156A (zh) * | 2016-08-23 | 2017-01-11 | 苏州华兴源创电子科技有限公司 | 一种车辆定损方法、客户端和系统 |
CN106600421A (zh) * | 2016-11-21 | 2017-04-26 | 中国平安财产保险股份有限公司 | 一种基于图片识别的车险智能定损方法及系统 |
CN107368776B (zh) * | 2017-04-28 | 2020-07-03 | 阿里巴巴集团控股有限公司 | 车辆定损图像获取方法、装置、服务器和终端设备 |
-
2017
- 2017-04-28 CN CN201710294742.3A patent/CN107368776B/zh active Active
- 2017-04-28 CN CN202010488419.1A patent/CN111797689B/zh active Active
-
2018
- 2018-03-14 TW TW107108571A patent/TWI677252B/zh active
- 2018-04-26 WO PCT/CN2018/084635 patent/WO2018196815A1/zh active Application Filing
-
2019
- 2019-10-24 US US16/662,837 patent/US20200058075A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2018196815A1 (zh) | 2018-11-01 |
TWI677252B (zh) | 2019-11-11 |
CN111797689B (zh) | 2024-04-16 |
CN111797689A (zh) | 2020-10-20 |
US20200058075A1 (en) | 2020-02-20 |
CN107368776B (zh) | 2020-07-03 |
CN107368776A (zh) | 2017-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI677252B (zh) | 車輛損害圖像獲取方法、裝置、伺服器和終端設備 | |
US11151384B2 (en) | Method and apparatus for obtaining vehicle loss assessment image, server and terminal device | |
US11809998B2 (en) | Maintaining fixed sizes for target objects in frames | |
CN108764091B (zh) | 活体检测方法及装置、电子设备和存储介质 | |
CN106651955B (zh) | 图片中目标物的定位方法及装置 | |
TW202042175A (zh) | 圖像處理方法及裝置、電子設備和電腦可讀儲存媒體 | |
US10547790B2 (en) | Camera area locking | |
CN108833784B (zh) | 一种自适应构图方法、移动终端及计算机可读存储介质 | |
WO2019062631A1 (zh) | 一种局部动态影像生成方法及装置 | |
JP6955028B2 (ja) | 虹彩認識のプロセスの間のプレビューに使用するための方法及び装置 | |
CN114267041A (zh) | 场景中对象的识别方法及装置 | |
WO2019090734A1 (zh) | 拍摄方法及装置、移动终端及计算机可读存储介质 | |
US9716822B2 (en) | Direction aware autofocus | |
US12033082B2 (en) | Maintaining fixed sizes for target objects in frames | |
US20230316678A1 (en) | Augmented reality guiding method, apparatus, electronic device and computer-readable storage medium | |
Schörkhuber | Techniques for improving mobile video creation | |
CN117082344A (zh) | 图像拍摄方法和装置 |