TWI713366B - 對影像進行目標取樣的方法及裝置 - Google Patents
對影像進行目標取樣的方法及裝置 Download PDFInfo
- Publication number
- TWI713366B TWI713366B TW108122070A TW108122070A TWI713366B TW I713366 B TWI713366 B TW I713366B TW 108122070 A TW108122070 A TW 108122070A TW 108122070 A TW108122070 A TW 108122070A TW I713366 B TWI713366 B TW I713366B
- Authority
- TW
- Taiwan
- Prior art keywords
- area
- sampling
- frame
- predetermined
- marking
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0283—Price estimation or determination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Entrepreneurship & Innovation (AREA)
- General Engineering & Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Life Sciences & Earth Sciences (AREA)
- Development Economics (AREA)
- Quality & Reliability (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Marketing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Tourism & Hospitality (AREA)
- Computational Linguistics (AREA)
- Operations Research (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Game Theory and Decision Science (AREA)
- Image Analysis (AREA)
Abstract
本說明書實施例提供一種電腦執行的對影像進行目標取樣的方法和裝置,根據該方法的一個實施方式,首先獲取預先透過人工對目標進行標記的影像,其中,影像中透過最大標記邊框包圍目標的最大連續區域,透過多個子標記邊框分別包圍目標的部分連續區域,然後,在最大標記邊框內,按照預定取樣邊框確定候選取樣區域,接著,將候選取樣區域與各個子標記邊框所包圍的各個區域依次進行重疊狀況的對比,從而確定對應的重疊參數,並在重疊參數滿足預定條件的情況下,將候選取樣區域取樣為用於訓練目標檢測模型的正樣本。該實施方式可以提高對目標進行正樣本取樣的有效性。
Description
本說明書一個或多個實施例涉及電腦技術領域,尤其涉及透過電腦對影像進行目標取樣的方法和裝置。
影像識別技術是人工智慧的一個重要領域,它是指對影像進行物件識別,以識別各種不同模式的目標和物件的技術。在一個事物包括多個部件的情況下,還可以包括對該事物中各個部件的識別。例如,對人臉影像中的五官的識別、車輛影像中各個車輛部件的識別等等。
在對影像中的目標物件進行識別的過程中,往往需要預先透過一定數量的正樣本和負樣本訓練目標檢測模型。不過,目前對許多場景下的目標檢測訓練的取樣效果不夠理想。例如,對於智慧型車輛定損場景下的車輛損壞物件的目標檢測,需要大量的包含損壞物件的樣本作為正樣本,以及不含損壞物件的樣本作為負樣本。然而,常規技術中,往往出現正樣本取樣不足,以及負樣本中包含部分損壞物件因而存在大量雜訊干擾的問題。因此,需要提供一種方法,提高正樣本取樣的有效性。
本說明書一個或多個實施例描述了一種電腦執行的對影像進行目標取樣的方法和裝置,可以透過在包圍目標的最大連續區域內採集正樣本,大大提高對目標正樣本取樣的有效性。
根據第一態樣,提供了一種電腦執行的對影像進行目標取樣的方法,包括:獲取用於對目標進行取樣的影像,其中,所述影像至少包括預先人工標記的最大標記邊框和位於所述最大標記邊框內的多個子標記邊框,所述最大標記邊框用於包圍所述目標的最大連續區域,所述多個子標記邊框分別包圍所述目標的部分連續區域;在所述最大標記邊框內,按照預定取樣邊框確定候選取樣區域,其中,所述預定取樣邊框包括具有預定大小和預定形狀的邊框;根據所述候選取樣區域與各個子標記邊框所包圍的各個區域之間的重疊狀況,確定對應的重疊參數;在所述重疊參數滿足預定條件的情況下,將所述候選取樣區域取樣為用於訓練目標檢測模型的正樣本。
根據一態樣的實施方式,所述在所述最大標記邊框內,按照預定取樣邊框確定候選取樣區域包括:從所述最大標記邊框中確定所述預定取樣邊框的起始位置;將所述預定取樣邊框按照預設的移動規則從起始位置移動,以將所述預定取樣邊框當前包圍的區域確定為所述候選取樣區域。
根據另一態樣的實施方式,所述在所述最大標記邊框內,按照預定取樣邊框確定候選取樣區域包括:隨機確定所述預定取樣邊框在所述最大標記邊框中的位置;將所述預定取樣邊框包圍的區域確定為所述候選取樣區域。
在一個實施例中,根據所述候選取樣區域與各個子標記邊框所包圍的各個區域之間的重疊狀況,確定對應的重疊參數包括:針對所述多個子標記邊框中任意一個子標記邊框所包圍的第一區域,獲取所述候選取樣區域與所述第一區域的重疊區域,以及所述候選取樣區域與所述第一區域的總包圍區域;將所述重疊區域與所述總包圍區域的第一面積比作為所述重疊參數。
進一步地,根據一個實施例,所述預定條件包括,所述候選取樣區域與任意一個子標記邊框之間的所述重疊參數落入預定範圍。
根據另一種可能的設計,所述方法還包括:在所述最大標記邊框外,按照所述預定取樣邊框確定取樣區域,以作為用於訓練目標檢測模型的負樣本。
在一個實施例中,所述影像為包含車輛損壞的影像,所述目標為連續損壞。
在一個實施例中,所述多個子標記區域相互之間沒有重疊。
在一個實施例中,所述預定邊框的預定大小和預定形狀可調。
根據第二態樣,提供一種電腦執行的對影像進行目標取樣的裝置,包括:獲取單元,配置為獲取用於對目標進行取樣的影像,其中,所述影像至少包括預先人工標記的最大標記邊框和位於所述最大標記邊框內的多個子標記邊框,所述最大標記邊框用於包圍所述目標的最大連續區域,所述多個子標記邊框分別包圍所述目標的部分連續區域;確定單元,配置為在所述最大標記邊框內,按照預定取樣邊框確定候選取樣區域,其中,所述預定取樣邊框包括具有預定大小和預定形狀的邊框;對比單元,配置為根據所述候選取樣區域與各個子標記邊框所包圍的各個區域之間的重疊狀況,確定對應的重疊參數;取樣單元,配置為在所述重疊參數滿足預定條件的情況下,將所述候選取樣區域取樣為用於訓練目標檢測模型的正樣本。
根據第三態樣,提供了一種電腦可讀儲存媒體,其上儲存有電腦程式,當所述電腦程式在電腦中執行時,令電腦執行第一態樣的方法。
根據第四態樣,提供了一種計算設備,包括記憶體和處理器,其特徵在於,所述記憶體中儲存有可執行碼,所述處理器執行所述可執行碼時,實現第一態樣的方法。
透過本說明書實施例提供的對影像進行目標取樣的方法和裝置,首先獲取預先透過人工對目標進行標記的影像,其中,影像中透過最大標記邊框包圍目標的最大連續區域,透過多個子標記邊框分別包圍目標的部分連續區域,然後,在最大標記邊框內,按照預定取樣邊框確定候選取樣區域,接著,根據候選取樣區域與各個子標記邊框所包圍的各個區域之間的重疊狀況,確定對應的重疊參數,並在重疊參數滿足預定條件的情況下,將候選取樣區域取樣為用於訓練目標檢測模型的正樣本。由於在最大標記邊框內,基於候選取樣區域與子標記邊框所包圍區域的重疊狀況取樣正樣本,可以提高對目標進行正樣本取樣的有效性。
下面結合所附圖式,對本說明書提供的方案進行描述。
圖1為本說明書揭露的一個實施例的實施場景示意圖。如圖1所示,在該實施場景中,計算平台透過標記影像進行取樣,得到用於訓練目標檢測模型的樣本集。圖1所示的計算平台可以採集正樣本和負樣本加入樣本集。標記影像是標記了目標的影像。其中,正樣本通常是具有包含待識別目標標籤的影像,負樣本往往是具有不包含待識別目標標籤的影像。例如,該應用場景中的目標可以是車輛上的損壞,正樣本就是包含某類損壞的影像,負樣本就可以是不包含某類損壞的影像。
根據圖1,計算平台採集的樣本集可以用於訓練目標檢測模型。在將待檢測影像輸入訓練好的目標檢測模型的情況下,根據目標檢測模型的輸出結果可以確定對待檢測影像的目標檢測結果。該目標檢測結果例如可以是,是否包含目標等。在目標是車輛損壞的情況下,訓練得到的目標檢測模型也可以是損壞識別模型。對於使用者拍攝的事故現場影像,就可以將現場影像輸入該損壞識別模型,自動識別影像中的車損狀況。
值得說明的是,目標檢測模型的訓練過程以及透過目標檢測模型進行目標識別的過程,可以由圖1示出的計算平台執行,也可以由其他計算平台執行。圖1的計算平台可以設置在一台或多台電腦上。
本說明書實施例的改進主要體現在對標記影像進行取樣的過程。可以理解,標記影像可以是標記出目標的影像。在本方案的實施例中,標記影像至少可以包括預先透過人工標記出的最大標記邊框和位於最大標記邊框內的多個子標記邊框。其中,最大標記邊框用於包圍目標的最大連續區域,多個子標記邊框分別包圍目標的部分連續區域。
具體地,計算平台可以首先獲取這些標記影像,並在最大標記邊框內,按照預定取樣邊框確定候選取樣區域。例如,將預定取樣邊框內所包圍的區域確定為候選取樣區域。其中,預定取樣邊框可以是具有預定大小和預定形狀的邊框。接著,計算平台可以將候選取樣區域與各個子標記邊框所包圍的各個區域依次進行對比,以根據候選取樣區域與各個子標記邊框所包圍的各個區域之間的重疊狀況,確定對應的重疊參數。然後,在重疊參數滿足預定條件的情況下,計算平台可以將候選取樣區域取樣為用於訓練目標檢測模型的正樣本。
在一些實施例中,預定取樣邊框的大小和形狀可以調整,或者在多種選擇中選定。確定一種取樣邊框後,計算平台可以按照這種取樣邊框進行一輪取樣。可選地,計算平台使用一種取樣邊框進行取樣後,還可以透過調整或選擇得到另一種取樣邊框進行新一輪的取樣。
如此,透過在最大標記邊框內採集正樣本,且採集為正樣本的候選取樣區域與子標記邊框滿足重疊的預定條件,大大豐富所取樣的正樣本的數量,使得正負樣本數量趨於平衡。透過有效的正樣本取樣,進一步可以提高目標檢測模型的準確性。
另一方面,由於常規技術中,負樣本有時會包含部分目標區域而導致訓練模型時出現的雜訊干擾,也會影響目標檢測模型的準確性。因此,在一些實施例中,可以在最大標記邊框之外的區域採集負樣本。這樣,最大程度上降低了雜訊干擾,可以進一步提高目標檢測模型的準確性。
下面描述上述場景的具體執行過程。
圖2示出根據一個實施例的電腦執行的對影像進行目標取樣的方法流程圖。作為該方法的執行主體的電腦,可以是任何具有計算、處理能力的系統、設備、裝置、平台或伺服器。透過圖2的流程取樣得到的正樣本,可以用於訓練目標檢測模型。
如圖2示,該方法包括以下步驟:步驟21,獲取用於對目標進行取樣的影像,其中,上述影像至少包括預先人工標記的最大標記邊框和位於最大標記邊框內的多個子標記邊框,最大標記邊框用於包圍目標的最大連續區域,多個子標記邊框分別包圍目標的部分連續區域;步驟22,在最大標記邊框內,按照預定邊框確定候選取樣區域,其中,預定邊框包括具有預定大小和預定形狀的邊框;步驟23,根據候選取樣區域與各個子標記邊框所包圍的各個區域之間的重疊狀況,確定對應的重疊參數;步驟24,在重疊參數滿足預定條件的情況下,將候選取樣區域取樣為用於訓練目標檢測模型的正樣本。
首先,在步驟21,獲取用於對目標進行取樣的影像,上述影像至少包括預先人工標記的最大標記邊框和位於最大標記邊框內的多個子標記邊框。可以理解,這裡說的影像首先是包含目標的影像,並且影像中的目標已經過人工透過相應標記邊框進行標記。
這裡的目標可以是待訓練的目標檢測模型的檢測物件。更具體地,本說明書實施例特別適用於具有連續性和自包含性的目標,例如河流,雲朵,車輛上的刮擦損壞,等等。這樣的目標往往邊界形狀並不規則,並且,其自包含性意味著,從目標區域中截取的一部分區域也可以作為一個單獨的目標。例如,從河流的樣本影像中截取其中任意一段河流,也可以作為單獨的河流樣本。在一個實施例中,影像是包含車輛損壞的影像,標記的目標是連續損壞。
對於包含這樣的目標的影像,可以使得標記人員首先標記出目標的最大連續區域,然後,在其中框選出若干個目標的部分連續區域。包圍目標的最大連續區域的邊框此處稱為最大標記邊框。但是應理解,該最大標記邊框,是用於包圍目標的最大連續區域,其中的“最大”是與“最大連續區域”中的“最大”相對應的,而不是說邊框最大。相應地,用於包圍目標的部分連續區域的邊框稱為子標記邊框。
請參考圖3,圖3標記的目標是河流。在圖3中,包括不連續的兩段河流。其中,最大標記邊框301包圍了下面一段河流的最大連續區域。實際應用中,還可以人工標記出包圍最上端的河流連續區域的最大標記邊框,由於圖3僅為標記示例,不再一一標記。通常,該最大標記邊框可以是正方形或矩形,在一些實現中,也可以是三角形、圓形等等,本說明書實施例對此不作限定。並且,圖3中還包括多個子標記邊框302,每個子標記邊框302包圍了河流的一部分連續區域。值得說明的是:各個子標記邊框302的形狀和大小可以一致,也可以不一致;相鄰兩個子標記邊框302之間可以相接,也可以不相接;多個子標記邊框302之間可以有重疊,也可以沒有重疊;多個子標記邊框302所包圍的河流的一部分連續區域連接起來可以構成最大標記邊框301所包圍的全部河流連續區域,也可以不完全包圍最大標記邊框301所包圍的全部河流連續區域。子標記邊框的形狀和最大標記邊框可以一致,也可以不一致。
如此,透過人工標記出目標各個區域的影像,可以確定用於訓練目標檢測模型的正樣本取樣範圍。
接著,透過步驟22,在上述最大標記邊框內,按照預定邊框確定候選取樣區域。可以理解,取樣邊框是用於劃定候選樣本區域的邊框。預定取樣邊框可以是預先確定大小和形狀的邊框。實踐中,可以由人工設定取樣邊框的大小和形狀,也可以給定若干個形狀及對應的大小供使用者選擇。在一些實現中,預定取樣邊框的大小或形狀可以調整。例如,對於給定形狀及對應的大小的若干個取樣邊框,可以輪流作為預定取樣邊框進行取樣。
候選取樣區域,是可能被取樣為樣本的區域。由於透過最大標記邊框限定了取樣範圍,進一步地,可以根據預定取樣邊框在最大標記框內確定候選取樣區域。通常,預定取樣邊框所包圍的區域可以作為候選取樣區域。如圖3所述,透過預定取樣邊框303可以確定一個候選取樣區域。
根據一種可能的設計,針對一張用於對目標進行取樣的影像中的一個最大標記區域,在一個預定取樣邊框下,可以預先設定移動規則,以在本步驟22中按照該預先設定的移動規則移動預定取樣邊框。其中,每移動一次預定取樣邊框,可以確定一個候選取樣區域。該移動規則可以包括預定取樣邊框的初始位置、每次移動相對於前一個位置的偏移距離、移動方向等等。
作為一個示例,請參考圖4。在圖4示出的最大標記邊框400中,預定取樣邊框以最大標記邊框400的左上角為起始位置,按照預定取樣邊框的左右寬度為步長向右進行移動。起始位置時,預定取樣邊框確定的候選取樣區域為區域401,經過一次移動,預定取樣邊框確定的區域為區域402。在該步驟中,可以一次獲取一個候選取樣區域,也可以一次獲取多個候選取樣區域。
根據另一種可能的設計,還可以隨機確定預定取樣邊框在最大標記邊框中的位置,將預定取樣邊框包圍的區域確定為候選取樣區域。此時,可以先確定取樣邊框的一個基準點(例如中心點或頂點),根據基準點的移動範圍(例如矩形中心點的移動範圍與最大標記邊框的頂點存在一定距離等)隨機指定一個位置作為基準點的位置,從而確定預定取樣邊框的位置。
步驟23,根據候選取樣區域與各個子標記邊框所包圍的各個區域之間的重疊狀況,確定對應的重疊參數。可以理解,子標記邊框包圍有目標的部分連續區域,因此,子標記邊框所包圍的區域可以作為用於訓練目標檢測模型的正樣本。透過與子標記邊框所包圍的區域進行重疊狀況的對比,可以達到擴充樣本集中的正樣本的目的。
在針對一張影像中的一個最大標記邊框進行取樣時,對一個預定取樣邊框所確定的一個候選取樣區域,可以與子標記邊框所包圍的區域逐個進行對比。對比時,可以按照子標記邊框的排列順序進行,也可以按照與候選取樣區域的距離由近及遠進行。在一些實現中,還可以只對比各個子標記邊框所包圍的各個區域中的一部分區域,例如只對比與候選取樣區域的距離在預定臨限值範圍內(如50個像素)的區域,或者,只對比與候選取樣區域有交集的區域。這樣,可以大大減少區域對比時,作為執行主體的電腦的資料處理量。
在本步驟中,候選取樣區域與各個子標記邊框所包圍的各個區域之間的對比,主要是對候選取樣區域與各個子標記邊框所包圍的區域的重疊狀況的判斷,並透過對比確定對應的重疊參數。對於某個子標記邊框所包圍的第一區域,候選取樣區域與該第一區域的重疊狀況例如可以包括是否重疊、重疊度、重疊率等。其中,候選取樣區域與該第一區域的重疊度或重疊率等可以透過重疊參數來表示。可選地,當候選取樣區域與該第一區域沒有重疊時,重疊參數為0。
在一個實施例中,可以針對多個子標記邊框中任意一個子標記邊框所包圍的第一區域,獲取該候選取樣區域與第一區域的重疊區域,以及候選取樣區域與第一區域的總包圍區域,並確定重疊區域與總包圍區域的第一面積比作為重疊參數。該第一面積比也可以稱之為該第一區域與候選取樣區域的交集聯集比(Intersection over Union,IoU)。如圖5所示,第一區域501與候選取樣區域502相交,黑線框所包圍的區域503是第一區域501與候選取樣區域502的重疊區域,灰色格子標識的區域504是第一區域501與候選取樣區域502的總包圍區域。此時,第一面積比=區域503的面積/區域504的面積。實踐中,由於單個像素所占區域是確定的,第一面積比還可以用像素數的比值來確定。例如圖5的示例中,假設一個格子表示一個像素,第一面積比=區域503的像素數/區域504的像素數=16/122。
在一些其他實施例中,候選取樣區域與任意一個子標記邊框所包圍的第一區域的重疊參數還可以是其他形式。例如,重疊參數還可以是,候選取樣區域與第一區域的重疊區域和候選取樣區域、第一區域兩者中較大的區域的面積比。以圖5所示為例,第一區域501與候選取樣區域502進行對比的對比結果可以是:區域503與區域501的面積比。面積比的計算方法與前述第一面積比類似,在此不再贅述。
透過對比確定候選取樣區域與至少一個子標記邊框所包圍區域的重疊參數,可以為正樣本的擴充提供依據。
然後,步驟24,在步驟23得到的重疊參數滿足預定條件的情況下,將候選取樣區域取樣為用於訓練目標檢測模型的正樣本。這裡的重疊參數滿足預定條件,可以是候選取樣區域與單個子標記邊框所包圍的區域對應的重疊參數滿足預定條件,也可以是候選取樣區域與各個子標記邊框所包圍的各個區域進行對比的多個重疊參數整體滿足預定條件,本說明書實施例對此不作限定。
預定條件是預先設置的,用於判斷候選取樣區域是否適合作為用於訓練目標檢測模型的正樣本的條件。可以理解,適合作為訓練目標檢測模型的正樣本,即區域中包括目標檢測模型的檢測目標。也就是說候選取樣區域與任一個子標記邊框所包圍的區域具有一定的重疊度/重疊率。換句話說,就是重疊參數落入預定範圍。根據重疊參數的形式和確定方式的不同,預定條件也不相同。
在一個實施例中,上述候選取樣區域與第一區域的重疊參數是重疊區域與總包圍區域的第一面積比。此時,預定條件可以是第一面積比大於預定比值(如0.7)。可選地,如果上述第一區域已經被默認為取樣為用於訓練目標監測模型的正樣本,預定條件中還可以限定該第一面積比小於預定臨限值(例如1)。該預定臨限值和前述預定比值構成預定範圍。如此,是為了避免取樣到上述第一區域,造成正樣本的重複取樣。
在其他實施例中,根據對比結果的形式,還可以設置其他合理的預定條件,例如,候選取樣區域與第一區域的重疊參數是,候選取樣區域與第一區域的重疊區域和候選取樣區域、第一區域兩者中較大的區域的面積比,預定條件可以是,該面積比大於預定比值(如0.7等)。可選地,預定條件中也可以限定該面積比小於預定臨限值(例如1)。在此不再贅述。在一些可選實現方式中,針對一個候選取樣區域,有任一個子標記邊框所包圍的區域與該候選取樣區域對應的重疊參數滿足預定條件時,可以不再進行候選取樣區域與其他子標記邊框所包圍的區域進行對比,如此,可以節約電腦的資料處理量。
在一個實施例中,當預定條件是候選取樣區域與各個子標記邊框所包圍的各個區域進行對比的多個重疊參數整體滿足預定條件時,預定條件還可以是諸如該多個重疊參數中的最大值大於預定比值(如0.7)或落入預定範圍之類的條件。
如此,針對一張影像中的一個最大標記邊框所包圍的區域進行取樣時,每一個預定取樣邊框,可以確定多個候選取樣區域。對每個候選取樣區域,透過步驟23的對比、步驟24的判斷,可以確定是否取樣為用於訓練目標檢測模型的正樣本。從而,針對每一個預定取樣邊框,可以透過循環執行步驟22、步驟23、步驟24,完成對影像中的一個最大標記邊框所包圍的區域的一輪取樣。在一些實現中,調整預定取樣邊框的大小、形狀,得到另一個取樣邊框,可以進行對影像中的一個最大標記邊框所包圍的區域的另一輪取樣。針對各種滿足需要的取樣邊框完成對影像中的一個最大標記邊框所包圍的區域的取樣,即完成了對影像中的一個最大標記邊框所包圍的區域的取樣。可選地,如果影像中還有其他最大標記邊框,可以重複同樣的方法完成對其所包圍的區域的取樣。直至影像中的最大標記邊框取樣完畢,則對該影像進行取樣完畢。
根據一個可能的實施例,在重疊參數不滿足上述預定條件的情況下,可以將候選取樣區域取樣為用於訓練目標檢測模型的負樣本。例如,候選取樣區域與全部子標記邊框所包圍的區域的第一面積比都小於上述預定比值(如0.7),等等。可選地,在重疊參數不滿足上述預定條件的情況下,還可以對候選取樣區域進一步篩選,使候選取樣區域與全部子標記邊框所包圍的區域的對比結果滿足負樣本取樣條件。例如,該負樣本取樣條件可以是:候選取樣區域與全部子標記邊框所包圍的區域中的每一個區域,候選取樣區域與該區域的重疊區域/候選取樣區域與該區域的總包圍區域,都小於負樣本取樣比值(如0.1)。在候選取樣區域與全部子標記邊框所包圍的區域的對比結果滿足負樣本取樣條件的情況下,才將候選取樣區域取樣為用於訓練目標檢測模型的負樣本。如此,可以增加在最大標記邊框內採集負樣本的難度,從而減小從最大標記邊框內採集負樣本造成的雜訊干擾。
根據另一種實施方式,還可以在最大標記邊框外,按照預定取樣邊框確定取樣區域,以作為用於訓練目標檢測模型的負樣本。可以理解,由於影像中的目標被包圍在最大標記邊框內,因此,在最大標記邊框外確定的取樣區域作為負樣本,造成的雜訊干擾降到最低。可選地,如果一個影像中包括相同目標的多個最大標記邊框,所確定的取樣區域還可以是在影像中全部最大標記邊框之外。
值得說明的是,將候選取樣區域取樣為正樣本或負樣本,可以是只擷取上述取樣區域部分的影像。取樣到的影像,可以具有包含目標(如河流)或不包含目標的標籤。通常,正樣本具有包含目標的標籤,負樣本具有不包含目標的標籤。
在影像為包含車輛損壞的影像,目標是連續損壞的情況下,透過圖2所示的流程,除了子標記邊框所包圍的區域,還可以採集到更多用於訓練損壞識別模型(目標檢測模型)的正樣本。如此,大大減少了人工標記的正樣本數量。
回顧以上過程,在對使用者進行電腦執行的對影像進行目標取樣過程中,透過在包圍目標的最大連續區域內採集正樣本,首先在最大標記邊框內的人工標記多個子標記邊框,然後在最大標記邊框內,按照預定取樣邊框確定候選取樣區域,基於候選取樣區域與子標記邊框所包圍區域的重疊狀況的檢測,確定候選取樣區域是否可以取樣為正樣本,從而可以大大提高對目標正樣本取樣的有效性。進一步地,還可以在大大減少人工標記正樣本的情況下擴充樣本集,提高目標檢測模型的準確度。
根據另一態樣的實施例,還提供一種電腦執行的對影像進行目標取樣的裝置。圖6示出根據一個實施例的用於電腦執行的對影像進行目標取樣的裝置的示意性方塊圖。如圖6所示,用於電腦執行的對影像進行目標取樣的裝置600包括:獲取單元61,配置為獲取用於對目標進行取樣的影像,其中,上述影像至少包括預先人工標記的最大標記邊框和位於最大標記邊框內的多個子標記邊框,最大標記邊框用於包圍目標的最大連續區域,多個子標記邊框分別包圍目標的部分連續區域;確定單元62,配置為在最大標記邊框內,按照預定取樣邊框確定候選取樣區域,其中,預定取樣邊框包括具有預定大小和預定形狀的邊框;對比單元63,配置為根據候選取樣區域與各個子標記邊框所包圍的各個區域的重疊狀況,確定對應的重疊參數;取樣單元64,配置為在重疊參數滿足預定條件的情況下,將候選取樣區域取樣為用於訓練目標檢測模型的正樣本。
獲取單元61所獲取的影像至少預先透過人工標記了目標的最大標記邊框和位於最大標記邊框內的多個子標記邊框。目標可以是待訓練的目標檢測模型的檢測物件。例如,在一些應用場景中,影像可以是包含車輛損壞的影像,目標為連續損壞。值得說明的是,“最大標記邊框”中的“最大”是與“最大連續區域”中的“最大”相對應的,而不是說邊框最大。子標記邊框的形狀和最大標記邊框可以一致,也可以不一致。在一些實現中,多個子標記邊框之間沒有重疊。
確定單元62可以按照預定邊框,在最大標記邊框內確定候選取樣區域。取樣邊框是用於劃定候選樣本區域的邊框。預定取樣邊框可以是預先確定大小和形狀的邊框。在一些實現中,預定取樣邊框的大小或形狀可以調整。根據一個實施例,確定單元62還可以進一步配置為:從最大標記邊框中確定預定取樣邊框的起始位置,並將預定取樣邊框按照預設的移動規則從起始位置移動,以將預定取樣邊框移動後的當前包圍的區域確定為候選取樣區域。在另一個實施例中,確定單元62也可以進一步配置為:隨機確定預定取樣邊框在最大標記邊框中的位置,並將預定取樣邊框包圍的區域確定為候選取樣區域。
對比單元63可以將候選取樣區域與各個子標記邊框所包圍的各個區域依次進行對比,根據候選取樣區域與上述各個區域之間的重疊狀況,確定對應的重疊參數。在針對一張影像中的一個最大標記邊框進行取樣時,對一個預定取樣邊框所確定的一個候選取樣區域,可以與子標記邊框所包圍的區域逐個進行對比。對比時,可以按照子標記邊框的排列順序進行,也可以按照距離候選取樣區域的遠近進行。在一些實現中,還可以只對比各個子標記邊框所包圍的各個區域中的一部分區域。在一些實現中,對比單元63針對多個子標記邊框中任意一個子標記邊框所包圍的第一區域,可以獲取候選取樣區域與第一區域的重疊區域,以及候選取樣區域與所述第一區域的總包圍區域,並確定重疊區域與總包圍區域的第一面積比。該第一面積比可以作為候選取樣區域與第一區域的重疊參數。此時,取樣單元64中預先設定的預定條件可以包括,候選取樣區域與任意一個子標記邊框之間的第一面積比大於預定比值(如0.7),或落入預定範圍(如0.7-0.99)。
取樣單元64可以在對比單元63得到的重疊參數滿足預定條件的情況下,將候選取樣區域取樣為用於訓練目標檢測模型的正樣本。根據一個可能的設計,取樣單元64還可以在重疊參數不滿足預定條件的情況下,將候選取樣區域取樣為用於訓練目標檢測模型的負樣本。可選地,在重疊參數不滿足上述預定條件的情況下,還可以對候選取樣區域進一步篩選,使候選取樣區域與全部子標記邊框所包圍的區域的重疊參數滿足負樣本取樣條件。例如,負樣本取樣條件可以是候選取樣區域與該區域的重疊區域/候選取樣區域與該區域的總包圍區域,都小於負樣本取樣比值(如0.1)。根據另一個可能的設計,取樣單元64可以在最大標記邊框外,按照預定取樣邊框確定取樣區域,以作為用於訓練目標檢測模型的負樣本。用最大標記邊框外確定的取樣區域作為負樣本,造成的雜訊干擾降到最低。
值得說明的是,圖6所示的裝置600是與圖2示出的方法實施例相對應的裝置實施例,圖2示出的方法實施例中的相應描述同樣適用於裝置600,在此不再贅述。
透過以上裝置,透過在包圍目標的最大連續區域內確定候選取樣區域,基於候選取樣區域與子標記邊框所包圍區域的重疊度的對比,確定候選取樣區域是否可以取樣為正樣本,從而大大提高對目標正樣本取樣的有效性。
根據另一態樣的實施例,還提供一種電腦可讀儲存媒體,其上儲存有電腦程式,當所述電腦程式在電腦中執行時,令電腦執行結合圖2所描述的方法。
根據再一態樣的實施例,還提供一種計算設備,包括記憶體和處理器,所述記憶體中儲存有可執行碼,所述處理器執行所述可執行碼時,實現結合圖2所述的方法。
本領域技術人員應該可以意識到,在上述一個或多個示例中,本發明所描述的功能可以用硬體、軟體、韌體或它們的任意組合來實現。當使用軟體實現時,可以將這些功能儲存在電腦可讀媒體中或者作為電腦可讀媒體上的一個或多個指令或碼進行傳輸。
以上所述的具體實施方式,對本發明的目的、技術方案和有益效果進行了進一步詳細說明,所應理解的是,以上所述僅為本發明的具體實施方式而已,並不用於限定本發明的保護範圍,凡在本發明的技術方案的基礎之上,所做的任何修改、等同替換、改進等,均應包括在本發明的保護範圍之內。
21:步驟
22:步驟
23:步驟
24:步驟
301:最大標記邊框
302:子標記邊框
303:預定取樣邊框
400:最大標記邊框
401:區域
402:區域
501:第一區域
502:候選取樣區域
503:區域
504:區域
600:裝置
61:獲取單元
62:確定單元
63:對比單元
64:取樣單元
為了更清楚地說明本發明實施例的技術方案,下面將對實施例描述中所需要使用的所附圖式作簡單地介紹,顯而易見地,下面描述中的所附圖式僅僅是本發明的一些實施例,對於本領域普通技術人員來講,在不付出創造性勞動的前提下,還可以根據這些所附圖式獲得其它的所附圖式。
圖1示出本說明書揭露的一個實施例的實施場景示意圖;
圖2示出根據一個實施例的電腦執行的對影像進行目標取樣的方法流程圖;
圖3示出目標為河流的一個用於進行目標取樣的影像的具體實例;
圖4示出透過預定取樣邊框確定候選取樣區域的一個具體實例;
圖5示出將候選取樣區域與任意一個子標記邊框所包圍的區域進行對比的一個具體實例;以及
圖6示出根據一個實施例的電腦執行的對影像進行目標取樣的裝置的示意性方塊圖。
Claims (20)
- 一種電腦執行的對影像進行目標取樣的方法,所述方法包括: 獲取用於對目標進行取樣的影像,其中,所述影像至少包括預先人工標記的最大標記邊框和位於所述最大標記邊框內的多個子標記邊框,所述最大標記邊框用於包圍所述目標的最大連續區域,所述多個子標記邊框分別包圍所述目標的部分連續區域; 在所述最大標記邊框內,按照預定取樣邊框確定候選取樣區域,其中,所述預定取樣邊框包括具有預定大小和預定形狀的邊框; 根據所述候選取樣區域與各個子標記邊框所包圍的各個區域之間的重疊狀況,確定對應的重疊參數; 在所述重疊參數滿足預定條件的情況下,將所述候選取樣區域取樣為用於訓練目標檢測模型的正樣本。
- 根據請求項1所述的方法,其中,所述在所述最大標記邊框內,按照預定取樣邊框確定候選取樣區域包括: 從所述最大標記邊框中確定所述預定取樣邊框的起始位置; 將所述預定取樣邊框按照預設的移動規則從起始位置移動,以將所述預定取樣邊框當前包圍的區域確定為所述候選取樣區域。
- 根據請求項1所述的方法,其中,所述在所述最大標記邊框內,按照預定取樣邊框確定候選取樣區域包括: 隨機確定所述預定取樣邊框在所述最大標記邊框中的位置; 將所述預定取樣邊框包圍的區域確定為所述候選取樣區域。
- 根據請求項1所述的方法,其中,根據所述候選取樣區域與各個子標記邊框所包圍的各個區域之間的重疊狀況,確定對應的重疊參數包括: 針對所述多個子標記邊框中任意一個子標記邊框所包圍的第一區域,獲取所述候選取樣區域與所述第一區域的重疊區域, 確定所述候選取樣區域與所述第一區域的總包圍區域; 將所述重疊區域與所述總包圍區域的第一面積比作為所述重疊參數。
- 根據請求項1所述的方法,其中,所述預定條件包括,所述候選取樣區域與任意一個子標記邊框之間的所述重疊參數落入預定範圍。
- 根據請求項1所述的方法,其中,所述方法還包括: 在所述最大標記邊框外,按照所述預定取樣邊框確定取樣區域,以作為用於訓練目標檢測模型的負樣本。
- 根據請求項1所述的方法,其中,所述影像為包含車輛損壞的影像,所述目標為連續損壞。
- 根據請求項1所述的方法,其中,所述多個子標記區域相互之間沒有重疊。
- 根據請求項1所述的方法,其中,所述預定邊框的預定大小和預定形狀可調。
- 一種電腦執行的對影像進行目標取樣的裝置,所述裝置包括: 獲取單元,配置為獲取用於對目標進行取樣的影像,其中,所述影像至少包括預先人工標記的最大標記邊框和位於所述最大標記邊框內的多個子標記邊框,所述最大標記邊框用於包圍所述目標的最大連續區域,所述多個子標記邊框分別包圍所述目標的部分連續區域; 確定單元,配置為在所述最大標記邊框內,按照預定取樣邊框確定候選取樣區域,其中,所述預定取樣邊框包括具有預定大小和預定形狀的邊框; 對比單元,配置為根據所述候選取樣區域與各個子標記邊框所包圍的各個區域之間的重疊狀況,確定對應的重疊參數; 取樣單元,配置為在所述重疊參數滿足預定條件的情況下,將所述候選取樣區域取樣為用於訓練目標檢測模型的正樣本。
- 根據請求項10所述的裝置,其中,所述確定單元進一步配置為: 從所述最大標記邊框中確定所述預定取樣邊框的起始位置; 將所述預定取樣邊框按照預設的移動規則從起始位置移動,以將所述預定取樣邊框當前包圍的區域確定為所述候選取樣區域。
- 根據請求項10所述的裝置,其中,所述確定單元進一步配置為: 隨機確定所述預定取樣邊框在所述最大標記邊框中的位置; 將所述預定取樣邊框包圍的區域確定為所述候選取樣區域。
- 根據請求項10所述的裝置,其中,所述對比單元進一步配置為: 針對所述多個子標記邊框中任意一個子標記邊框所包圍的第一區域,獲取所述候選取樣區域與所述第一區域的重疊區域,以及所述候選取樣區域與所述第一區域的總包圍區域; 將所述重疊區域與所述總包圍區域的第一面積比作為所述重疊參數。
- 根據請求項13所述的裝置,其中,所述預定條件包括,所述候選取樣區域與任意一個子標記邊框之間的所述重疊參數落入預定範圍。
- 根據請求項10所述的裝置,其中,所述取樣單元還配置為: 在所述最大標記邊框外,按照所述預定取樣邊框確定取樣區域,以作為用於訓練目標檢測模型的負樣本。
- 根據請求項10所述的裝置,其中,所述影像為包含車輛損壞的影像,所述目標為連續損壞。
- 根據請求項10所述的裝置,其中,所述多個子標記區域相互之間沒有重疊。
- 根據請求項10所述的裝置,其中,所述預定邊框的預定大小和預定形狀可調。
- 一種電腦可讀儲存媒體,其上儲存有電腦程式,當所述電腦程式在電腦中執行時,令電腦執行請求項1至9中任一項的所述的方法。
- 一種計算設備,包括記憶體和處理器,其特徵在於,所述記憶體中儲存有可執行碼,所述處理器執行所述可執行碼時,實現請求項1至9中任一項所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811046061.6A CN110569699B (zh) | 2018-09-07 | 2018-09-07 | 对图片进行目标采样的方法及装置 |
CN201811046061.6 | 2018-09-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202011733A TW202011733A (zh) | 2020-03-16 |
TWI713366B true TWI713366B (zh) | 2020-12-11 |
Family
ID=68772317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108122070A TWI713366B (zh) | 2018-09-07 | 2019-06-25 | 對影像進行目標取樣的方法及裝置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11069048B2 (zh) |
EP (1) | EP3847579A1 (zh) |
CN (1) | CN110569699B (zh) |
SG (1) | SG11202012526SA (zh) |
TW (1) | TWI713366B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10832332B1 (en) * | 2015-12-11 | 2020-11-10 | State Farm Mutual Automobile Insurance Company | Structural characteristic extraction using drone-generated 3D image data |
US20200065706A1 (en) * | 2018-08-24 | 2020-02-27 | Htc Corporation | Method for verifying training data, training system, and computer program product |
US11410287B2 (en) * | 2019-09-09 | 2022-08-09 | Genpact Luxembourg S.à r.l. II | System and method for artificial intelligence based determination of damage to physical structures |
US11188853B2 (en) * | 2019-09-30 | 2021-11-30 | The Travelers Indemnity Company | Systems and methods for artificial intelligence (AI) damage triage and dynamic resource allocation, routing, and scheduling |
WO2021136943A1 (en) | 2020-01-03 | 2021-07-08 | Tractable Ltd | Method of determining painting requirements for a damage vehicle |
US11720969B2 (en) * | 2020-02-07 | 2023-08-08 | International Business Machines Corporation | Detecting vehicle identity and damage status using single video analysis |
CN111695540B (zh) * | 2020-06-17 | 2023-05-30 | 北京字节跳动网络技术有限公司 | 视频边框识别方法及裁剪方法、装置、电子设备及介质 |
CN112102338A (zh) * | 2020-09-17 | 2020-12-18 | 西安泽塔云科技股份有限公司 | 基于深度学习的影像样本数据的获取方法及装置 |
CN112326552B (zh) * | 2020-10-21 | 2021-09-07 | 山东大学 | 基于视觉和力觉感知的隧道掉块病害检测方法和系统 |
CN112508052A (zh) * | 2020-11-09 | 2021-03-16 | 北京迈格威科技有限公司 | 目标检测网络训练方法、装置、电子设备及存储介质 |
CN112633165A (zh) * | 2020-12-23 | 2021-04-09 | 远光软件股份有限公司 | 基于车辆车厢的采样监督方法、系统、存储介质及电子设备 |
CN112800517A (zh) * | 2021-01-25 | 2021-05-14 | 深圳市华阳国际工程设计股份有限公司 | 梁配筋图的标注方法、处理装置及计算机可读存储介质 |
US11475553B1 (en) * | 2021-04-08 | 2022-10-18 | Ford Global Technologies, Llc | Production-speed component inspection system and method |
CN113159216B (zh) * | 2021-05-10 | 2023-04-28 | 上海电力大学 | 一种用于表面缺陷检测的正样本扩充方法 |
CN113284107B (zh) * | 2021-05-25 | 2022-10-11 | 重庆邮电大学 | 一种引入注意力机制改进型U-net的混凝土裂缝实时检测方法 |
US20240233311A1 (en) * | 2021-06-30 | 2024-07-11 | Microsoft Technology Licensing, Llc | Adaptive object detection |
TWI779760B (zh) * | 2021-08-04 | 2022-10-01 | 瑞昱半導體股份有限公司 | 資料擴增方法與非暫態電腦可讀取媒體 |
WO2023070470A1 (zh) * | 2021-10-28 | 2023-05-04 | 京东方科技集团股份有限公司 | 目标检测模型的训练方法及装置、目标检测方法及装置 |
US20230164421A1 (en) * | 2021-11-19 | 2023-05-25 | Motorola Solutions, Inc. | Method, system and computer program product for divided processing in providing object detection focus |
CN114612717B (zh) * | 2022-03-09 | 2023-05-26 | 四川大学华西医院 | Ai模型训练标签生成方法、训练方法、使用方法及设备 |
CN114972229A (zh) * | 2022-05-17 | 2022-08-30 | 平安科技(深圳)有限公司 | 基于材质类型的定损检测方法、装置、电子设备、介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140153779A1 (en) * | 2010-07-27 | 2014-06-05 | International Business Machines Corporation | Object Segmentation at a Self-Checkout |
US20150170002A1 (en) * | 2013-05-31 | 2015-06-18 | Google Inc. | Object detection using deep neural networks |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6644973B2 (en) | 2000-05-16 | 2003-11-11 | William Oster | System for improving reading and speaking |
US7536304B2 (en) | 2005-05-27 | 2009-05-19 | Porticus, Inc. | Method and system for bio-metric voice print authentication |
US9298979B2 (en) | 2008-01-18 | 2016-03-29 | Mitek Systems, Inc. | Systems and methods for mobile image capture and content processing of driver's licenses |
US8180629B2 (en) | 2008-07-10 | 2012-05-15 | Trigent Softward Ltd. | Automatic pattern generation in natural language processing |
US9082235B2 (en) | 2011-07-12 | 2015-07-14 | Microsoft Technology Licensing, Llc | Using facial data for device authentication or subject identification |
US9066125B2 (en) | 2012-02-10 | 2015-06-23 | Advanced Biometric Controls, Llc | Secure display |
US8705836B2 (en) | 2012-08-06 | 2014-04-22 | A2iA S.A. | Systems and methods for recognizing information in objects using a mobile device |
US9147127B2 (en) | 2013-03-15 | 2015-09-29 | Facebook, Inc. | Verification of user photo IDs |
US9202119B2 (en) | 2013-10-18 | 2015-12-01 | Daon Holdings Limited | Methods and systems for determining user liveness |
JP6287047B2 (ja) | 2013-10-22 | 2018-03-07 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US9607138B1 (en) | 2013-12-18 | 2017-03-28 | Amazon Technologies, Inc. | User authentication and verification through video analysis |
US10320807B2 (en) | 2014-02-25 | 2019-06-11 | Sal Khan | Systems and methods relating to the authenticity and verification of photographic identity documents |
CN104077577A (zh) * | 2014-07-03 | 2014-10-01 | 浙江大学 | 一种基于卷积神经网络的商标检测方法 |
US9646227B2 (en) | 2014-07-29 | 2017-05-09 | Microsoft Technology Licensing, Llc | Computerized machine learning of interesting video sections |
CA2902093C (en) | 2014-08-28 | 2023-03-07 | Kevin Alan Tussy | Facial recognition authentication system including path parameters |
US9619696B2 (en) | 2015-04-15 | 2017-04-11 | Cisco Technology, Inc. | Duplicate reduction for face detection |
US20170032276A1 (en) * | 2015-07-29 | 2017-02-02 | Agt International Gmbh | Data fusion and classification with imbalanced datasets |
US9794260B2 (en) | 2015-08-10 | 2017-10-17 | Yoti Ltd | Liveness detection |
US20170060867A1 (en) | 2015-08-31 | 2017-03-02 | Adfamilies Publicidade, SA | Video and image match searching |
US10065441B2 (en) | 2015-09-01 | 2018-09-04 | Digimarc Corporation | Counterfeiting detection using machine readable indicia |
GB201517462D0 (en) * | 2015-10-02 | 2015-11-18 | Tractable Ltd | Semi-automatic labelling of datasets |
WO2017059576A1 (en) | 2015-10-09 | 2017-04-13 | Beijing Sensetime Technology Development Co., Ltd | Apparatus and method for pedestrian detection |
GB2554361B8 (en) | 2016-09-21 | 2022-07-06 | Emergent Network Intelligence Ltd | Automatic image based object damage assessment |
CN106683091B (zh) * | 2017-01-06 | 2019-09-24 | 北京理工大学 | 一种基于深度卷积神经网络的目标分类及姿态检测方法 |
CN107657269A (zh) * | 2017-08-24 | 2018-02-02 | 百度在线网络技术(北京)有限公司 | 一种用于训练图片提纯模型的方法和装置 |
US11087292B2 (en) * | 2017-09-01 | 2021-08-10 | Allstate Insurance Company | Analyzing images and videos of damaged vehicles to determine damaged vehicle parts and vehicle asymmetries |
WO2020033111A1 (en) * | 2018-08-09 | 2020-02-13 | Exxonmobil Upstream Research Company ( | Subterranean drill bit management system |
-
2018
- 2018-09-07 CN CN201811046061.6A patent/CN110569699B/zh active Active
-
2019
- 2019-06-25 TW TW108122070A patent/TWI713366B/zh active
- 2019-09-06 SG SG11202012526SA patent/SG11202012526SA/en unknown
- 2019-09-06 EP EP19773612.7A patent/EP3847579A1/en active Pending
- 2019-09-06 US US16/563,634 patent/US11069048B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140153779A1 (en) * | 2010-07-27 | 2014-06-05 | International Business Machines Corporation | Object Segmentation at a Self-Checkout |
US20150170002A1 (en) * | 2013-05-31 | 2015-06-18 | Google Inc. | Object detection using deep neural networks |
Also Published As
Publication number | Publication date |
---|---|
CN110569699A (zh) | 2019-12-13 |
EP3847579A1 (en) | 2021-07-14 |
CN110569699B (zh) | 2020-12-29 |
TW202011733A (zh) | 2020-03-16 |
US11069048B2 (en) | 2021-07-20 |
US20200090321A1 (en) | 2020-03-19 |
SG11202012526SA (en) | 2021-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI713366B (zh) | 對影像進行目標取樣的方法及裝置 | |
US10977523B2 (en) | Methods and apparatuses for identifying object category, and electronic devices | |
JP7073247B2 (ja) | 車線境界線検出モデルを生成するための方法、車線境界線を検出するための方法、車線境界線検出モデルを生成するための装置、車線境界線を検出するための装置、機器、コンピュータ読み取り可能な記憶媒体およびコンピュータプログラム | |
JP6259928B2 (ja) | 車線データの処理方法、装置、記憶媒体及び機器 | |
JP6719457B2 (ja) | 画像の主要被写体を抽出する方法とシステム | |
CN109815865B (zh) | 一种基于虚拟水尺的水位识别方法及系统 | |
WO2017020528A1 (zh) | 车道线的识别建模方法、装置、存储介质和设备及识别方法、装置、存储介质和设备 | |
CN111640089B (zh) | 一种基于特征图中心点的缺陷检测方法及装置 | |
CN111402209B (zh) | 一种基于U-Net的高速铁路钢轨损伤检测方法 | |
CN108875534B (zh) | 人脸识别的方法、装置、系统及计算机存储介质 | |
CN108182383B (zh) | 一种车窗检测的方法及设备 | |
CN103218605B (zh) | 一种基于积分投影与边缘检测的快速人眼定位方法 | |
TWI709085B (zh) | 用於對車輛損傷影像進行損傷分割的方法、裝置、電腦可讀儲存媒體和計算設備 | |
CN111860494A (zh) | 图像目标检测的优化方法、装置、电子设备和存储介质 | |
CN111259878A (zh) | 一种检测文本的方法和设备 | |
CN104200210A (zh) | 一种基于部件的车牌字符分割方法 | |
WO2020253505A1 (zh) | 一种手掌图像的检测方法及装置 | |
CN104732510B (zh) | 一种相机镜头黑斑检测方法及装置 | |
CN108647597B (zh) | 一种手腕识别方法、手势识别方法、装置和电子设备 | |
US20130243251A1 (en) | Image processing device and image processing method | |
CN110751040A (zh) | 一种三维物体的检测方法和装置、电子设备、存储介质 | |
CN112560584A (zh) | 一种人脸检测方法及装置、存储介质、终端 | |
CN104766332B (zh) | 一种图像处理方法及电子设备 | |
CN115937003A (zh) | 图像处理方法、装置、终端设备和可读存储介质 | |
CN113989814B (zh) | 图像生成方法、装置、计算机设备及存储介质 |