TWI752478B - Image processing method and image processing system - Google Patents
Image processing method and image processing system Download PDFInfo
- Publication number
- TWI752478B TWI752478B TW109113973A TW109113973A TWI752478B TW I752478 B TWI752478 B TW I752478B TW 109113973 A TW109113973 A TW 109113973A TW 109113973 A TW109113973 A TW 109113973A TW I752478 B TWI752478 B TW I752478B
- Authority
- TW
- Taiwan
- Prior art keywords
- image data
- image
- training
- block group
- block
- Prior art date
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本揭示內容是關於一種影像處理方法與影像處理系統,特別是關於一種基於深度學習抗光線干擾匹配的一種影像處理方法與影像處理系統。The present disclosure relates to an image processing method and an image processing system, in particular to an image processing method and an image processing system based on deep learning anti-light interference matching.
特徵匹配(Feature Match)被泛用在許多電腦視覺如圖像檢索、相機定位等領域當中,影像的特徵必須對尺度、方向、視角以及光線保持不變性與唯一性。Feature matching is widely used in many computer vision fields such as image retrieval, camera positioning, etc. The features of images must be invariant and unique to scale, orientation, viewing angle, and light.
然而,在環境場景相似度比對的領域當中,現有特徵匹配系統或方法並無針對光線差異與場景視野變化進行優化,導致匹配結果不如預期。However, in the field of environmental scene similarity comparison, existing feature matching systems or methods are not optimized for light differences and scene field changes, resulting in unsatisfactory matching results.
本揭示文件提供一種影像處理方法,其包括步驟:藉由影像資料處理裝置基於特徵抽取模型分析複數影像資料,以產生對應上述影像資料的特徵向量集合,其中影像資料包含與特徵向量集合中之至少一第一特徵相關之複數第一影像資料以及與特徵向量集合中之至少一第二特徵相關之複數第二影像資料;藉由影像資料處理裝置基於特徵抽取模型從第一影像資料與第二影像資料中分別選取對應的第一訓練圖塊組以及第二訓練圖塊組,並對第一訓練圖塊組以及第二訓練圖塊組進行運算,以產生對應之至少一損失函數值;以及根據至少一損失函數值調整特徵抽取模型,使得當影像資料處理裝置基於經調整之特徵抽取模型分析影像資料時,第一影像資料與第二影像資料匹配的程度增加。The present disclosure provides an image processing method, which includes the steps of: analyzing complex image data based on a feature extraction model by an image data processing device to generate a feature vector set corresponding to the image data, wherein the image data includes at least one of the feature vector sets a plurality of first image data related to the first feature and a plurality of second image data related to at least one second feature in the feature vector set; the image data processing device extracts the model from the first image data and the second image by the image data processing device In the data, the corresponding first training image block group and the second training image block group are respectively selected, and the first training image block group and the second training image block group are operated to generate corresponding at least one loss function value; and according to The at least one loss function value adjusts the feature extraction model such that when the image data processing apparatus analyzes the image data based on the adjusted feature extraction model, the degree of matching of the first image data and the second image data increases.
本揭示文件提供一種影像處理系統,其包括影像擷取裝置以及影像資料處理裝置。影像擷取裝置,用以擷取複數個影像資料;以及影像資料處理裝置,耦接影像擷取裝置,並用以基於特徵抽取模型對影像資料中之複數第一影像資料與複數第二影像資料進行比對操作,且依據比對操作的結果輸出影像定位結果;其中第一影像資料與至少一第一特徵相關,第二影像資料與至少一第二特徵相關,特徵抽取模型係根據對第一影像資料及第二影像資料進行運算所產生之至少一損失函數值進行調整。The present disclosure provides an image processing system, which includes an image capturing device and an image data processing device. an image capture device for capturing a plurality of image data; and an image data processing device, coupled to the image capture device, and used for performing a process on the plurality of first image data and the plurality of second image data in the image data based on the feature extraction model A comparison operation is performed, and an image positioning result is output according to the result of the comparison operation; wherein the first image data is related to at least one first feature, the second image data is related to at least one second feature, and the feature extraction model is based on the first image data. The data and the second image data are adjusted by at least one loss function value generated by the operation.
藉由上述影像處理方法與影像處理系統,能夠改善戶外場景光線變化大時的特徵匹配系統的準確度。The above-mentioned image processing method and image processing system can improve the accuracy of the feature matching system when the outdoor scene light changes greatly.
下文係舉實施例配合所附圖式作詳細說明,但所描述的具體實施例僅僅用以解釋本發明,並不用來限定本發明,而結構操作之描述非用以限制其執行之順序,任何由元件重新組合之結構,所產生具有均等功效的裝置,皆為本發明揭示內容所涵蓋的範圍。 The following is a detailed description of the embodiments in conjunction with the accompanying drawings, but the specific embodiments described are only used to explain the present invention, not to limit the present invention, and the description of the structure and operation is not used to limit the order of its execution, any The structure of the recombination of the components, the resulting devices with equal efficacy, are all within the scope of the disclosure of the present invention.
在全篇說明書與申請專利範圍所使用之用詞(terms),除有特別註明外,通常具有每個用詞使用在此領域中、在此揭露之內容中與特殊內容中的平常意義。某些用以描述本揭露之用詞將於下或在此說明書的別處討論,以提供本領域技術人員在有關本揭露之描述上額外的引導。 Unless otherwise specified, the terms used throughout the specification and the scope of the patent application generally have the ordinary meaning of each term used in the field, in the content disclosed herein and in the specific content. Certain terms used to describe the present disclosure are discussed below or elsewhere in this specification to provide those skilled in the art with additional guidance in describing the present disclosure.
第1圖為根據一些實施例所繪示的影像處理系統100的示意圖。如第1圖所示,影像處理系統100包括影
像擷取裝置110以及影像資料處理裝置120。影像資料處理裝置120與影像擷取裝置110耦接。影像擷取裝置110用以擷取如後述第3圖中的複數個影像資料300,例如各種不同的照片或是圖案,並將其串流至影像資料處理裝置120。
FIG. 1 is a schematic diagram of an
在一些實施例中,影像擷取裝置110可藉由智慧型手機的攝像鏡頭、相機攝像鏡頭或是具有截圖功能的程式軟體實現。
In some embodiments, the image capturing
在一些實施例中,影像資料處理裝置120可藉由諸如筆記型電腦、桌上型電腦等電腦系統實現。
In some embodiments, the image
在一些實施例中,影像資料處理裝置120包含特徵抽取模型130和指令庫140,其中特徵抽取模型130是預先配置於影像資料處理裝置120中,且其架構是建立在IF-Net(Illumination Neural Network)的深度學習網路架構。
In some embodiments, the image
又在一些實施例中,特徵抽取模型130係藉由IF-Net基於深度學習的卷積神經網路(Convolutional Neural Network,CNN)來訓練特徵抽取模型130產生的特徵描述器(descriptor),並藉由其學習訓練以找出適應性高的特徵描述器。在一些實施例中,上述適應性高的特徵描述器可以用來解決戶外場景光線差異變化大的情況下的特徵匹配誤差。
In some embodiments, the
在一些實施例中,指令庫140儲存有運算指令,藉由影像資料處理裝置120中的處理器(未繪示)存取並執行。In some embodiments, the
第2圖為根據一些實施例所繪示的影像處理系統100的運作流程圖。如第2圖所示,影像處理系統100的運作流程包含步驟S210、步驟S220、步驟 S230、步驟 S240、步驟 S250、步驟 S260以及步驟 S270。為了方便清楚說明,第2圖所示的影像處理方法200係參照第1圖來做說明,但不以其為限。FIG. 2 is a flowchart illustrating the operation of the
於步驟S210,影像擷取裝置110擷取當前環境影像作為影像資料300(如第3圖所示)輸入至影像資料處理裝置120。接著,於步驟S220,影像資料處理裝置120載入特徵抽取模型130,並於步驟S230載入一環境場景模型。In step S210 , the image capturing
於步驟S240,分別從環境場景模型與影像資料300中抽取環境特徵,並於步驟S250中藉由影像資料處理裝置120對影像資料300進行環境特徵相似度的比對操作。接著於步驟S260,影像資料處理裝置120依據步驟S250中的比對結果進行空間定位,並於步驟S270中根據上述空間定位輸出影像定位結果。In step S240, environmental features are extracted from the environmental scene model and the
在一些實施例中,於步驟S240,影像資料處理裝置120基於特徵抽取模型130分析複數影像資料300,以產生對應影像資料300的特徵向量集合。影像資料300包含後述第3圖中與上述特徵向量集合中之至少一第一特徵向量相關之複數第一影像資料310,以及與上述特徵向量集合中之至少一第二特徵向量相關之複數第二影像資料320。以下將參照第3圖舉例說明。
In some embodiments, in step S240 , the image
第3圖為根據一些實施例所繪示的影像資料300的分類示意圖。第一影像資料310包含在不同觀測距離或是觀測角度下的影像資料,第二影像資料320包含在不同亮度或是光線下觀測的影像資料,其中在較暗的光線下觀測或是亮度較暗的的影像資料在第3圖的圖示中以斜線塗滿表示。換言之,在一些實施例中,上述至少一第一特徵向量係關於影像觀測角度以及影像觀測距離中至少一者,上述至少一第二特徵向量係關於影像亮度、影像伽瑪值以及影像對比度中至少一者。
FIG. 3 is a schematic diagram of classification of
承上所述,由於在環境特徵相似度比對的領域當中,現有技術中的特徵抽取模型130對於光線差異與場景視野變化的干擾抵抗較差,導致匹配結果不如預期。因此,本揭示文件提供一種影像處理方法來調整特徵抽取模型130,以藉此提高匹配結果。
Continuing from the above, in the field of environmental feature similarity comparison, the
在一些實施例中,上述影像處理方法包含藉由影像資料處理裝置120基於特徵抽取模型130從第一影像資料310與第二影像資料320中分別選取對應的一第一訓練圖塊組以及一第二訓練圖塊組。以下將參照第4A圖與第4B圖舉例說明。
In some embodiments, the above-mentioned image processing method includes using the image
第4A圖與第4B圖為根據一些實施例所繪製樣本篩選機制400的示意圖。參照第4A圖,在一些實施例中,影像資料處理裝置120係根據樣本篩選機制400自第一影像資料310與第二影像資料320中選取第一訓練圖塊組以及第二訓練圖塊組。4A and 4B are schematic diagrams of a
在一些實施例中,第一影像資料310與第二影像資料320中分別具有基礎圖塊(anchor)、複數個同類圖塊(positive)與複數個異類圖塊(negative)。同類圖塊與基礎圖塊間有較高的匹配值,因此,同類圖塊與基礎圖塊間具有較短的歐式距離。與同類圖塊相反,異類圖塊與基礎圖塊間有較低的匹配值。因此,異類圖塊與基礎圖塊間具有較長的歐式距離。In some embodiments, the
又在一些實施例中,如第4B圖所示,上述歐式距離係代表基於量測特徵抽取模型130所產生的特徵描述器所輸出的圖塊間的距離。舉例來說,同類圖塊的特徵向量集合與基礎圖塊的特徵向量集合在特徵描述器的空間上具有較短的歐式距離L1,而異類圖塊的特徵向量集合與基礎圖塊的特徵向量集合間具有較長的歐式距離L2。In some embodiments, as shown in FIG. 4B , the Euclidean distance represents the distance between the blocks output by the feature descriptor generated based on the measurement
承上所述,在不同實施例中,量測經訓練後的特徵抽取模型130產生的特徵描述器所輸出圖塊間的距離將會變動。舉例來說,同類圖塊的特徵向量集合與基礎圖塊的特徵向量集合在特徵描述器的空間上,將具有小於歐式距離L1的歐式距離L3,而異類圖塊的特徵向量集合與基礎圖塊的特徵向量集合間將具有大於歐式距離L2的歐式距離L4。換言之,影像資料處理裝置120基於經訓練後的特徵抽取模型130所抽取的特徵將具有比原來更高的匹配程度。As mentioned above, in different embodiments, the distance between the output blocks of the feature descriptor generated by the trained
因此,在一些實施例中,影像資料處理裝置120選取第一訓練圖塊組的步驟包含從第一影像資料310之複數同類圖塊中,選取與第一影像資料310之基礎圖塊匹配的程度最低的至少一同類圖塊作為第一訓練圖塊組,以及從第一影像資料310之複數異類圖塊中,選取與第一影像資料310之基礎圖塊匹配的程度最高的至少一異類圖塊作為第一訓練圖塊組。換言之,第一訓練圖塊組包含與第一影像資料310中基礎圖塊的歐式距離最長的同類圖塊,以及與第一影像資料310中基礎圖塊的歐式距離最短的異類圖塊。Therefore, in some embodiments, the step of selecting the first training block group by the image
在另一些實施例中,影像資料處理裝置120選取第二訓練圖塊組的步驟包含從第二影像資料320之複數同類圖塊中,選取與第二影像資料320之基礎圖塊匹配的程度最低的至少一同類圖塊作為第二訓練圖塊組,以及從第二影像資料320之複數異類圖塊中,選取與第二影像資料320之基礎圖塊匹配的程度最高的至少一異類圖塊作為第二訓練圖塊組。換言之,第二訓練圖塊組包含與第二影像資料320中基礎圖塊的歐式距離最長的同類圖塊,以及與第二影像資料320中基礎圖塊的歐式距離最短的異類圖塊。In some other embodiments, the step of selecting the second training block group by the image
藉由上述實施例中所描述的步驟,可以有效最大化基礎圖塊與異類圖塊間的歐式距離,以及縮短基礎圖塊與同類圖塊間的歐式距離,以讓特徵抽取模型130產生更具有代表性的特徵描述器。Through the steps described in the above-mentioned embodiments, the Euclidean distance between the base block and the heterogeneous blocks can be effectively maximized, and the Euclidean distance between the base block and similar blocks can be shortened, so that the
在一些實施例中,影像資料處理裝置120執行指令庫140中的運算指令對第一訓練圖塊組以及第二訓練圖塊組進行運算,以產生對應之至少一損失函數值。上述進行運算的步驟包含藉由離群損失函數對第一訓練圖塊組以及第二訓練圖塊組進行運算,以產生至少一損失函數值。其中,離群損失函數如以下公式:
L為損失函數值;n為圖塊總數目;w
p與w
n為權重值; d
M(a
i,p
i)代表基礎圖塊與同類圖塊的歐式距離,而d
m(a
i,n
i)則代表基礎圖塊與異類圖塊的歐式距離。
In some embodiments, the image
權重值w
p為同一批次(batch)影像資料300的同類圖塊與基礎圖塊間的歐式距離之平均,權重值w
n為同一批次的異類圖塊與基礎圖塊間的歐式距離之平均。如以下公式:
The weight value w p is the average of the Euclidean distances between the same type of
承上所述,若同一批次進行運算的資料群中參雜有雜訊(noise),而上述雜訊相對於訓練資料來說為離群值,將會對訓練效能產生造成影響。因此,在一些實施例中,上述損失函數值可以降低在訓練IF-Net深度網路時的雜訊影響,以在訓練過程中更有效的達到讓特徵抽取模型130收斂的效果。As mentioned above, if there is noise mixed in the same batch of data groups that are operated on, and the noise is an outlier relative to the training data, it will have an impact on the training performance. Therefore, in some embodiments, the above-mentioned loss function value can reduce the influence of noise when training the IF-Net deep network, so as to more effectively achieve the effect of making the
在一些實施例中,影像處理方法包含根據上述至少一損失函數值調整特徵抽取模型130,使得當影像資料處理裝置120基於經調整之特徵抽取模型130分析影像資料300時,第一影像資料310與第二影像資料320匹配的程度增加。In some embodiments, the image processing method includes adjusting the
又在一些實施例中,調整特徵抽取模型130的步驟更包含將第一影像資料310與第二影像資料320輸入至共享深度神經網絡模型參數(shared-weight)的特徵抽取模型130,以分別產生對應的不同損失函數值,以及將對應第一影像資料與第二影像資料的不同損失函數值儲存並更新特徵抽取模型130中的至少一網路參數。以下將參照第5圖舉例說明。In some embodiments, the step of adjusting the
第5圖為根據一些實施例所繪示的分群共享參數步驟500流程圖。如第5圖所示,在一些實施例中,影像資料處理裝置120基於特徵抽取模型130存取指令庫140中的運算指令對第一影像資料310進行運算,以產生第一損失函數值,且對第二影像資料320進行運算,以產生第二損失函數值。影像資料處理裝置120將第一損失函數值與第二損失函數值儲存並更新特徵抽取模型130中的網路參數。FIG. 5 is a flowchart illustrating a
在一些實施例中,上述分別將第一影像資料310與第二影像資料320輸入至共享深度神經網絡模型參數(shared-weight)的IF-Net,並一次性的更新網路參數的方法,可更有效的讓特徵抽取模型130具備處理不同類型資料的能力。In some embodiments, the above-mentioned method of inputting the
在一些實施例中,影像資料處理裝置120基於經調整之特徵抽取模型130來進行以下操作中之至少一者,如對第一影像資料310與第二影像資料320進行如上述步驟S250的比對操作、依據如上述的比對操作結果進行如步驟S270的空間定位操作以及依據空間定位操作的結果輸出的影像定位結果。In some embodiments, the image
承上所述,影像資料處理裝置120基於經調整之特徵抽取模型130於步驟S250中,將提高影像資料300的匹配程度,且於步驟S270中的影像定位結果也將更為準確。如下方表(一)為根據本揭示文件中的實施例所產生的匹配程度數據比較表。
表(一)
雖然本揭示內容已以實施方式揭露如上,然其並非用以限定本揭示內容,任何本領域具通常知識者,在不脫離本揭示內容之精神和範圍內,當可作各種之更動與潤飾,因此本揭示內容之保護範圍當視後附之申請專利範圍所界定者為準。Although the present disclosure has been disclosed as above in embodiments, it is not intended to limit the present disclosure. Anyone with ordinary knowledge in the art can make various changes and modifications without departing from the spirit and scope of the present disclosure. Therefore, the protection scope of the present disclosure shall be determined by the scope of the appended patent application.
110:影像擷取裝置 120:影像資料處理裝置 130:特徵抽取模型 140:指令庫 200:影像處理方法 S210、S220、S230、S240、S250、S260、S270:步驟 300:影像資料 310:第一影像資料 320:第二影像資料 400:樣本篩選機制 L1~L4:歐式距離 500:分群共享參數步驟 110: Image capture device 120: Video data processing device 130: Feature extraction model 140: Instruction library 200: Image Processing Methods S210, S220, S230, S240, S250, S260, S270: Steps 300: Video data 310: The first video data 320: Second image data 400: Sample Screening Mechanism L1~L4: Euclidean distance 500: Steps of grouping and sharing parameters
第1圖為根據一些實施例所繪示的影像處理系統的示意圖。 FIG. 1 is a schematic diagram of an image processing system according to some embodiments.
第2圖為根據一些實施例所繪示的運作影像處理系統的流程圖。 FIG. 2 is a flowchart illustrating an operation of an image processing system according to some embodiments.
第3圖為根據一些實施例所繪示的影像資料的分類示意圖。 FIG. 3 is a schematic diagram of classification of image data according to some embodiments.
第4A圖與第4B圖為根據一些實施例所繪製樣本篩選機制的示意圖。 4A and 4B are schematic diagrams of sample screening mechanisms drawn according to some embodiments.
第5圖為根據一些實施例所繪示的分群共享參數步驟流程圖。 FIG. 5 is a flow chart of steps of sharing parameters among groups according to some embodiments.
200:影像處理方法 S210、S220、S230、S240、S250、S260、S270:步驟 200: Image Processing Methods S210, S220, S230, S240, S250, S260, S270: Steps
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109113973A TWI752478B (en) | 2020-04-27 | 2020-04-27 | Image processing method and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109113973A TWI752478B (en) | 2020-04-27 | 2020-04-27 | Image processing method and image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202141425A TW202141425A (en) | 2021-11-01 |
TWI752478B true TWI752478B (en) | 2022-01-11 |
Family
ID=80783225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109113973A TWI752478B (en) | 2020-04-27 | 2020-04-27 | Image processing method and image processing system |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI752478B (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011056731A2 (en) * | 2009-11-06 | 2011-05-12 | Sony Corporation | Real time hand tracking, pose classification, and interface control |
TW201843654A (en) * | 2017-08-30 | 2018-12-16 | 大陸商騰訊科技(深圳)有限公司 | Image description generation method, model training method, devices and storage medium |
CN109558806A (en) * | 2018-11-07 | 2019-04-02 | 北京科技大学 | The detection method and system of high score Remote Sensing Imagery Change |
CN110647865A (en) * | 2019-09-30 | 2020-01-03 | 腾讯科技(深圳)有限公司 | Face gesture recognition method, device, equipment and storage medium |
-
2020
- 2020-04-27 TW TW109113973A patent/TWI752478B/en active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011056731A2 (en) * | 2009-11-06 | 2011-05-12 | Sony Corporation | Real time hand tracking, pose classification, and interface control |
TW201843654A (en) * | 2017-08-30 | 2018-12-16 | 大陸商騰訊科技(深圳)有限公司 | Image description generation method, model training method, devices and storage medium |
CN109558806A (en) * | 2018-11-07 | 2019-04-02 | 北京科技大学 | The detection method and system of high score Remote Sensing Imagery Change |
CN110647865A (en) * | 2019-09-30 | 2020-01-03 | 腾讯科技(深圳)有限公司 | Face gesture recognition method, device, equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
TW202141425A (en) | 2021-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020239015A1 (en) | Image recognition method and apparatus, image classification method and apparatus, electronic device, and storage medium | |
KR102385463B1 (en) | Facial feature extraction model training method, facial feature extraction method, apparatus, device and storage medium | |
US10217221B2 (en) | Place recognition algorithm | |
CN108491856B (en) | Image scene classification method based on multi-scale feature convolutional neural network | |
CN113868366B (en) | Streaming data-oriented online cross-modal retrieval method and system | |
CN111160102A (en) | Training method of face anti-counterfeiting recognition model, face anti-counterfeiting recognition method and device | |
CN106599864A (en) | Deep face recognition method based on extreme value theory | |
CN104202448A (en) | System and method for solving shooting brightness unevenness of mobile terminal camera | |
CN111582027B (en) | Identity authentication method, identity authentication device, computer equipment and storage medium | |
CN111460946A (en) | Image-based chip information rapid acquisition and identification method | |
CN103955713B (en) | A kind of icon-based programming method and apparatus | |
TWI752478B (en) | Image processing method and image processing system | |
CN113642593B (en) | Image processing method and image processing system | |
CN106845555A (en) | Image matching method and image matching apparatus based on Bayer format | |
US11195265B2 (en) | Server and method for recognizing image using deep learning | |
CN111291611A (en) | Pedestrian re-identification method and device based on Bayesian query expansion | |
US20210334580A1 (en) | Image processing device, image processing method and image processing system | |
US11238624B2 (en) | Image transform method and image transform network | |
Zhou et al. | Test-time domain generalization for face anti-spoofing | |
KR102101481B1 (en) | Apparatus for lenrning portable security image based on artificial intelligence and method for the same | |
WO2023047162A1 (en) | Object sequence recognition method, network training method, apparatuses, device, and medium | |
WO2019224947A1 (en) | Training device, image generation device, training method, image generation method and program | |
JP6349477B1 (en) | Similarity determination program | |
CN112634143A (en) | Image color correction model training method and device and electronic equipment | |
KR102565318B1 (en) | Method and apparatus for acquiring continuous images from blurred image |