TWI702544B - 圖像處理方法、電子設備和電腦可讀儲存介質 - Google Patents
圖像處理方法、電子設備和電腦可讀儲存介質 Download PDFInfo
- Publication number
- TWI702544B TWI702544B TW108137127A TW108137127A TWI702544B TW I702544 B TWI702544 B TW I702544B TW 108137127 A TW108137127 A TW 108137127A TW 108137127 A TW108137127 A TW 108137127A TW I702544 B TWI702544 B TW I702544B
- Authority
- TW
- Taiwan
- Prior art keywords
- target object
- human body
- image
- area
- position information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000003860 storage Methods 0.000 title claims abstract description 27
- 238000012545 processing Methods 0.000 title claims description 83
- 230000009467 reduction Effects 0.000 claims abstract description 38
- 238000003672 processing method Methods 0.000 claims abstract description 20
- 210000000746 body region Anatomy 0.000 claims description 101
- 230000001815 facial effect Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 13
- 238000002372 labelling Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Studio Devices (AREA)
Abstract
本公開關於一種圖像處理方法、電子設備和電腦可讀儲存介質。所述方法包括:根據參考圖像,確定出第一圖像以及目標區域的第一位置資訊;對目標區域進行裁剪,獲得裁剪圖像;對裁剪圖像進行降噪,確定人臉區域的第二位置資訊以及人體區域的第三位置資訊;根據第一位置資訊、第二位置資訊和第三位置資訊,在第一圖像中確定人臉區域的第四位置資訊以及人體區域的第五位置資訊;根據第四位置資訊與第五位置資訊,對第一圖像進行處理。根據本公開的實施例的圖像處理方法,可在第一圖像中裁剪出剪裁圖像,在裁剪圖像中確定出目標對象的人臉區域和人體區域,可對干擾區域進行濾除,降低將目標對象的人臉區域和人體區域進行匹配的難度。
Description
本公開關於電腦技術領域,尤其關於一種圖像處理方法及裝置、電子設備和儲存介質。
在相關技術中,可通過人臉識別技術,根據目標對象的參考圖像在大量視頻中檢索出包括目標對象的視頻幀,但如果參考圖像中目標對象的特徵資訊不全(例如,僅拍攝到人體區域或人臉區域),則需要在檢索過程中將對檢索到的部分特徵資訊對應的區域進行匹配,例如,通過人臉區域檢索到多個視頻幀,並在視頻幀中確定出與人臉區域匹配的人體區域。但在視頻幀中常出現多個可能造成匹配干擾的區域,因此,難以對人臉區域和人體區域進行匹配。
本公開提出了一種圖像處理方法及裝置、電子設備和儲存介質。
根據本公開的一方面,提供了一種圖像處理方法,包括:根據參考圖像,從多個待處理圖像中確定出包括所述參考圖像中的目標對象的第一圖像,以及目標對象在所述第一圖像中的所在的目標區域的第一位置資訊;對所述目標區域進行裁剪處理,獲得裁剪圖像;根據所述參考圖像,對所述裁剪圖像進行降噪處理,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊以及所述目標對象的人體區域的第三位置資訊;根據所述第一位置資訊、所述第二位置資訊和所述第三位置資訊,在所述第一圖像中確定所述目標對象的人臉區域的第四位置資訊以及所述目標對象的人體區域的第五位置資訊;根據所述第四位置資訊與所述第五位置資訊,對所述第一圖像進行處理,獲得第二圖像,其中,所述第二圖像包括對所述目標對象的人臉區域和人體區域的標注資訊。
根據本公開的實施例的圖像處理方法,可在包括目標對象的第一圖像中確定目標對象所在的目標區域,並對目標區域進行裁剪,在裁剪圖像中確定出目標對象的人臉區域和人體區域,可對干擾區域進行濾除,降低將目標對象的人臉區域和人體區域進行匹配的難度。
在一種可能的實現方式中,根據參考圖像,從多個待處理圖像中確定出包括所述參考圖像中的目標對象
的第一圖像以及目標對象在所述第一圖像中的所在的目標區域的第一位置資訊,包括:獲取所述參考圖像中的目標對象的特徵資訊,其中,所述特徵資訊包括人臉特徵資訊和/或人體特徵資訊;根據所述目標對象的特徵資訊,從多個待處理圖像中確定出包括目標對象的第一圖像;在所述第一圖像中,確定所述目標對象所在的目標區域的第一位置資訊。
在一種可能的實現方式中,所述目標對象的特徵資訊包括所述目標對象的人臉特徵資訊;其中,根據所述參考圖像,對所述裁剪圖像進行降噪處理,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊以及所述目標對象的人體區域的第三位置資訊,包括:根據所述參考圖像中的目標對象的人臉特徵資訊,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊;在所述裁剪圖像中確定多個人體區域的位置資訊;根據所述第二位置資訊對所述裁剪圖像中的多個人體區域進行降噪處理,確定所述目標對象的人體區域在所述裁剪圖像中的第三位置資訊。
在一種可能的實現方式中,所述第二位置資訊包括對所述目標對象的人臉區域進行框選的第一選擇框的
座標資訊,所述裁剪圖像中的人體區域的位置資訊包括對所述人體區域進行框選的第二選擇框的座標資訊;其中,根據所述第二位置資訊對所述裁剪圖像中的人體區域進行降噪處理,確定所述目標對象的人體區域在所述裁剪圖像中的第三位置資訊,包括:根據所述第二位置資訊以及所述裁剪圖像中的人體區域的位置資訊,對所述裁剪圖像中的非目標人體區域進行濾除,獲得第一人體區域;根據所述第一選擇框的中心位置的座標與所述第二選擇框的上邊緣中點的座標之間的距離,從第一人體區域中篩選出第二人體區域;根據所述第二人體區域的第二選擇框的中心位置與所述第一選擇框的中心位置之間的連線與豎直方向之間的夾角,從所述第二人體區域中確定出所述目標對象的人體區域及所述目標對象的人體區域的第三位置資訊。
通過這種方式,可通過座標計算來確定出目標對象的人體區域,可提高處理效率。
在一種可能的實現方式中,所述非目標人體區域包括以下中的至少一種:與所述第一選擇框無交集的第二選擇框對應的人體區域;中心位置的縱坐標大於或等於第一選擇框的下邊緣的縱坐標的第二選擇框對應的人體區域;
左邊緣的橫坐標大於或等於第一選擇框的右邊緣的橫坐標的第二選擇框對應的人體區域;右邊緣的橫坐標小於或等於第一選擇框的左邊緣的橫坐標的第二選擇框對應的人體區域。
通過這種方式,可過濾掉多個雜訊人體區域,提高識別處理的效率,並提高識別處理處理的準確度。
在一種可能的實現方式中,所述目標對象的特徵資訊包括所述目標對象的人體特徵資訊;其中,根據所述參考圖像,對所述裁剪圖像進行降噪處理,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊以及所述目標對象的人體區域的第三位置資訊,包括:根據所述參考圖像中的目標對象的人體特徵資訊,在所述裁剪圖像中確定所述目標對象的人體區域的第三位置資訊;在所述裁剪圖像中確定多個人臉區域的位置資訊;根據所述第三位置資訊對所述裁剪圖像中的多個人臉區域進行降噪處理,確定所述目標對象的人臉區域在所述裁剪圖像中的第二位置資訊。
在一種可能的實現方式中,所述第三位置資訊包括對所述目標對象的人體區域進行框選的第三選擇框的座標資訊,所述裁剪圖像中的人臉區域的位置資訊包括對所述人臉區域進行框選的第四選擇框的座標資訊;
其中,根據所述第三位置資訊對所述裁剪圖像中的多個人臉區域進行降噪處理,確定所述目標對象的人臉區域在所述裁剪圖像中的第二位置資訊,包括:根據所述第三位置資訊以及所述裁剪圖像中的人臉區域的位置資訊,對所述裁剪圖像中的非目標人臉區域進行濾除,獲得第一人臉區域;根據所述第三選擇框的上邊緣中點的座標與所述第四選擇框的中心位置的座標之間的距離,從第一人臉區域中篩選出第二人臉區域;根據所述第二人體區域的第四選擇框的中心位置與所述第三選擇框的中心位置之間的連線與豎直方向之間的夾角,從所述第二人臉區域中確定出所述目標對象的人臉區域及所述目標對象的人臉區域的第二位置資訊。
通過這種方式,可通過座標計算來確定出目標對象的人臉區域,可提高處理效率。
在一種可能的實現方式中,所述非目標人臉區域包括以下中的至少一種:與所述第三選擇框無交集的第四選擇框對應的人臉區域;下邊緣的縱坐標小於或等於第三選擇框的中心位置的縱坐標的第四選擇框對應的人臉區域;左邊緣的橫坐標大於或等於第三選擇框的右邊緣的橫坐標的第四選擇框對應的人臉區域;
右邊緣的橫坐標小於或等於第三選擇框的左邊緣的橫坐標的第四選擇框對應的人臉區域。
通過這種方式,可過濾掉多個雜訊人臉區域,提高識別處理的效率,並提高識別處理處理的準確度。
根據本公開的另一方面,提供了一種圖像處理裝置,包括:第一確定模組,用於根據參考圖像,從多個待處理圖像中確定出包括所述參考圖像中的目標對象的第一圖像,以及目標對象在所述第一圖像中的所在的目標區域的第一位置資訊;裁剪模組,用於對所述目標區域進行裁剪處理,獲得裁剪圖像;降噪模組,用於根據所述參考圖像,對所述裁剪圖像進行降噪處理,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊以及所述目標對象的人體區域的第三位置資訊;第二確定模組,用於根據所述第一位置資訊、所述第二位置資訊和所述第三位置資訊,在所述第一圖像中確定所述目標對象的人臉區域的第四位置資訊以及所述目標對象的人體區域的第五位置資訊;處理模組,用於根據所述第四位置資訊與所述第五位置資訊,對所述第一圖像進行處理,獲得第二圖像,其中,所述第二圖像包括對所述目標對象的人臉區域和人體區域的標注資訊。
在一種可能的實現方式中,所述第一確定模組被進一步配置為:獲取所述參考圖像中的目標對象的特徵資訊,其中,所述特徵資訊包括人臉特徵資訊和/或人體特徵資訊;根據所述目標對象的特徵資訊,從多個待處理圖像中確定出包括目標對象的第一圖像;在所述第一圖像中,確定所述目標對象所在的目標區域的第一位置資訊。
在一種可能的實現方式中,所述目標對象的特徵資訊包括所述目標對象的人臉特徵資訊;其中,所述降噪模組被進一步配置為:根據所述參考圖像中的目標對象的人臉特徵資訊,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊;在所述裁剪圖像中確定多個人體區域的位置資訊;根據所述第二位置資訊對所述裁剪圖像中的多個人體區域進行降噪處理,確定所述目標對象的人體區域在所述裁剪圖像中的第三位置資訊。
在一種可能的實現方式中,所述第二位置資訊包括對所述目標對象的人臉區域進行框選的第一選擇框的座標資訊,所述裁剪圖像中的人體區域的位置資訊包括對所述人體區域進行框選的第二選擇框的座標資訊;其中,所述降噪模組被進一步配置為:
根據所述第二位置資訊以及所述裁剪圖像中的人體區域的位置資訊,對所述裁剪圖像中的非目標人體區域進行濾除,獲得第一人體區域;根據所述第一選擇框的中心位置的座標與所述第二選擇框的上邊緣中點的座標之間的距離,從第一人體區域中篩選出第二人體區域;根據所述第二人體區域的第二選擇框的中心位置與所述第一選擇框的中心位置之間的連線與豎直方向之間的夾角,從所述第二人體區域中確定出所述目標對象的人體區域及所述目標對象的人體區域的第三位置資訊。
在一種可能的實現方式中,所述非目標人體區域包括以下中的至少一種:與所述第一選擇框無交集的第二選擇框對應的人體區域;中心位置的縱坐標大於或等於第一選擇框的下邊緣的縱坐標的第二選擇框對應的人體區域;左邊緣的橫坐標大於或等於第一選擇框的右邊緣的橫坐標的第二選擇框對應的人體區域;右邊緣的橫坐標小於或等於第一選擇框的左邊緣的橫坐標的第二選擇框對應的人體區域。
在一種可能的實現方式中,所述目標對象的特徵資訊包括所述目標對象的人體特徵資訊;其中,所述降噪模組被進一步配置為:
根據所述參考圖像中的目標對象的人體特徵資訊,在所述裁剪圖像中確定所述目標對象的人體區域的第三位置資訊;在所述裁剪圖像中確定多個人臉區域的位置資訊;根據所述第三位置資訊對所述裁剪圖像中的多個人臉區域進行降噪處理,確定所述目標對象的人臉區域在所述裁剪圖像中的第二位置資訊。
在一種可能的實現方式中,所述第三位置資訊包括對所述目標對象的人體區域進行框選的第三選擇框的座標資訊,所述裁剪圖像中的人臉區域的位置資訊包括對所述人臉區域進行框選的第四選擇框的座標資訊;其中,所述降噪模組被進一步配置為:根據所述第三位置資訊以及所述裁剪圖像中的人臉區域的位置資訊,對所述裁剪圖像中的非目標人臉區域進行濾除,獲得第一人臉區域;根據所述第三選擇框的上邊緣中點的座標與所述第四選擇框的中心位置的座標之間的距離,從第一人臉區域中篩選出第二人臉區域;根據所述第二人體區域的第四選擇框的中心位置與所述第三選擇框的中心位置之間的連線與豎直方向之間的夾角,從所述第二人臉區域中確定出所述目標對象的人臉區域及所述目標對象的人臉區域的第二位置資訊。
在一種可能的實現方式中,所述非目標人臉區域包括以下中的至少一種:
與所述第三選擇框無交集的第四選擇框對應的人臉區域;下邊緣的縱坐標小於或等於第三選擇框的中心位置的縱坐標的第四選擇框對應的人臉區域;左邊緣的橫坐標大於或等於第三選擇框的右邊緣的橫坐標的第四選擇框對應的人臉區域;右邊緣的橫坐標小於或等於第三選擇框的左邊緣的橫坐標的第四選擇框對應的人臉區域。
根據本公開的一方面,提供了一種電子設備,包括:處理器;用於儲存處理器可執行指令的記憶體;其中,所述處理器被配置為:執行上述圖像處理方法。
根據本公開的一方面,提供了一種電腦可讀儲存介質,其上儲存有電腦程式指令,所述電腦程式指令被處理器執行時實現上述圖像處理方法。
應當理解的是,以上的一般描述和後文的細節描述僅是示例性和解釋性的,而非限制本公開。
根據下面參考附圖對示例性實施例的詳細說明,本公開的其它特徵及方面將變得清楚。
11:第一確定模組
12:裁剪模組
13:降噪模組
14:第二確定模組
15:處理模組
800:電子設備
802:處理組件
804:記憶體
806:電源組件
808:多媒體組件
810:音頻組件
812:輸入/輸出介面
814:感測器組件
816:通信組件
820:處理器
1900:電子設備
1922:處理組件
1926:電源組件
1932:記憶體
1950:網路介面
1958:輸入輸出介面
此處的附圖被併入說明書中並構成本說明書的一部分,這些附圖示出了符合本公開的實施例,並與說明書一起用於說明本公開的技術方案。
圖1示出根據本公開實施例的圖像處理方法的流程圖;圖2示出根據本公開實施例的目標區域的示意圖;圖3示出根據本公開實施例的圖像處理方法的應用示意圖;圖4示出根據本公開實施例的圖像處理裝置的方塊圖;圖5示出根據本公開實施例的電子裝置的方塊圖;圖6示出根據本公開實施例的電子裝置的方塊圖。
以下將參考附圖詳細說明本公開的各種示例性實施例、特徵和方面。附圖中相同的附圖標記表示功能相同或相似的組件。儘管在附圖中示出了實施例的各種方面,但是除非特別指出,不必按比例繪製附圖。
在這裡專用的詞“示例性”意為“用作例子、實施例或說明性”。這裡作為“示例性”所說明的任何實施例不必解釋為優於或好於其它實施例。
本文中術語“和/或”,僅僅是一種描述關聯對象的關聯關係,表示可以存在三種關係,例如,A和/或B,可以表示:單獨存在A,同時存在A和B,單獨存在B這三種情況。另外,本文中術語“至少一種”表示多種中的任意一種或多種中的至少兩種的任意組合,例如,包括A、B、C
中的至少一種,可以表示包括從A、B和C構成的集合中選擇的任意一個或多個元素。
另外,為了更好的說明本公開,在下文的具體實施方式中給出了眾多的具體細節。本領域技術人員應當理解,沒有某些具體細節,本公開同樣可以實施。在一些實例中,對於本領域技術人員熟知的方法、手段、組件和電路未作詳細描述,以便於凸顯本公開的主旨。
圖1示出根據本公開實施例的圖像處理方法的流程圖,如圖1所示,所述方法包括:在步驟S11中,根據參考圖像,從多個待處理圖像中確定出包括所述參考圖像中的目標對象的第一圖像,以及目標對象在所述第一圖像中的所在的目標區域的第一位置資訊;在步驟S12中,對所述目標區域進行裁剪處理,獲得裁剪圖像;在步驟S13中,根據所述參考圖像,對所述裁剪圖像進行降噪處理,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊以及所述目標對象的人體區域的第三位置資訊;在步驟S14中,根據所述第一位置資訊、所述第二位置資訊和所述第三位置資訊,在所述第一圖像中確定所述目標對象的人臉區域的第四位置資訊以及所述目標對象的人體區域的第五位置資訊;在步驟S15中,根據所述第四位置資訊與所述第五位置資訊,對所述第一圖像進行處理,獲得第二圖像,其中,所
述第二圖像包括對所述目標對象的人臉區域和人體區域的標注資訊。
根據本公開的實施例的圖像處理方法,可在包括目標對象的第一圖像中確定目標對象所在的目標區域,並對目標區域進行裁剪,在裁剪圖像中確定出目標對象的人臉區域和人體區域,可對干擾區域進行濾除,降低將目標對象的人臉區域和人體區域進行匹配的難度。
在一種可能的實現方式中,所述圖像處理方法可以由終端設備執行,終端設備可以為使用者設備(User Equipment,UE)、移動設備、使用者終端、終端、蜂窩電話、無線電話、個人數位助理(Personal Digital Assistant,PDA)、手持設備、計算設備、車載設備、可穿戴設備等,所述方法可以通過處理器調用記憶體中儲存的電腦可讀指令的方式來實現。或者,所述圖像處理方法通過伺服器執行。
在一種可能的實現方式中,所述參考圖像可以是使用者選定或上傳的圖像,也可以是待檢測視頻的視頻幀。所述目標對象的特徵資訊可從參考圖像中獲取。所述待檢測視頻包括分佈在多個地理位置的視頻獲取裝置拍攝到的預設時間段內的視頻。例如,視頻獲取裝置為分佈在各區域或各街道中的攝影頭,各攝影頭可將拍攝到的視頻發送至伺服器,伺服器可對各攝影頭拍攝的視頻進行匯總,可獲得所述待檢測視頻。例如,預設時間段可以是一天、1小時等,可將某個攝影頭獲取的預設時間段內的視頻作為所述待檢
測視頻。又例如,待檢測視頻為分佈在多個地理位置的攝影頭拍攝到的預設時間段內的視頻,例如,待檢測視頻可以是分佈在多個街道的攝影頭在9:00-10:00之間拍攝的視頻。所述待檢測視頻中,可具有包括目標對象的視頻幀,例如,所述待檢測視頻為監控視頻,所述目標對象為犯罪嫌疑人,可待檢測視頻中可具有包括犯罪嫌疑人的視頻幀。進一步地,待檢測視頻的各視頻幀可具有時間戳記,所述時間戳記可表示獲取各視頻幀時的時間資訊。待檢測視頻的各視頻幀可具有地理位置資訊,所述地理位置資訊可表示獲取各視頻幀的視頻獲取裝置(例如,攝影頭)所處的地理位置,或視頻獲取裝置拍攝到的區域所處的地理位置。
在一種可能的實現方式中,所述參考圖像可以是具有目標對象的人臉區域和人體區域中的至少一個的圖像,可從該圖像中提取目標對象的特徵資訊。所述參考圖像為包括目標對象(例如,犯罪嫌疑人)的圖像,例如,目標對象的照片,在所述照片中,具有目標對象的人臉區域和人體區域的至少一個,可將該照片上傳至伺服器。在示例中,參考圖像中的目標對象的人臉區域清晰度可較低,或者,參考圖像中僅包括目標對象的人體區域,或僅包括目標對象的人臉區域。
在一種可能的實現方式中,參考圖像中可包括多個對象,目標對象為所述多個對象中的一個,可從多個對象中選中目標對象,例如,可對目標對象的人臉區域或人體區域進行框選。
在一種可能的實現方式中,在步驟S11可包括:獲取所述參考圖像中的目標對象的特徵資訊,其中,所述特徵資訊包括人臉特徵資訊和/或人體特徵資訊;根據所述目標對象的特徵資訊,從多個待處理圖像中確定出包括目標對象的第一圖像;在所述第一圖像中,確定所述目標對象所在的目標區域的第一位置資訊。
在一種可能的實現方式中,可對參考圖像中的目標對象進行特徵提取處理,在示例中,參考圖像或視頻幀中的對象僅有目標對象,例如,參考圖像中包括目標對象的人臉區域和人體區域中的至少一個,可對目標對象的人臉區域或人體區域進行特徵提取處理,獲得目標對象的特徵資訊,例如,對目標對象的人臉區域進行特徵提取處理,可獲得目標對象的人臉特徵資訊,或者,對目標對象的人體區域進行特徵提取處理,可獲得目標對象的人體特徵資訊。在示例中,參考圖像或視頻幀中可包括多個對象,可從多個對象中選中目標對象的人臉區域或人體區域,例如,對目標對象的人臉區域和人體區域中的至少一個進行框選,並可提取被框選的區域的特徵資訊,例如,被框選區域為目標對象的人臉區域,則可提取目標對象的人臉特徵資訊,被框選區域為目標對象的人體區域,則可提取目標對象的人體特徵資訊。
在示例中,人臉特徵資訊可包括根據人臉關鍵點確定的特徵資訊,例如,五官的位置、形狀等,還可包括膚色等資訊。人體特徵資訊可包括根據人體關鍵點確定的特
徵資訊,例如,身高、體型、腿長、臂長等,還可包括衣物的款式、顏色等資訊。
在示例中,可通過卷積神經網路等方式對框選的區域進行特徵提取處理,獲得目標對象的特徵資訊,即,人臉特徵資訊或人體特徵資訊。
在一種可能的實現方式中,可根據所述目標對象的特徵資訊,在多個待處理圖像中進行檢索,在示例中,所述多個待處理圖像可以是所述待檢測視頻的多個視頻幀,也可以是圖像庫中的多個圖像,本公開對待處理圖像不做限制。在示例中,可獲取待處理圖像中各對象的特徵資訊,並將所述各對象的特徵資訊與目標對象的特徵資訊進行對比,獲得目標對象與所述各對象的特徵相似度,進一步地,可將特徵相似度大於或等於相似度閾值的對象確定為目標對象,並可將包括目標對象的待處理圖像確定為所述第一圖像。在示例中,所述待處理圖像為所述待檢測視頻的多個視頻幀,可按照上述方式在所述多個視頻幀中確定出包括目標對象的視頻幀,即,第一圖像。
在一種可能的實現方式中,可在第一圖像中,確定目標對象所在的目標區域的第一位置資訊。在示例中,所述目標區域可包括根據目標對象的特徵資訊確定出的第一圖像中的目標對象。例如,所述特徵資訊為人臉特徵資訊,則所述目標區域為包括目標對象的人臉區域的區域,或者,所述特徵資訊為人體特徵資訊,則所述目標區域為包括目標對象的人體區域的區域,或者,特徵資訊為人體特徵資
訊和人臉特徵資訊,則所述目標區域為包括目標對象的人體區域和人臉區域的區域。
圖2示出根據本公開實施例的目標區域的示意圖,如圖2所示,由虛線框選的區域為所述目標區域,即,目標對象所在的區域。目標區域的尺寸可大於目標對象的人臉區域或人體區域。例如,所述特徵資訊為人臉特徵資訊,但第一圖像中的對象數量較多,可能出現多個人體區域重疊或遮擋等情況,因此難以確定與目標對象的人臉區域匹配的人體區域,在這種情況下,所述目標區域可包括目標對象的人臉區域以及鄰近的多個人體區域。又例如,所述特徵資訊為人體特徵資訊,但第一圖像中的對象數量較多,可能出現多個人臉區域重疊或遮擋等情況,因此難以確定與目標對象的人體區域匹配的人臉區域,在這種情況下,所述目標區域可包括目標對象的人體區域以及鄰近的多個人臉區域。
在一種可能的實現方式中,所述目標區域可以是預設尺寸的區域,例如,第一圖像為解析度為1280×1024,為方便後續處理,需獲取包括目標對象的圖像,該圖像的解析度為800×600。例如,在後續的識別處理中,可由神經網路執行,所述神經網路可輸入解析度為800×600的圖像,因此,可在第一圖像中確定出包括目標對象且尺寸為800×600目標區域。
在一種可能的實現方式中,在步驟S12中,可對所述目標區域進行剪裁等處理,獲得新的圖像。例如,可
對目標區域進行剪裁等處理,獲得解析度為800×600的圖像,以便於所述神經網路處理。
在一種可能的實現方式中,在步驟S13中,可對所述裁剪圖像進行識別處理,確定目標對象的人臉區域所述裁剪圖像中的第二位置資訊以及所述目標對象的人體區域在所述裁剪圖像中的第三位置資訊。在示例中,所述識別處理可通過卷積神經網路等方式實現,本公開對識別處理的方式不做限制。
在一種可能的實現方式中,所述特徵資訊包括人臉特徵資訊,可在裁剪圖像中根據人臉特徵資訊確定人臉區域的第二位置資訊,並確定與所述人臉區域匹配的人體區域(即,目標對象的人體區域)的第三位置資訊。
在一種可能的實現方式中,步驟S13可包括:根據所述參考圖像中的目標對象的人臉特徵資訊,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊;在所述裁剪圖像中確定多個人體區域的位置資訊;根據所述第二位置資訊對所述裁剪圖像中的多個人體區域進行降噪處理,確定所述目標對象的人體區域在所述裁剪圖像中的第三位置資訊。
在一種可能的實現方式中,可根據目標對象的人臉特徵資訊,確定所述目標對象的人臉區域在所述裁剪圖像中的第二位置資訊。例如,所述第二位置資訊包括對所述目標對象的人臉區域進行框選的第一選擇框的座標資訊(例如,第一選擇框的四個頂點在裁剪圖像中的座標),可在裁
剪圖像中識別出目標對象的人臉,並對目標對象的人臉進行框選。在裁剪圖像中識別目標對象的人臉,可快速準確地獲取目標對象的人臉區域的第二位置資訊,減少識別處理中的雜訊干擾,提高識別精度。
在一種可能的實現方式中,可在裁剪圖像中獲取多個人體區域的位置資訊,例如,可獲取對裁剪圖像中的所有人體區域進行框選的第二選擇框的座標資訊。可根據目標對象的人臉區域的第二位置資訊對裁剪圖像中的多個人體區域進行降噪處理,並確定出與目標對象的人臉區域匹配的人體區域,即,目標對象的人體區域在所述裁剪圖像中的第三位置資訊,例如,確定對目標對象的人體區域進行框選的選擇框的座標資訊。
在一種可能的實現方式中,根據所述第二位置資訊對所述裁剪圖像中的人體區域進行降噪處理,確定所述目標對象的人體區域在所述裁剪圖像中的第三位置資訊,包括:根據所述第二位置資訊以及所述裁剪圖像中的人體區域的位置資訊,對所述裁剪圖像中的非目標人體區域進行濾除,獲得第一人體區域;根據所述第一選擇框的中心位置的座標與所述第二選擇框的上邊緣中點的座標之間的距離,從第一人體區域中篩選出第二人體區域;根據所述第二人體區域的第二選擇框的中心位置與所述第一選擇框的中心位置之間的連線與豎直方向之間的夾角,從所述第二人體區域中確定出所述目標對象的人體區域及所述目標對象的人體區域的第三位置資訊。
在一種可能的實現方式中,裁剪圖像中的非目標人體區域可包括明顯與所述目標對象的人臉區域不匹配的人體區域,例如,與人臉區域的位置偏差過大的人體區域。在示例中,所述第二位置資訊包括對所述目標對象的人臉區域進行框選的第一選擇框的座標資訊,所述裁剪圖像中的人體區域的位置資訊包括對所述人體區域進行框選的第二選擇框的座標資訊,所述非目標人體區域包括以下中的至少一種:與所述第一選擇框無交集的第二選擇框對應的人體區域;中心位置的縱坐標大於或等於第一選擇框的下邊緣的縱坐標的第二選擇框對應的人體區域;左邊緣的橫坐標大於或等於第一選擇框的右邊緣的橫坐標的第二選擇框對應的人體區域;右邊緣的橫坐標小於或等於第一選擇框的左邊緣的橫坐標的第二選擇框對應的人體區域。將非目標人體區域進行濾除後,裁剪圖像中剩餘的人體區域即為所述第一人體區域。
在示例中,對目標對象的人臉區域進行框選的第一選擇框與對裁剪圖像的人體區域進行框選的選擇框應有交集,例如,第一選擇框的下邊緣可在目標對象的人體區域選擇框的上邊緣之下。因此,與目標對象的人臉區域的第一選擇框完全無交集的第二選擇框可被排除,即,與所述第一選擇框無交集的第二選擇框對應的人體區域為非目標人體區域。
在示例中,對目標對象的人臉區域進行框選的第一選擇框應高於對目標對象的人體區域進行框選的選擇
框,第一選擇框的下邊緣應高於對目標對象的人體區域進行框選的選擇框的中心位置。因此,中心位置高於第一選擇框的下邊緣的第二選擇框可被排除,即,中心位置的縱坐標大於或等於第一選擇框的下邊緣的縱坐標的第二選擇框對應的人體區域為非目標人體區域。
在示例中,對目標對象的人體區域進行框選的選擇框在豎直方向應與第一選擇框對齊或接近於對齊,因此,在豎直方向偏差過大的人體區域的選擇框可被排除,即,左邊緣的橫坐標大於或等於第一選擇框的右邊緣的橫坐標的第二選擇框對應的人體區域,以及右邊緣的橫坐標小於或等於第一選擇框的左邊緣的橫坐標的第二選擇框對應的人體區域均可被確定為非目標人體區域。
通過這種方式,可過濾掉多個雜訊人體區域,提高識別處理的效率,並提高識別處理的準確度。
在一種可能的實現方式中,可從第一人體區域中,確定出與目標對象的人臉區域匹配的人體區域,即,目標對象的人體區域。
在示例中,可確定第一選擇框的中心位置的座標與所述第二選擇框的上邊緣中點的座標之間的距離,並確定距離最近的第二選擇框對應的人體區域,即,第二人體區域。如果所述距離最近的第二選擇框只有一個,可將該第二選擇框對應的第二人體區域確定為目標對象的人體區域。
在示例中,如果存在多個距離相同的第二選擇框,即,存在多個第二人體區域,則可確定第二人體區域的
第二選擇框的中心位置與所述第一選擇框的中心位置之間的連線與豎直方向之間的夾角,該夾角越小,即所述連線的方向與豎直方向越接近,可將所述夾角最小的第二選擇框對應的第二人體區域確定為所述目標對象的人體區域。在示例中,可確定所述夾角的余弦值,可將所述夾角的余弦值最大的第二選擇框對應的第二人體區域確定為所述目標對象的人體區域。進一步地,可確定目標對象的人體區域的第三位置資訊。
通過這種方式,可通過座標計算來確定出目標對象的人體區域,可提高處理效率。
在一種可能的實現方式中,所述特徵資訊包括人體特徵資訊,可在裁剪圖像中根據人體特徵資訊確定人體區域的第三位置資訊,並確定與所述人臉區域匹配的人臉區域(即,目標對象的人臉區域)的第二位置資訊。
在一種可能的實現方式中,步驟S13可包括:根據所述參考圖像中的目標對象的人體特徵資訊,在所述裁剪圖像中確定所述目標對象的人體區域的第三位置資訊;在所述裁剪圖像中確定多個人臉區域的位置資訊;根據所述第三位置資訊對所述裁剪圖像中的多個人臉區域進行降噪處理,確定所述目標對象的人臉區域在所述裁剪圖像中的第二位置資訊。
在一種可能的實現方式中,可根據目標對象的人體特徵資訊,確定所述目標對象的人體區域在所述裁剪圖像中的第三位置資訊。例如,所述第三位置資訊包括對所述
目標對象的人體區域進行框選的第三選擇框的座標資訊(例如,第三選擇框的四個頂點在裁剪圖像中的座標),可在裁剪圖像中識別出目標對象的人體,並對目標對象的人體進行框選。在裁剪圖像中識別目標對象的人體,可快速準確地獲取目標對象的人體區域的第三位置資訊,減少識別處理中的雜訊干擾,提高識別精度。
在一種可能的實現方式中,可在裁剪圖像中獲取多個人臉區域的位置資訊,例如,可獲取對裁剪圖像中的所有人臉區域進行框選的第四選擇框的座標資訊。可根據目標對象的人體區域的第三位置資訊對裁剪圖像中的多個人臉區域進行降噪處理,並確定出與目標對象的人體區域匹配的人臉區域,即,目標對象的人臉區域在所述裁剪圖像中的第二位置資訊,例如,確定對目標對象的人臉區域進行框選的選擇框的座標資訊。
在一種可能的實現方式中,根據所述第三位置資訊對所述裁剪圖像中的多個人臉區域進行降噪處理,確定所述目標對象的人臉區域在所述裁剪圖像中的第二位置資訊,包括:根據所述第三位置資訊以及所述裁剪圖像中的人臉區域的位置資訊,對所述裁剪圖像中的非目標人臉區域進行濾除,獲得第一人臉區域;根據所述第三選擇框的上邊緣中點的座標與所述第四選擇框的中心位置的座標之間的距離,從第一人臉區域中篩選出第二人臉區域;根據所述第二人體區域的第四選擇框的中心位置與所述第三選擇框的中心位置之間的連線與豎直方向之間的夾角,從所述第二人臉
區域中確定出所述目標對象的人臉區域及所述目標對象的人臉區域的第二位置資訊。
在一種可能的實現方式中,裁剪圖像中的非目標人臉區域可包括明顯與所述目標對象的人體區域不匹配的人臉區域,例如,與人體區域的位置偏差過大的人臉區域。在示例中,所述第三位置資訊包括對所述目標對象的人體區域進行框選的第三選擇框的座標資訊,所述裁剪圖像中的人臉區域的位置資訊包括對所述人臉區域進行框選的第四選擇框的座標資訊,所述非目標人臉區域包括以下中的至少一種:與所述第三選擇框無交集的第四選擇框對應的人臉區域;下邊緣的縱坐標小於或等於第三選擇框的中心位置的縱坐標的第四選擇框對應的人臉區域;左邊緣的橫坐標大於或等於第三選擇框的右邊緣的橫坐標的第四選擇框對應的人臉區域;右邊緣的橫坐標小於或等於第三選擇框的左邊緣的橫坐標的第四選擇框對應的人臉區域。將非目標人臉區域進行濾除後,裁剪圖像中剩餘的人臉區域即為所述第一人臉區域。
在示例中,對目標對象的人體區域進行框選的第三選擇框與對裁剪圖像的人臉區域進行框選的選擇框應有交集,例如,第三選擇框的上邊緣可在目標對象的人臉區域選擇框的下邊緣之上。因此,與目標對象的人體區域的第三選擇框完全無交集的第四選擇框可被排除,即,與所述第三選擇框無交集的第四選擇框對應的人臉區域為非目標人臉區域。
在示例中,對目標對象的人體區域進行框選的第三選擇框應低於對目標對象的人臉區域進行框選的選擇框,第三選擇框的中心位置應低於對目標對象的人臉區域進行框選的選擇框的下邊緣。因此,下邊緣低於第三選擇框的中心位置的第四選擇框可被排除,即,下邊緣的縱坐標小於或等於第三選擇框的中心位置的縱坐標的第四選擇框對應的人臉區域為非目標人臉區域。
在示例中,對目標對象的人臉區域進行框選的選擇框在豎直方向應與第三選擇框對齊或接近於對齊,因此,在豎直方向偏差過大的人臉區域的選擇框可被排除,即,左邊緣的橫坐標大於或等於第三選擇框的右邊緣的橫坐標的第四選擇框對應的人臉區域,以及右邊緣的橫坐標小於或等於第三選擇框的左邊緣的橫坐標的第四選擇框對應的人臉區域均可被確定為非目標人體區域。
通過這種方式,可過濾掉多個雜訊人臉區域,提高識別處理的效率,並提高識別處理的準確度。
在一種可能的實現方式中,可從第一人臉區域中,確定出與目標對象的人體區域匹配的人臉區域,即,目標對象的人臉區域。
在示例中,可確定第三選擇框的上邊緣中點的座標與所述第四選擇框的中心位置的座標之間的距離,並確定距離最近的第四選擇框對應的人臉區域,即,第二人臉區域。如果所述距離最近的第四選擇框只有一個,可將該第四選擇框對應的第二人臉區域確定為目標對象的人臉區域。
在示例中,如果存在多個距離相同的第四選擇框,即,存在多個第二人臉區域,則可確定第二人臉區域的第四選擇框的中心位置與所述第三選擇框的中心位置之間的連線與豎直方向之間的夾角,該夾角越小,即所述連線的方向與豎直方向越接近,可將所述夾角最小的第四選擇框對應的第二人臉區域確定為所述目標對象的人臉區域。在示例中,可確定所述夾角的余弦值,可將所述夾角的余弦值最大的第四選擇框對應的第二人臉區域確定為所述目標對象的人臉區域。進一步地,可確定目標對象的人臉區域的第二位置資訊。
通過這種方式,可通過座標計算來確定出目標對象的人臉區域,可提高處理效率。
在一種可能的實現方式中,在步驟S14中,可根據第一位置資訊、第二位置資訊和第三位置資訊,確定目標對象的人臉區域在第一圖像中的第四位置資訊,以及目標對象的人體區域在第一圖像中的第五位置資訊。
在示例中,可通過座標變換的方式來獲得所述第四位置資訊和所述第五位置資訊。例如,所述第一位置資訊為所述裁剪圖像在第一圖像中的座標資訊,例如,裁剪圖像左上頂點的座標為(x,y)。第二位置資訊為目標對象的人臉區域在裁剪圖像中的座標資訊,例如,裁剪圖像中的人臉區域的選擇框的左上頂點座標為(a1,b1),人臉區域的選擇框的右下頂點座標為(a2,b2)。第三位置資訊為目標對象的人體區域在裁剪圖像中的座標資訊,例如,裁剪圖
像中的人體區域的選擇框的左上頂點座標為(c1,d1),人臉區域的選擇框的右下頂點座標為(c2,d2)。則所述第四位置資訊為目標對象的人臉區域在第一圖像中的座標資訊,例如,第一圖像中的人臉區域的選擇框的左上頂點座標為(x+a1,y+b1),人臉區域的選擇框的右下頂點座標為(x+a2,y+b2)。第一圖像中的人體區域的選擇框的左上頂點座標為(x+c1,y+d1),人體區域的選擇框的右下頂點座標為(x+c2,y+d2)。
在一種可能的實現方式中,在步驟S14中,可根據所述第四位置資訊和第五位置資訊對第一圖像進行處理,例如,可根據第四位置資訊和第五位置資訊對第一圖像中的目標對象的人臉區域和人體區域進行標注,即,標注出對目標對象的人臉區域和人體區域進行框選的選擇框,獲得第二圖像。
在示例中,待處理圖像為監控視頻的視頻幀,可在包括目標對象的各視頻幀中標注出目標對象的人臉區域和人體區域,並根據多個視頻幀中的目標對象的人臉區域和人體區域的位置資訊,確定目標對象的活動軌跡。
根據本公開的實施例的圖像處理方法,可在包括目標對象的第一圖像中確定目標對象所在的目標區域,並對目標區域進行剪裁,在裁剪圖像中確定出目標對象的人臉區域和人體區域,可對干擾區域進行濾除,降低將目標對象的人臉區域和人體區域進行匹配的難度。並可在裁剪圖像中,過濾掉多個雜訊區域,提高識別處理的效率,並提高識
別處理的準確度,並通過座標計算來確定出目標對象的人臉區域或人體區域,可提高處理效率。
圖3示出根據本公開實施例的圖像處理方法的應用示意圖,如圖3所示,可對目標對象的人臉區域或人體區域進行特徵提取處理,獲得目標對象的特徵資訊,並根據目標對象的特徵資訊在待處理圖像中進行檢索,獲得包括目標對象的第一圖像。並在第一圖像中,確定出目標對象所在的目標區域的第一位置資訊,即,目標區域的第一圖像中的座標資訊,例如,目標區域左上頂點的座標為(x,y)等。並可對目標區域進行裁剪處理,獲得剪裁圖像。
在一種可能的實現方式中,如果所述特徵資訊為人臉特徵資訊,可在裁剪圖像中檢索到目標對象的人臉區域,並確定目標對象的人臉區域在裁剪圖像中的第二位置資訊,例如,裁剪圖像中的人臉區域的選擇框的左上頂點座標為(a1,b1),人臉區域的選擇框的右下頂點座標為(a2,b2)。
在一種可能的實現方式中,可濾除裁剪圖像中的非目標人體區域,並在剩餘的第一人體區域中根據人臉區域和人體區域的選擇框的座標來確定出目標對象的人體區域的第三位置資訊,例如,裁剪圖像中的人體區域的選擇框的左上頂點座標為(c1,d1),人臉區域的選擇框的右下頂點座標為(c2,d2)。
在一種可能的實現方式中,如果所述特徵資訊為人體特徵資訊,可在裁剪圖像中檢索到目標對象的人體區
域,並確定目標對象的人體區域在裁剪圖像中的第三位置資訊,例如,裁剪圖像中的人體區域的選擇框的左上頂點座標為(c1,d1),人臉區域的選擇框的右下頂點座標為(c2,d2)。
在一種可能的實現方式中,可濾除裁剪圖像中的非目標人臉區域,並在剩餘的第一人臉區域中根據人臉區域和人體區域的選擇框的座標來確定出目標對象的人臉區域的第二位置資訊,例如,裁剪圖像中的人臉區域的選擇框的左上頂點座標為(a1,b1),人臉區域的選擇框的右下頂點座標為(a2,b2)。
在一種可能的實現方式中,可通過座標變換的方式,確定目標對象的人臉區域和人體區域在第一圖像中的位置資訊。例如,第一圖像中的人臉區域的選擇框的左上頂點座標為(x+a1,y+b1),人臉區域的選擇框的右下頂點座標為(x+a2,y+b2)。第一圖像中的人體區域的選擇框的左上頂點座標為(x+c1,y+d1),人體區域的選擇框的右下頂點座標為(x+c2,y+d2)。
在一種可能的實現方式中,可根據上述座標,在第一圖像中標注出對目標對象的人臉區域和人體區域進行選擇的選擇框。
在一種可能的實現方式中,所述圖像處理方法可用於在大量監控視頻中根據不完整的特徵資訊確定目標對象的位置,可監控和跟蹤目標對象。例如,可在監控視頻中,說明警方鎖定犯罪嫌疑人的位置。
圖4示出根據本公開實施例的圖像處理裝置的方塊圖,如圖4所示,所述裝置包括:第一確定模組11,用於根據參考圖像,從多個待處理圖像中確定出包括所述參考圖像中的目標對象的第一圖像,以及目標對象在所述第一圖像中的所在的目標區域的第一位置資訊;裁剪模組12,用於對所述目標區域進行裁剪處理,獲得裁剪圖像;降噪模組13,用於根據所述參考圖像,對所述裁剪圖像進行降噪處理,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊以及所述目標對象的人體區域的第三位置資訊;第二確定模組14,用於根據所述第一位置資訊、所述第二位置資訊和所述第三位置資訊,在所述第一圖像中確定所述目標對象的人臉區域的第四位置資訊以及所述目標對象的人體區域的第五位置資訊;處理模組15,用於根據所述第四位置資訊與所述第五位置資訊,對所述第一圖像進行處理,獲得第二圖像,其中,所述第二圖像包括對所述目標對象的人臉區域和人體區域的標注資訊。
在一種可能的實現方式中,所述第一確定模組被進一步配置為:獲取所述參考圖像中的目標對象的特徵資訊,其中,所述特徵資訊包括人臉特徵資訊和/或人體特徵資訊;
根據所述目標對象的特徵資訊,從多個待處理圖像中確定出包括目標對象的第一圖像;在所述第一圖像中,確定所述目標對象所在的目標區域的第一位置資訊。
在一種可能的實現方式中,所述目標對象的特徵資訊包括所述目標對象的人臉特徵資訊;其中,所述降噪模組被進一步配置為:根據所述參考圖像中的目標對象的人臉特徵資訊,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊;在所述裁剪圖像中確定多個人體區域的位置資訊;根據所述第二位置資訊對所述裁剪圖像中的多個人體區域進行降噪處理,確定所述目標對象的人體區域在所述裁剪圖像中的第三位置資訊。
在一種可能的實現方式中,所述第二位置資訊包括對所述目標對象的人臉區域進行框選的第一選擇框的座標資訊,所述裁剪圖像中的人體區域的位置資訊包括對所述人體區域進行框選的第二選擇框的座標資訊;其中,所述降噪模組被進一步配置為:根據所述第二位置資訊以及所述裁剪圖像中的人體區域的位置資訊,對所述裁剪圖像中的非目標人體區域進行濾除,獲得第一人體區域;
根據所述第一選擇框的中心位置的座標與所述第二選擇框的上邊緣中點的座標之間的距離,從第一人體區域中篩選出第二人體區域;根據所述第二人體區域的第二選擇框的中心位置與所述第一選擇框的中心位置之間的連線與豎直方向之間的夾角,從所述第二人體區域中確定出所述目標對象的人體區域及所述目標對象的人體區域的第三位置資訊。
在一種可能的實現方式中,所述非目標人體區域包括以下中的至少一種:與所述第一選擇框無交集的第二選擇框對應的人體區域;中心位置的縱坐標大於或等於第一選擇框的下邊緣的縱坐標的第二選擇框對應的人體區域;左邊緣的橫坐標大於或等於第一選擇框的右邊緣的橫坐標的第二選擇框對應的人體區域;右邊緣的橫坐標小於或等於第一選擇框的左邊緣的橫坐標的第二選擇框對應的人體區域。
在一種可能的實現方式中,所述目標對象的特徵資訊包括所述目標對象的人體特徵資訊;其中,所述降噪模組被進一步配置為:根據所述參考圖像中的目標對象的人體特徵資訊,在所述裁剪圖像中確定所述目標對象的人體區域的第三位置資訊;在所述裁剪圖像中確定多個人臉區域的位置資訊;
根據所述第三位置資訊對所述裁剪圖像中的多個人臉區域進行降噪處理,確定所述目標對象的人臉區域在所述裁剪圖像中的第二位置資訊。
在一種可能的實現方式中,所述第三位置資訊包括對所述目標對象的人體區域進行框選的第三選擇框的座標資訊,所述裁剪圖像中的人臉區域的位置資訊包括對所述人臉區域進行框選的第四選擇框的座標資訊;其中,所述降噪模組被進一步配置為:根據所述第三位置資訊以及所述裁剪圖像中的人臉區域的位置資訊,對所述裁剪圖像中的非目標人臉區域進行濾除,獲得第一人臉區域;根據所述第三選擇框的上邊緣中點的座標與所述第四選擇框的中心位置的座標之間的距離,從第一人臉區域中篩選出第二人臉區域;根據所述第二人體區域的第四選擇框的中心位置與所述第三選擇框的中心位置之間的連線與豎直方向之間的夾角,從所述第二人臉區域中確定出所述目標對象的人臉區域及所述目標對象的人臉區域的第二位置資訊。
在一種可能的實現方式中,所述非目標人臉區域包括以下中的至少一種:與所述第三選擇框無交集的第四選擇框對應的人臉區域;下邊緣的縱坐標小於或等於第三選擇框的中心位置的縱坐標的第四選擇框對應的人臉區域;
左邊緣的橫坐標大於或等於第三選擇框的右邊緣的橫坐標的第四選擇框對應的人臉區域;右邊緣的橫坐標小於或等於第三選擇框的左邊緣的橫坐標的第四選擇框對應的人臉區域。
可以理解,本公開提及的上述各個方法實施例,在不違背原理邏輯的情況下,均可以彼此相互結合形成結合後的實施例,限於篇幅,本公開不再贅述。
此外,本公開還提供了圖像處理裝置、電子設備、電腦可讀儲存介質、程式,上述均可用來實現本公開提供的任一種圖像處理方法,相應技術方案、描述和參見方法部分的相應記載,不再贅述。
本領域技術人員可以理解,在具體實施方式的上述方法中,各步驟的撰寫順序並不意味著嚴格的執行順序而對實施過程構成任何限定,各步驟的具體執行順序應當以其功能和可能的內在邏輯確定。
在一些實施例中,本公開實施例提供的裝置具有的功能或包含的模組可以用於執行上文方法實施例描述的方法,其具體實現可以參照上文方法實施例的描述,為了簡潔,這裡不再贅述。
本公開實施例還提出一種電腦可讀儲存介質,其上儲存有電腦程式指令,所述電腦程式指令被處理器執行時實現上述方法。電腦可讀儲存介質可以是非易失性電腦可讀儲存介質。
本公開實施例還提出一種電子設備,包括:處理器;用於儲存處理器可執行指令的記憶體;其中,所述處理器被配置為上述方法。
電子設備可以被提供為終端、伺服器或其它形態的設備。
圖5是根據一示例性實施例示出的一種電子設備800的方塊圖。例如,電子設備800可以是行動電話、電腦、數位廣播終端、消息收發設備、遊戲控制台、平板設備、醫療設備、健身設備、個人數位助理等終端。
參照圖5,電子設備800可以包括以下一個或多個組件:處理組件802、記憶體804、電源組件806、多媒體組件808、音頻組件810、輸入/輸出(I/O)的介面812、感測器組件814、以及通信組件816。
處理組件802通常控制電子設備800的整體操作,諸如與顯示、電話呼叫、資料通信、相機操作和記錄操作相關聯的操作。處理組件802可以包括一個或多個處理器820來執行指令,以完成上述的方法的全部或部分步驟。此外,處理組件802可以包括一個或多個模組,便於處理組件802和其他組件之間的交互。例如,處理組件802可以包括多媒體模組,以方便多媒體組件808和處理組件802之間的交互。
記憶體804被配置為儲存各種類型的資料以支援在電子設備800的操作。這些資料的示例包括用於在電子設備800上操作的任何應用程式或方法的指令、連絡人資
料、電話簿資料、消息、圖片、視頻等。記憶體804可以由任何類型的易失性或非易失性存放裝置或者它們的組合實現,如靜態隨機存取記憶體(SRAM)、電可擦除可程式設計唯讀記憶體(EEPROM)、可擦除可程式設計唯讀記憶體(EPROM)、可程式設計唯讀記憶體(PROM)、唯讀記憶體(ROM)、磁記憶體、快閃記憶體、磁片或光碟。
電源組件806為電子設備800的各種組件提供電力。電源組件806可以包括電源管理系統、一個或多個電源、及其他與為電子設備800生成、管理和分配電力相關聯的組件。
多媒體組件808包括在所述電子設備800和使用者之間的提供一個輸出介面的螢幕。在一些實施例中,螢幕可以包括液晶顯示器(LCD)和觸摸面板(TP)。如果螢幕包括觸摸面板,螢幕可以被實現為觸控式螢幕,以接收來自使用者的輸入信號。觸摸面板包括一個或多個觸摸感測器以感測觸摸、滑動和觸摸面板上的手勢。所述觸摸感測器可以不僅感測觸摸或滑動動作的邊界,而且還檢測與所述觸摸或滑動操作相關的持續時間和壓力。在一些實施例中,多媒體組件808包括一個前置攝影頭和/或後置攝影頭。當電子設備800處於操作模式,如拍攝模式或視訊模式時,前置攝影頭和/或後置攝影頭可以接收外部的多媒體資料。每個前置攝影頭和後置攝影頭可以是一個固定的光學透鏡系統或具有焦距和光學變焦能力。
音頻組件810被配置為輸出和/或輸入音頻信號。例如,音頻組件810包括一個麥克風(MIC),當電子設備800處於操作模式,如呼叫模式、記錄模式和語音辨識模式時,麥克風被配置為接收外部音頻信號。所接收的音頻信號可以被進一步儲存在記憶體804或經由通信組件816發送。在一些實施例中,音頻組件810還包括一個揚聲器,用於輸出音頻信號。
I/O介面812為處理組件802和週邊介面模組之間提供介面,上述週邊介面模組可以是鍵盤、點擊輪、按鈕等。這些按鈕可包括但不限於:主頁按鈕、音量按鈕、啟動按鈕和鎖定按鈕。
感測器組件814包括一個或多個感測器,用於為電子設備800提供各個方面的狀態評估。例如,感測器組件814可以檢測到電子設備800的打開/關閉狀態,組件的相對定位,例如所述組件為電子設備800的顯示器和小鍵盤,感測器組件814還可以檢測電子設備800或電子設備800一個組件的位置改變,使用者與電子設備800接觸的存在或不存在,電子設備800方位或加速/減速和電子設備800的溫度變化。感測器組件814可以包括接近感測器,被配置用來在沒有任何的物理接觸時檢測附近物體的存在。感測器組件814還可以包括光感測器,如CMOS或CCD圖像感測器,用於在成像應用中使用。在一些實施例中,該感測器組件814還可以包括加速度感測器、陀螺儀感測器、磁感測器、壓力感測器或溫度感測器。
通信組件816被配置為便於電子設備800和其他設備之間有線或無線方式的通信。電子設備800可以接入基於通信標準的無線網路,如WiFi、2G或3G、或它們的組合。在一個示例性實施例中,通信組件816經由廣播通道接收來自外部廣播管理系統的廣播信號或廣播相關資訊。在一個示例性實施例中,所述通信組件816還包括近場通信(NFC)模組,以促進短程通信。例如,在NFC模組可基於射頻識別(RFID)技術、紅外資料協會(IrDA)技術、超寬頻(UWB)技術、藍牙(BT)技術和其他技術來實現。
在示例性實施例中,電子設備800可以被一個或多個應用專用積體電路(ASIC)、數位訊號處理器(DSP)、數位信號處理設備(DSPD)、可程式設計邏輯器件(PLD)、現場可程式設計閘陣列(FPGA)、控制器、微控制器、微處理器或其他電子組件實現,用於執行上述方法。
在示例性實施例中,還提供了一種非易失性電腦可讀儲存介質,例如包括電腦程式指令的記憶體804,上述電腦程式指令可由電子設備800的處理器820執行以完成上述方法。
圖6是根據一示例性實施例示出的一種電子設備1900的方塊圖。例如,電子設備1900可以被提供為一伺服器。參照圖6,電子設備1900包括處理組件1922,其進一步包括一個或多個處理器,以及由記憶體1932所代表的記憶體資源,用於儲存可由處理組件1922的執行的指令,
例如應用程式。記憶體1932中儲存的應用程式可以包括一個或一個以上的每一個對應於一組指令的模組。此外,處理組件1922被配置為執行指令,以執行上述方法。
電子設備1900還可以包括一個電源組件1926被配置為執行電子設備1900的電源管理,一個有線或無線網路介面1950被配置為將電子設備1900連接到網路,和一個輸入輸出(I/O)介面1958。電子設備1900可以操作基於儲存在記憶體1932的作業系統,例如Windows ServerTM、Mac OS XTM、UnixTM,LinuxTM、FreeBSDTM或類似。
在示例性實施例中,還提供了一種非易失性電腦可讀儲存介質,例如包括電腦程式指令的記憶體1932,上述電腦程式指令可由電子設備1900的處理組件1922執行以完成上述方法。
本公開可以是系統、方法和/或電腦程式產品。電腦程式產品可以包括電腦可讀儲存介質,其上載有用於使處理器實現本公開的各個方面的電腦可讀程式指令。
電腦可讀儲存介質可以是可以保持和儲存由指令執行設備使用的指令的有形設備。電腦可讀儲存介質例如可以是──但不限於──電存放裝置、磁存放裝置、光存放裝置、電磁存放裝置、半導體存放裝置或者上述的任意合適的組合。電腦可讀儲存介質的更具體的例子(非窮舉的列表)包括:可擕式電腦盤、硬碟、隨機存取記憶體(RAM)、唯讀記憶體(ROM)、可擦式可程式設計唯讀記憶體
(EPROM或快閃記憶體)、靜態隨機存取記憶體(SRAM)、可擕式壓縮磁碟唯讀記憶體(CD-ROM)、數位多功能盤(DVD)、記憶棒、軟碟、機械編碼設備、例如其上儲存有指令的打孔卡或凹槽內凸起結構、以及上述的任意合適的組合。這裡所使用的電腦可讀儲存介質不被解釋為暫態信號本身,諸如無線電波或者其他自由傳播的電磁波、通過波導或其他傳輸媒介傳播的電磁波(例如,通過光纖電纜的光脈衝)、或者通過電線傳輸的電信號。
這裡所描述的電腦可讀程式指令可以從電腦可讀儲存介質下載到各個計算/處理設備,或者通過網路、例如網際網路、局域網、廣域網路和/或無線網下載到外部電腦或外部存放裝置。網路可以包括銅傳輸電纜、光纖傳輸、無線傳輸、路由器、防火牆、交換機、閘道電腦和/或邊緣伺服器。每個計算/處理設備中的網路介面卡或者網路介面從網路接收電腦可讀程式指令,並轉發該電腦可讀程式指令,以供儲存在各個計算/處理設備中的電腦可讀儲存介質中。
用於執行本公開操作的電腦程式指令可以是彙編指令、指令集架構(ISA)指令、機器指令、機器相關指令、微代碼、固件指令、狀態設置資料、或者以一種或多種程式設計語言的任意組合編寫的原始程式碼或目標代碼,所述程式設計語言包括對象導向的程式設計語言-諸如Smalltalk、C++等,以及常規的過程式程式設計語言-諸如“C”語言或類似的程式設計語言。電腦可讀程式指令可
以完全地在使用者電腦上執行、部分地在使用者電腦上執行、作為一個獨立的套裝軟體執行、部分在使用者電腦上部分在遠端電腦上執行、或者完全在遠端電腦或伺服器上執行。在涉及遠端電腦的情形中,遠端電腦可以通過任意種類的網路-包括局域網(LAN)或廣域網路(WAN)-連接到使用者電腦,或者,可以連接到外部電腦(例如利用網際網路服務提供者來通過網際網路連接)。在一些實施例中,通過利用電腦可讀程式指令的狀態資訊來個性化定制電子電路,例如可程式設計邏輯電路、現場可程式設計閘陣列(FPGA)或可程式設計邏輯陣列(PLA),該電子電路可以執行電腦可讀程式指令,從而實現本公開的各個方面。
這裡參照根據本公開實施例的方法、裝置(系統)和電腦程式產品的流程圖和/或方塊圖描述了本公開的各個方面。應當理解,流程圖和/或方塊圖的每個方塊以及流程圖和/或方塊圖中各方塊的組合,都可以由電腦可讀程式指令實現。
這些電腦可讀程式指令可以提供給通用電腦、專用電腦或其它可程式設計資料處理裝置的處理器,從而生產出一種機器,使得這些指令在通過電腦或其它可程式設計資料處理裝置的處理器執行時,產生了實現流程圖和/或方塊圖中的一個或多個方塊中規定的功能/動作的裝置。也可以把這些電腦可讀程式指令儲存在電腦可讀儲存介質中,這些指令使得電腦、可程式設計資料處理裝置和/或其他設備以特定方式工作,從而,儲存有指令的電腦可讀介質則包括
一個製造品,其包括實現流程圖和/或方塊圖中的一個或多個方塊中規定的功能/動作的各個方面的指令。
也可以把電腦可讀程式指令載入到電腦、其它可程式設計資料處理裝置、或其它設備上,使得在電腦、其它可程式設計資料處理裝置或其它設備上執行一系列操作步驟,以產生電腦實現的過程,從而使得在電腦、其它可程式設計資料處理裝置、或其它設備上執行的指令實現流程圖和/或方塊圖中的一個或多個方塊中規定的功能/動作。
附圖中的流程圖和方塊圖顯示了根據本公開的多個實施例的系統、方法和電腦程式產品的可能實現的體系架構、功能和操作。在這點上,流程圖或方塊圖中的每個方塊可以代表一個模組、程式段或指令的一部分,所述模組、程式段或指令的一部分包含一個或多個用於實現規定的邏輯功能的可執行指令。在有些作為替換的實現中,方塊中所標注的功能也可以以不同於附圖中所標注的順序發生。例如,兩個連續的方塊實際上可以基本並行地執行,它們有時也可以按相反的循序執行,這依所涉及的功能而定。也要注意的是,方塊圖和/或流程圖中的每個方塊、以及方塊圖和/或流程圖中的方塊的組合,可以用執行規定的功能或動作的專用的基於硬體的系統來實現,或者可以用專用硬體與電腦指令的組合來實現。
以上已經描述了本公開的各實施例,上述說明是示例性的,並非窮盡性的,並且也不限於所披露的各實施例。在不偏離所說明的各實施例的範圍和精神的情況下,對
於本技術領域的普通技術人員來說許多修改和變更都是顯而易見的。本文中所用術語的選擇,旨在最好地解釋各實施例的原理、實際應用或對市場中的技術的改進,或者使本技術領域的其它普通技術人員能理解本文披露的各實施例。
圖1代表圖為流程圖,無元件符號說明。
Claims (10)
- 一種圖像處理方法,包括:根據參考圖像,從多個待處理圖像中確定出包括所述參考圖像中的目標對象的第一圖像,以及目標對象在所述第一圖像中的所在的目標區域的第一位置資訊;對所述目標區域進行裁剪處理,獲得裁剪圖像;根據所述參考圖像,對所述裁剪圖像進行降噪處理,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊以及所述目標對象的人體區域的第三位置資訊;根據所述第一位置資訊、所述第二位置資訊和所述第三位置資訊,在所述第一圖像中確定所述目標對象的人臉區域的第四位置資訊以及所述目標對象的人體區域的第五位置資訊;根據所述第四位置資訊與所述第五位置資訊,對所述第一圖像進行處理,獲得第二圖像,其中,所述第二圖像包括對所述目標對象的人臉區域和人體區域的標注資訊。
- 根據請求項1所述的方法,根據參考圖像,從多個待處理圖像中確定出包括所述參考圖像中的目標對象的第一圖像以及目標對象在所述第一圖像中的所在的目標區域的第一位置資訊,包括:獲取所述參考圖像中的目標對象的特徵資訊,其中,所述特徵資訊包括人臉特徵資訊和/或人體特徵資訊;根據所述目標對象的特徵資訊,從多個待處理圖像中確定出包括目標對象的第一圖像; 在所述第一圖像中,確定所述目標對象所在的目標區域的第一位置資訊。
- 根據請求項2所述的方法,所述目標對象的特徵資訊包括所述目標對象的人臉特徵資訊:其中,根據所述參考圖像,對所述裁剪圖像進行降噪處理,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊以及所述目標對象的人體區域的第三位置資訊,包括:根據所述參考圖像中的目標對象的人臉特徵資訊,在所述裁剪圖像中確定所述目標對象的人臉區域的第二位置資訊;在所述裁剪圖像中確定多個人體區域的位置資訊;根據所述第二位置資訊對所述裁剪圖像中的多個人體區域進行降噪處理,確定所述目標對象的人體區域在所述裁剪圖像中的第三位置資訊。
- 根據請求項3所述的方法,所述第二位置資訊包括對所述目標對象的人臉區域進行框選的第一選擇框的座標資訊,所述裁剪圖像中的人體區域的位置資訊包括對所述人體區域進行框選的第二選擇框的座標資訊;其中,根據所述第二位置資訊對所述裁剪圖像中的人體區域進行降噪處理,確定所述目標對象的人體區域在所述裁剪圖像中的第三位置資訊,包括: 根據所述第二位置資訊以及所述裁剪圖像中的人體區域的位置資訊,對所述裁剪圖像中的非目標人體區域進行濾除,獲得第一人體區域;根據所述第一選擇框的中心位置的座標與所述第二選擇框的上邊緣中點的座標之間的距離,從第一人體區域中篩選出第二人體區域;根據所述第二人體區域的第二選擇框的中心位置與所述第一選擇框的中心位置之間的連線與豎直方向之間的夾角,從所述第二人體區域中確定出所述目標對象的人體區域及所述目標對象的人體區域的第三位置資訊。
- 根據請求項4所述的方法,所述非目標人體區域包括以下中的至少一種:與所述第一選擇框無交集的第二選擇框對應的人體區域;中心位置的縱坐標大於或等於第一選擇框的下邊緣的縱坐標的第二選擇框對應的人體區域;左邊緣的橫坐標大於或等於第一選擇框的右邊緣的橫坐標的第二選擇框對應的人體區域;右邊緣的橫坐標小於或等於第一選擇框的左邊緣的橫坐標的第二選擇框對應的人體區域。
- 根據請求項2所述的方法,所述目標對象的特徵資訊包括所述目標對象的人體特徵資訊;其中,根據所述參考圖像,對所述裁剪圖像進行降噪處理,在所述裁剪圖像中確定所述目標對象的人臉區域的 第二位置資訊以及所述目標對象的人體區域的第三位置資訊,包括:根據所述參考圖像中的目標對象的人體特徵資訊,在所述裁剪圖像中確定所述目標對象的人體區域的第三位置資訊;在所述裁剪圖像中確定多個人臉區域的位置資訊;根據所述第三位置資訊對所述裁剪圖像中的多個人臉區域進行降噪處理,確定所述目標對象的人臉區域在所述裁剪圖像中的第二位置資訊。
- 根據請求項6所述的方法,所述第三位置資訊包括對所述目標對象的人體區域進行框選的第三選擇框的座標資訊,所述裁剪圖像中的人臉區域的位置資訊包括對所述人臉區域進行框選的第四選擇框的座標資訊;其中,根據所述第三位置資訊對所述裁剪圖像中的多個人臉區域進行降噪處理,確定所述目標對象的人臉區域在所述裁剪圖像中的第二位置資訊,包括:根據所述第三位置資訊以及所述裁剪圖像中的人臉區域的位置資訊,對所述裁剪圖像中的非目標人臉區域進行濾除,獲得第一人臉區域;根據所述第三選擇框的上邊緣中點的座標與所述第四選擇框的中心位置的座標之間的距離,從第一人臉區域中篩選出第二人臉區域;根據第二人體區域的第四選擇框的中心位置與所述第三選擇框的中心位置之間的連線與豎直方向之間的夾角, 從所述第二人臉區域中確定出所述目標對象的人臉區域及所述目標對象的人臉區域的第二位置資訊。
- 根據請求項7所述的方法,所述非目標人臉區域包括以下中的至少一種:與所述第三選擇框無交集的第四選擇框對應的人臉區域;下邊緣的縱坐標小於或等於第三選擇框的中心位置的縱坐標的第四選擇框對應的人臉區域;左邊緣的橫坐標大於或等於第三選擇框的右邊緣的橫坐標的第四選擇框對應的人臉區域;右邊緣的橫坐標小於或等於第三選擇框的左邊緣的橫坐標的第四選擇框對應的人臉區域。
- 一種電子設備,包括:處理器;用於儲存處理器可執行指令的記憶體;其中,所述處理器被配置為:執行請求項1至8中任意一項所述的方法。
- 一種電腦可讀儲存介質,其上儲存有電腦程式指令,所述電腦程式指令被處理器執行時實現請求項1至8中任意一項所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910181078.0 | 2019-03-11 | ||
CN201910181078.0A CN109948494B (zh) | 2019-03-11 | 2019-03-11 | 图像处理方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI702544B true TWI702544B (zh) | 2020-08-21 |
TW202034211A TW202034211A (zh) | 2020-09-16 |
Family
ID=67009474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108137127A TWI702544B (zh) | 2019-03-11 | 2019-10-15 | 圖像處理方法、電子設備和電腦可讀儲存介質 |
Country Status (8)
Country | Link |
---|---|
US (1) | US11288531B2 (zh) |
JP (1) | JP7061191B2 (zh) |
KR (1) | KR102446687B1 (zh) |
CN (1) | CN109948494B (zh) |
PH (1) | PH12020551046A1 (zh) |
SG (1) | SG11202006321UA (zh) |
TW (1) | TWI702544B (zh) |
WO (1) | WO2020181728A1 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948494B (zh) * | 2019-03-11 | 2020-12-29 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN110619626B (zh) * | 2019-08-30 | 2023-04-07 | 北京都是科技有限公司 | 图像处理设备、系统、方法以及装置 |
CN111222404A (zh) * | 2019-11-15 | 2020-06-02 | 北京市商汤科技开发有限公司 | 检测同行人的方法及装置、系统、电子设备和存储介质 |
CN111144215B (zh) * | 2019-11-27 | 2023-11-24 | 北京迈格威科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111476214A (zh) * | 2020-05-21 | 2020-07-31 | 北京爱笔科技有限公司 | 一种图像区域匹配方法和相关装置 |
CN111724442B (zh) * | 2020-05-28 | 2022-04-22 | 上海商汤智能科技有限公司 | 图像处理方法及装置、电子设备及存储介质 |
CN111784773A (zh) * | 2020-07-02 | 2020-10-16 | 清华大学 | 图像处理方法及装置、神经网络训练方法及装置 |
CN112085701B (zh) * | 2020-08-05 | 2024-06-11 | 深圳市优必选科技股份有限公司 | 一种人脸模糊度检测方法、装置、终端设备及存储介质 |
CN112465843A (zh) * | 2020-12-22 | 2021-03-09 | 深圳市慧鲤科技有限公司 | 图像分割方法及装置、电子设备和存储介质 |
CN112733650B (zh) * | 2020-12-29 | 2024-05-07 | 深圳云天励飞技术股份有限公司 | 目标人脸检测方法、装置、终端设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216885A (zh) * | 2008-01-04 | 2008-07-09 | 中山大学 | 一种基于视频的行人人脸检测与跟踪算法 |
CN105227918A (zh) * | 2015-09-30 | 2016-01-06 | 珠海安联锐视科技股份有限公司 | 一种智能监控方法及装置 |
CN106845432A (zh) * | 2017-02-07 | 2017-06-13 | 深圳市深网视界科技有限公司 | 一种人脸与人体共同检测的方法和设备 |
CN107644204A (zh) * | 2017-09-12 | 2018-01-30 | 南京凌深信息科技有限公司 | 一种用于安防系统的人体识别与跟踪方法 |
WO2018080547A1 (en) * | 2016-10-31 | 2018-05-03 | Hewlett-Packard Development Company, L.P. | Video monitoring |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE60236461D1 (de) * | 2002-07-26 | 2010-07-01 | Mitsubishi Electric Corp | Bildverarbeitungsvorrichtung |
US9692964B2 (en) * | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
JP2005094741A (ja) * | 2003-08-14 | 2005-04-07 | Fuji Photo Film Co Ltd | 撮像装置及び画像合成方法 |
JP2008181423A (ja) | 2007-01-25 | 2008-08-07 | Fujitsu Ten Ltd | 歩行者認識装置および歩行者認識方法 |
KR101180471B1 (ko) * | 2011-09-27 | 2012-09-07 | (주)올라웍스 | 한정된 메모리 환경 하에서 얼굴 인식 성능 향상을 위한 참조 얼굴 데이터베이스 관리 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
JP5882975B2 (ja) * | 2012-12-26 | 2016-03-09 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、及び記録媒体 |
US9307191B2 (en) * | 2013-11-19 | 2016-04-05 | Microsoft Technology Licensing, Llc | Video transmission |
JP6664163B2 (ja) * | 2015-08-05 | 2020-03-13 | キヤノン株式会社 | 画像識別方法、画像識別装置及びプログラム |
KR20180086048A (ko) * | 2017-01-20 | 2018-07-30 | 한화에어로스페이스 주식회사 | 카메라 및 카메라의 영상 처리 방법 |
JP6683889B2 (ja) * | 2017-03-22 | 2020-04-22 | 株式会社日立国際電気 | 画像検索装置 |
CN108319953B (zh) | 2017-07-27 | 2019-07-16 | 腾讯科技(深圳)有限公司 | 目标对象的遮挡检测方法及装置、电子设备及存储介质 |
CN109948494B (zh) * | 2019-03-11 | 2020-12-29 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
-
2019
- 2019-03-11 CN CN201910181078.0A patent/CN109948494B/zh active Active
- 2019-08-19 JP JP2020533126A patent/JP7061191B2/ja active Active
- 2019-08-19 WO PCT/CN2019/101384 patent/WO2020181728A1/zh active Application Filing
- 2019-08-19 SG SG11202006321UA patent/SG11202006321UA/en unknown
- 2019-08-19 KR KR1020207017077A patent/KR102446687B1/ko active IP Right Grant
- 2019-10-15 TW TW108137127A patent/TWI702544B/zh active
-
2020
- 2020-06-29 US US16/914,686 patent/US11288531B2/en active Active
- 2020-06-30 PH PH12020551046A patent/PH12020551046A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101216885A (zh) * | 2008-01-04 | 2008-07-09 | 中山大学 | 一种基于视频的行人人脸检测与跟踪算法 |
CN105227918A (zh) * | 2015-09-30 | 2016-01-06 | 珠海安联锐视科技股份有限公司 | 一种智能监控方法及装置 |
WO2018080547A1 (en) * | 2016-10-31 | 2018-05-03 | Hewlett-Packard Development Company, L.P. | Video monitoring |
CN106845432A (zh) * | 2017-02-07 | 2017-06-13 | 深圳市深网视界科技有限公司 | 一种人脸与人体共同检测的方法和设备 |
CN107644204A (zh) * | 2017-09-12 | 2018-01-30 | 南京凌深信息科技有限公司 | 一种用于安防系统的人体识别与跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2021517747A (ja) | 2021-07-26 |
WO2020181728A1 (zh) | 2020-09-17 |
JP7061191B2 (ja) | 2022-04-27 |
CN109948494A (zh) | 2019-06-28 |
SG11202006321UA (en) | 2020-10-29 |
TW202034211A (zh) | 2020-09-16 |
KR102446687B1 (ko) | 2022-09-23 |
US11288531B2 (en) | 2022-03-29 |
KR20200110642A (ko) | 2020-09-24 |
PH12020551046A1 (en) | 2021-09-06 |
US20200327353A1 (en) | 2020-10-15 |
CN109948494B (zh) | 2020-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI702544B (zh) | 圖像處理方法、電子設備和電腦可讀儲存介質 | |
TWI749423B (zh) | 圖像處理方法及裝置、電子設備和電腦可讀儲存介質 | |
TWI724736B (zh) | 圖像處理方法及裝置、電子設備、儲存媒體和電腦程式 | |
TWI740309B (zh) | 圖像處理方法及裝置、電子設備和電腦可讀儲存介質 | |
TWI747325B (zh) | 目標對象匹配方法及目標對象匹配裝置、電子設備和電腦可讀儲存媒介 | |
WO2020135127A1 (zh) | 一种行人识别方法及装置 | |
US9674395B2 (en) | Methods and apparatuses for generating photograph | |
WO2021031609A1 (zh) | 活体检测方法及装置、电子设备和存储介质 | |
WO2020134866A1 (zh) | 关键点检测方法及装置、电子设备和存储介质 | |
WO2017071085A1 (zh) | 报警方法及装置 | |
WO2021036382A1 (zh) | 图像处理方法及装置、电子设备和存储介质 | |
EP3125135A1 (en) | Picture processing method and device | |
WO2021093375A1 (zh) | 检测同行人的方法及装置、系统、电子设备和存储介质 | |
CN109934275B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
WO2020133966A1 (zh) | 锚点确定方法及装置、电子设备和存储介质 | |
WO2016192325A1 (zh) | 视频文件的标识处理方法及装置 | |
CN109034150B (zh) | 图像处理方法及装置 | |
CN110532956B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN111523346B (zh) | 图像识别方法及装置、电子设备和存储介质 | |
CN106534951B (zh) | 视频分割方法和装置 | |
US11551465B2 (en) | Method and apparatus for detecting finger occlusion image, and storage medium | |
US20170054906A1 (en) | Method and device for generating a panorama | |
CN109101542B (zh) | 图像识别结果输出方法及装置、电子设备和存储介质 | |
CN110781842A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
WO2022099988A1 (zh) | 目标跟踪方法及装置、电子设备和存储介质 |