TWI845060B - 人物識別方法及相關設備 - Google Patents
人物識別方法及相關設備 Download PDFInfo
- Publication number
- TWI845060B TWI845060B TW111147520A TW111147520A TWI845060B TW I845060 B TWI845060 B TW I845060B TW 111147520 A TW111147520 A TW 111147520A TW 111147520 A TW111147520 A TW 111147520A TW I845060 B TWI845060 B TW I845060B
- Authority
- TW
- Taiwan
- Prior art keywords
- region
- target
- width
- person
- area
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 210000000746 body region Anatomy 0.000 claims description 63
- 238000012360 testing method Methods 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 11
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000003062 neural network model Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 101001121408 Homo sapiens L-amino-acid oxidase Proteins 0.000 description 2
- 101000827703 Homo sapiens Polyphosphoinositide phosphatase Proteins 0.000 description 2
- 102100026388 L-amino-acid oxidase Human genes 0.000 description 2
- 102100023591 Polyphosphoinositide phosphatase Human genes 0.000 description 2
- 101100233916 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) KAR5 gene Proteins 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 101100012902 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) FIG2 gene Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本發明提供一種人物識別方法及相關設備,所述方法包括:從獲取的圖像中識別每個人物對應的人物區域;根據人物區域的長度與預設的長度佔比,將人物區域劃分為多個目標區域;識別多個目標區域對應的多個寬度,確定第一目標寬度變化關係;在第一目標寬度變化關係與預設的標準寬度變化關係不匹配時,確定對人物的識別不完整。本申請能夠提高圖像識別中對於人體區域識別的精確度。
Description
本申請涉及圖像識別技術領域,尤其涉及一種人物識別方法及相關設備。
在車輛行駛的過程中,行人作為車輛障礙物之一,需要準確的識別以及避讓,才能避免對行人造成危險。目前,通常採用目標檢測技術,即,藉由建立神經網路模型進行檢測,但這類方法需要消耗大量的算力和時間成本對神經網路模型進行訓練,並且,由於神經網路模型的訓練是週期性地,因此,如果神經網路模型的訓練與更新不足,會導致無法準確識別道路中的行人,必然會產生危險。
本申請實施例公開了一種人物識別方法及相關設備,能夠解決基於圖像進行人物識別時存在對人體區域識別不精確的技術問題。
本申請提供一種人物識別方法,所述方法包括:從獲取的圖像中識別每個人物對應的人物區域;根據所述人物區域的長度與預設的長度佔比,將所述人物區域劃分為多個目標區域;識別所述多個目標區域對應的多個寬度,確定第一目標寬度變化關係;在所述第一目標寬度變化關係與預設的標準寬度變化關係不匹配時,確定對所述人物的識別不完整。
在一些可選的實施例中,在所述確定所述人物區域不完整以後,所
述方法還包括:利用預設的深度學習演算法對所述人物區域進行修復,得到修復後的人物區域;根據所述修復後的人物區域的長度以及所述長度佔比,將所述修復後的人物區域劃分為多個預期區域;識別所述多個預期區域對應的多個寬度,確定第二目標寬度變化關係;若所述第二目標寬度變化關係與所述標準寬度變化關係匹配,確定所述修復後的人物區域為所述人物的識別結果;若所述第二目標寬度變化關係與所述標準寬度變化關係不匹配,確定所述人物區域為所述人物的識別結果。
在一些可選的實施例中,所述標準變化關係,包括:獲取多個測試人員對應的多個測試圖像;將所述多個測試圖像輸入預設的識別模型,得到所述多個測試圖像中所述測試人員的人體區域;對所述人體區域進行劃分,將包含所述測試人員頭部的區域作為第一人體區域,將不包含所述測試人員頭部的上半身區域作為第二人體區域、將所述測試人員的下半身區域作為第三人體區域;獲取所述第一人體區域對應的寬度、所述第二人體區域對應的寬度以及所述第三人體區域對應的寬度;基於所述第一人體區域對應的寬度、所述第二人體區域對應的寬度以及所述第三人體區域對應的寬度,確定所述標準寬度變化關係。
在一些可選的實施例中,所述第一人體區域對應的寬度小於所述第二人體區域對應的寬度和所述第三人體區域對應的寬度;所述第二人體區域對應的寬度大於所述第三人體區域對應的寬度。
在一些可選的實施例中,所述多個目標區域包括第一目標區域、第二目標區域以及第三目標區域,所述根據所述人物區域的長度與預設的長度佔比,將所述人物區域劃分為多個目標區域,包括:識別所述人物區域的長度;基於所述人物區域的長度與預設的長度佔比,將所述人物區域劃分為所述第一目標區域、所述第二目標區域以及所述第三目標區域,其中,所述第一目標區域的長度佔比小於所述第二目標區域以及所述第三目標區域,所述第二目標區域的長度佔比大於所述第三目標區域。
在一些可選的實施例中,所述確定所述人物區域不完整,包括:識別所述第一目標區域對應的寬度、所述第二目標區域對應的寬度以及所述第三目標區域對應的寬度;若所述第一目標區域對應的寬度大於或等於所述第二目標區域對應的寬度,且所述第一目標區域對應的寬度大於所述第三目標區域對應的寬度,確定所述第一目標寬度變化關係與所述標準寬度變化關係不匹配。
在一些可選的實施例中,所述多個預期區域包括第一預期區域、第二預期區域以及第三預期區域,所述根據所述修復後的人物區域的長度以及所述長度佔比,將所述修復後的人物區域劃分為多個預期區域,包括:識別所述修復後的人物區域的長度;基於所述修復後的人物區域的長度以及所述預設的長度佔比,將所述修復後的人物區域劃分為所述第一預期區域、所述第二預期區域以及所述第三預期區域,其中,所述第一預期區域的長度佔比小於所述第二預期區域以及所述第三預期區域,所述第二預期區域的長度佔比大於所述第三預期區域。
在一些可選的實施例中,所述確定所述修復後的人物區域為所述人物的識別結果,包括:識別所述第一預期區域對應的寬度、所述第二預期區域對應的寬度以及所述第三預期區域對應的寬度;若所述第一預期區域對應的寬度小於所述第二預期區域對應的寬度,且所述第二預期區域的寬度大於所述第三預期區域的寬度,確定所述第二目標寬度變化關係與所述標準寬度變化關係匹配。
本申請還提供一種電子設備,所述電子設備包括處理器和記憶體,所述處理器用於執行所述記憶體中存儲的電腦程式時實現所述的人物識別方法。
本申請還提供一種電腦可讀存儲介質,所述電腦可讀存儲介質上存儲有電腦程式,所述電腦程式被處理器執行時實現所述的人物識別方法。
在本申請提供的人物識別方法中,將識別出來的人物區域劃分為多個目標區域,為精准地識別人物區域提供了基礎,進一步地,藉由識別多個目
標區域對應的多個寬度,確定第一目標寬度變化關係,並將第一目標寬度變化關係與標準寬度變化關係進行匹配,能夠提高識別人體區域的精確度。
1:電子設備
10:通訊匯流排
11:儲存器
12:處理器
13:拍攝裝置
S21~S24:步驟
S61~S66:步驟
圖1是本申請一實施例提供的電子設備的示意圖。
圖2是本申請一實施例提供的人物識別方法的流程圖。
圖3是本申請一實施例提供的劃分人物區域的示意圖。
圖4是本申請一實施例提供的劃分人物區域的示意圖。
圖5是本申請一實施例提供的多個目標區域對應的多個寬度的示意圖。
圖6是本申請一實施例提供的對不完整的人物區域進行修改的流程圖。
圖7是本申請一實施例提供的修復後的人物區域的示意圖。
為了便於理解,示例性的給出了部分與本申請實施例相關概念的說明以供參考。
需要說明的係,本申請中“至少一個”係指一個或者複數個,“複數個”係指兩個或多於兩個。“和/或”,描述關聯物件的關聯關係,表示可以存在三種關係,例如,A和/或B可以表示:單獨存在A,同時存在A和B,單獨存在B的情況,其中A,B可以係單數或者複數。本申請的說明書和請求項書及附圖中的術語“第一”、“第二”、“第三”、“第四”等(如果存在)係用於區別類似的物件,而不係用於描述特定的順序或先後次序。
在車輛行駛的過程中,行人作為車輛障礙物之一,需要準確的識別以及避讓,才能避免對行人造成危險。目前,通常採用目標檢測技術,即,藉由建立神經網路模型進行檢測,但這類方法需要消耗大量的算力和時間成本對
神經網路模型進行訓練,並且,由於神經網路模型的訓練是週期性地,因此,如果神經網路模型的訓練與更新不足,會導致無法準確識別道路中的行人,必然會產生危險。
為瞭解決基於圖像進行人物識別時存在對人體區域識別不精確的技術問題,以及能更好地理解本申請實施例提供的人物識別方法及相關設備,下面首先對本申請人物識別方法的應用場景進行描述。
圖1是本申請實施例提供的電子設備的示意圖。本申請實施例提供的人物識別方法應用於電子設備1中,所述電子設備1包括,但不限於,互相之間藉由通信匯流排10連接的記憶體11、至少一個處理器12以及拍攝裝置13,所述拍攝裝置13可以是車輛的車載拍攝設備、外接車輛的攝像設備,例如,攝像頭或行車記錄器,以拍攝車輛前方的多個圖像或視頻。
在本申請實施例中,所述電子設備1可以應用於交通工具中,例如,可以是車輛中的車載裝置(例如,車機),也可以是獨立的車載裝置(例如,電腦、筆記型電腦、手機等)並且能夠與車載設備進行通信與資料交互,從而實現對車輛的控制。
圖1僅僅是電子設備1的示例,並不構成對電子設備1的限定,實際應用中的電子設備1可以包括比圖示更多或更少的部件,或者組合某些部件,或者替換不同的部件,例如所述電子設備1還可以包括輸入輸出設備、網路接入設備等。
如圖2所示,是本申請實施例提供的人物識別方法的流程圖。本申請所述的人物識別方法應用在電子設備(例如圖1的電子設備1)中。根據不同的需求,該流程圖中步驟的順序可以改變,某些步驟可以省略。
步驟S21,從獲取的圖像中識別每個人物對應的人物區域。
在本申請的實施例中,利用車輛的拍攝裝置(例如,單目相機)可以拍攝車輛周圍不同時刻的多個圖像,在藉由拍攝裝置拍攝到車輛外場景的圖像中,將拍攝到的RGB圖像作為單幅圖像。
將拍攝得到的圖像輸入預設的神經網路模型,例如,利用長短期記憶網路(Long Short-Term Memory,LSTM)、迴圈神經網路(Recurrent Neural Network,RNN)、卷積神經網路(Convolutional Neural Networks,CNN)中任意一種或兩種訓練得到的神經網路模型,在一些示例中,該神經網路模型可以是實例分割模型(Instance Segmentation),能夠分割出不同物件的實例,其中,不同物件可以是不同的人物。
利用實例分割模型對拍攝到的圖像進行處理,對圖像中的人物進行識別,並且將識別出的人物用遮罩進行覆蓋,其中,遮罩(Mask)也稱為掩蔽,表示用選定的圖像、圖形或物體對待處理的圖像(全部或局部)進行遮擋。
將利用遮罩覆蓋的圖像中人物的區域作為人物區域,每個人物對應一個人物區域,可以同時獲取多個人物區域,並且利用不同的遮罩對人物區域進行覆蓋。
步驟S22,根據人物區域的長度與預設的長度佔比,將人物區域劃分為多個目標區域。
在本申請的實施例中,在獲取到圖像中的人物區域以後,可以測量或計算每個人物區域對應的長度,根據測量或計算得到的長度分別對每個人物區域進行劃分,可以根據預設的長度佔比將人物區域劃分為多個目標區域。
圖3是本申請一實施例提供的劃分人物區域的示意圖,如圖3所示,對圖像中的任意一個遮罩區域(即人物區域)進行劃分,假設將人物區域劃分為多個目標區域,例如,三個目標區域,包括第一目標區域、第二目標區域以及第三目標區域,可以預先設置長度佔比為2:5:3,基於人物區域的長度D以及長度佔比2:5:3,得到第一目標區域A1、第二目標區域A2以及第三目標區域A3,其中,第一目標區域A1的長度佔比小於第二目標區域A2以及第三目標區域A3的長度佔比,第二目標區域A2的長度佔比大於第三目標區域A3的長度佔比。
在另一些實施例中,預先設置的長度佔比還可以設置為2:6:2,即,
第一目標區域A1與第三目標區域A3對應的長度佔比可以相等,第一目標區域A1和第三目標區域A3的長度佔比小於第二目標區域A2的長度佔比。
圖4是本申請另一實施例提供的劃分人物區域的示意圖,如圖4所示,假設將人物區域劃分為兩個目標區域,包括第一目標區域、第二目標區域,可以預先設置長度佔比為2:8,基於人物區域的長度D以及長度佔比2:8,得第一目標區域A4以及第二目標區域A5。
以上只是示例性地舉例說明,實際應用中也可以將人物區域劃分為四部分或更多的部分,長度佔比也可以根據實際需要進行調整,本申請實施例對此不作限定。
步驟S23,識別多個目標區域對應的多個寬度,確定第一目標寬度變化關係。
在本申請實施例中,將人物區域劃分為多個目標區域以後,測量或計算每個目標區域對應的寬度,在測量每個目標區域對應的寬度的過程中,可以沿著同一方向測量每個目標區域對應的寬度,獲取每個目標區域在該方向下對應的最寬的距離作為每個目標區域對應的寬度。
在一些示例中,可以將人物區域劃分為第一目標區域、第二目標區域以及第三目標區域,可以計算第一目標區域對應的寬度、第二目標區域對應的寬度以及第三目標區域對應的寬度,還可以利用圖像目標檢測演算法識別第一目標區域對應的寬度、第二目標區域對應的寬度以及第三目標區域對應的寬度,具體為:採用圖像目標檢測演算法獲取邊緣圖中相對應的輪廓線,該輪廓線對應多個輪廓值,利用歐幾裡距離計算圖像左側輪廓值與圖像右側輪廓值之間的距離。
圖5是本申請實施例提供的多個目標區域對應的多個寬度的示意圖。
如圖5所示,根據預設的長度佔比,例如2:5:3,將人物區域長度D劃分為第一目標區域A1、第二目標區域A2、以及第三目標區域A3以後,
可以在同一方向下測量第一目標區域A1對應的寬度、第二目標區域A2對應的寬度以及第三目標區域A3對應的寬度,得到寬度B1、B2以及B3。
根據得到的第一目標區域對應的寬度、第二目標區域對應的寬度以及第三目標區域對應的寬度,確定第一目標寬度變化關係。
具體地,在得到第一目標區域對應的寬度、第二目標區域對應的寬度以及第三目標區域對應的寬度以後,比較第一目標區域對應的寬度、第二目標區域對應的寬度以及第三目標區域對應的寬度的大小,將從第一目標區域對應的寬度至第三目標區域對應的寬度的大小變化關係作為第一目標寬度變化關係。
例如,在一些示例中,第一目標區域A1對應的寬度B1為2mm,第二目標區域A2對應的寬度B2為15mm,第三目標區域A3對應的寬度B3為7mm,即寬度的變化關係為2mm→15mm→7mm,即從第一小寬度變化至大寬度,再從大寬度變化至第二小寬度,其中,第一小寬度小於第二小寬度。
在另一些示例中,目標區域包括第一目標區域和第二目標區域,則第一目標寬度變化關係為從小寬度變化至大寬度。
以上只是示例性地,根據多個目標區域對應的寬度,可以得到多個目標區域對應的第一目標寬度變化關係。
步驟S24,在第一目標寬度變化關係與預設的標準寬度變化關係不匹配時,確定對人物的識別不完整。
在本申請實施例中,在將第一目標寬度變化關係與預設的標準變化關係進行比對之前,藉由對測試人員對應的測試圖片進行分析,建立標準變化關係。
具體地,可以獲取多個測試人員對應的多個測試圖像,每個測試人員的人體比例可以不同,利用實例分割模型,採用遮罩的方式確定測試圖像中的感興趣區域,即人體區域。對獲取到的人體區域進行劃分,基於人體比例,將包含測試人員頭部的區域作為第一人體區域,將不包含測試人員頭部的上半
身區域作為第二人體區域,將測試人員的下半身區域作為第三人體區域。
分別測量第一人體區域對應的寬度、第二人體區域對應的寬度以及第三人體區域對應的寬度,其中,測量每個區域的測量方向一致,並且選取每個測量區域最寬的距離作為相應的寬度。根據測量得到的第一人體區域對應的寬度、第二人體區域對應的寬度以及第三人體區域對應的寬度,確定標準寬度變化關係。
例如,在一些示例中,第一人體區域對應的寬度為2mm、第二人體區域對應的寬度為15mm、第三人體區域對應的寬度為7mm,則標準寬度變化關係為從第一人體區域對應的寬度變化至第二人體區域對應的寬度,再從第二人體區域對應的寬度變化至第三人體區域對應的寬度,其中,第一人體區域對應的寬度小於第二人體區域對應的寬度以及第三人體區域對應的寬度,第二人體區域對應的寬度大於第三人體區域對應的寬度,即,標準寬度變化關係為小大小的關係。
在另一些實施例中,可以將人體區域劃分為包含頭部的第一人體區域以及不包含頭部的第二人體區域,分別測量第一人體區域的寬度以及第二人體區域的寬度,根據測量得到的寬度,確定標準寬度變化關係。例如,第一人體區域對應的寬度2mm,第二人體區域對應的寬度為15mm,則標準寬度變化關係為從小寬度變化至大寬度的關係。
以上只是示例性地,可以根據實際的需要,將人體區域劃分為多個區域,根據多個區域的寬度,確定相應的標準寬度變化關係。
在確定標準變化關係以後,將第一目標寬度變化關係與標準變化關係進行比對。例如,人物區域對應的多個目標區域包括第一目標區域、第二目標區域以及第三目標區域,其中,第一目標區域對應的寬度大於或等於第二目標區域的對應的寬度,且第一目標區域對應的寬度大於第三目標區域對應的寬度,即第一目標寬度變化關係為從大寬度變化至小寬度,標準寬度變化關係為從小大小的關係,因此,第一目標寬度變化關係與標準變化關係不匹配,表明
人物區域不存在包含頭部對應的區域,確定對人物的識別不完整。如果第一目標區域對應的寬度小於第二目標區域對應的寬度,且第二目標區域對應的寬度大於第三目標區域的寬度,第一目標區域的寬度小於第三目標區域的寬度,第一目標寬度變化關係與標準變化關係匹配,表明人物區域存在包含頭部對應的區域,確定能完整的識別人物。
在一些具體的示例中,為了判斷識別到的人物區域的頭部區域是否完整,可以針對第一目標區域和第二目標區域進行分析,具體為:在判斷的過程中,第一目標區域小於第二目標區域,第一目標區域可以等於或小於第三目標區域,可以表明第一目標寬度變化關係與標準變化關係匹配。
在確定對人物區域識別不完整以後,可以對不完整的人物區域進行修復。
圖6是本申請實施例提供的對不完整的人物區域進行修改的流程圖,如圖6所示,包括以下步驟:
步驟S61,利用預設的深度學習演算法對人物區域進行修復,得到修復後的人物區域。
在本申請的實施例中,由於人物的圖元與周圍環境的圖元不一致,即人物的亮度資訊與周圍環境的亮度資訊不一致,可以利用預設的深度學習演算法對人物區域進行修復,具體地:藉由結合編碼-解碼(Encoder-Decoder)網路結構和生成對抗網路(Generative Adversarial Networks,GAN),利用L2損失函數(Reconstruction Loss)和對抗損失函數(Adversarial Loss)來修復圖像,Encoder-Decoder結構用來學習全域圖像特徵,全域圖像特徵包括顏色特徵、紋理特徵和形狀特徵,基於全域圖像特徵修復圖像的損失部分,GAN部分用來判斷推斷出的圖片和預先設置的標準圖片是否一致。
圖7是本申請實施例提供的修復後的人物區域的示意圖,如圖7所示,修復後的區域如圖7中的C部分。
步驟S62,根據修復後的人物區域的長度以及長度佔比,將修復後
的人物區域劃分為多個預期區域。
在本申請的實施例中,識別修復後的人物區域的長度,預先對修復後的人物區域的長度設置長度佔比,根據修復後的人物區域的長度以及長度佔比,可以將修復後的人物區域劃分為多個預期區域,例如,三個目標區域,則對應的長度佔比可以是2:5:3。
在一些示例中,多個預期區域包括第一預期區域、第二預期區域以及第三預期區域,根據預設的長度佔比對修復後的人物區域進行劃分,例如,長度佔比為2:5:3,即,第一預期區域的長度佔比小於第二預期區域的長度佔比以及第三預期區域的長度佔比,第二預期區域的長度佔比大於第三預期區域的長度佔比。
步驟S63,識別多個預期區域對應的多個寬度,確定第二目標寬度變化關係。
在本申請的實施例中,在將修復後的人物區域劃分為第一預期區域、第二預期區域以及第三預期區域以後,藉由測量或利用識別演算法,確定第一預期區域對應的寬度、第二預期區域對應的寬度以及第三預期區域對應的寬度。
比對第一預期區域的寬度、第二預期區域的寬度以及第三預期區域的寬度,確定第二目標寬度變化關係。
例如,在一些示例中,第一預期區域的寬度為2mm、第二預期區域的寬度為15mm、第三預期區域的寬度為7mm,則第二目標寬度變化關係為從小寬度變化至大寬度,再從大寬度變化至小寬度的關係。
步驟S64,比對第二目標寬度變化關係與標準寬度變化關係是否匹配。
為了判斷修復後的人物區域是否符合預期,將第二目標寬度變化關係與標準寬度變化關係進行比對,其中,標準寬度變化關係可以參照上述步驟S24,在此不再重複描述。
步驟S65,若第二目標寬度變化關係與標準寬度變化關係匹配,確定修復後的人物區域為人物的識別結果。
在本申請的實施例中,假設第一預期區域的寬度為2mm、第二預期區域的寬度為15mm、第三預期區域的寬度為7mm,即,第一預期區域的寬度小於第二預期區域的寬度,且第二預期區域的寬度大於第三預期區域的寬度,表明第二目標寬度變化關係與標準寬度變化關係匹配,保留對人物區域的修復,將修復後的人物區域作為對人物的識別結果。
步驟S66,若第二目標寬度變化關係與標準寬度變化關係不匹配,確定人物區域為人物的識別結果。
在本申請的實施例中,假設第一預期區域的寬度為15mm、第二預期區域的寬度為12mm、第三預期區域的寬度為7mm,即,第一預期區域的寬度大於第二預期區域的寬度,且第二預期區域的寬度大於第三預期區域的寬度,表明第二目標寬度變化關係與標準寬度變化關係不匹配,即對人物區域的修復不符合預期,不保留對人物區域的修復,將修復前的人物區域作為對人物的識別結果。其中,第一預期區域的寬度大於第二預期區域的寬度,假設第一預期區域是對人物頭部的修復,根據標準寬度關係,第一預期區域的寬度應小於第二預期區域的寬度,如果第一預期區域的寬度大於第二預期區域的寬度,表明修復後的人物區域不符合人體比例。
本申請能夠預先設置一個標準寬度變化關係,並對識別到的人物區域進行劃分以及獲取每個劃分區域的寬度變化,藉由與標準寬度變化關係進行比對,確定識別到的人物區域是否完整,提高了識別人物的精准度,避免出現人物區域抓取不完整的情況,當應用在車輛駕駛領域中時,可以提高識別行人的準確度,提高車輛行駛的安全性。
請繼續參閱圖1,本實施例中,所述儲存器11可以係電子設備1的內部儲存器,即內置於所述電子設備1的儲存器。在其他實施例中,所述儲存器11也可以係電子設備1的外部儲存器,即外接於所述電子設備1的儲存器。
在一些實施例中,所述儲存器11用於存儲程式碼和各種資料,並在電子設備1的運行過程中實現高速、自動地完成程式或資料的存取。
所述儲存器11可以包括隨機存取儲存器,還可以包括非易失性儲存器,例如硬碟、記憶體(Memory)、插接式硬碟、智慧存儲卡(Smart Media Card,SMC)、安全數位(Secure Digital,SD)卡、記憶卡(Flash Card)、至少一個磁碟儲存器件、快閃儲存器器件、或其他易失性固態儲存器件。
在一實施例中,所述處理器12可以係中央處理單元(Central Processing Unit,CPU),還可以係其他通用處理器、數位訊號處理器(Digital Signal Processor,DSP)、特殊應用積體電路(Application Specific Integrated Circuit,ASIC)、現場可程式設計閘陣列(Field-Programmable Gate Array,FPGA)或者其他可程式設計邏輯器件、分立門或者電晶體邏輯器件、分立硬體元件等。通用處理器可以係微處理器或者所述處理器也可以係其它任何常規的處理器等。
所述儲存器11中的程式碼和各種資料如果以軟體功能單元的形式實現並作為獨立的產品銷售或使用時,可以存儲在一個電腦可讀取存儲介質中。基於這樣的理解,本申請實現上述實施例方法中的全部或部分流程,例如人物識別方法,也可以藉由電腦程式來指令相關的硬體來完成,所述的電腦程式可存儲於電腦可讀存儲介質中,所述電腦程式在被處理器執行時,可實現上述各個方法實施例的步驟。其中,所述電腦程式包括電腦程式代碼,所述電腦程式代碼可以為原始程式碼形式、物件代碼形式、可執行檔或某些中間形式等。所述電腦可讀介質可以包括:能夠攜帶所述電腦程式代碼的任何實體或裝置、記錄介質、隨身碟、移動硬碟、磁碟、光碟、電腦儲存器、唯讀儲存器(ROM,Read-Only Memory)等。
可以理解的係,以上所描述的模組劃分,為一種邏輯功能劃分,實際實現時可以有另外的劃分方式。另外,在本申請各個實施例中的各功能模組可以集成在相同處理單元中,也可以係各個模組單獨物理存在,也可以兩個或兩個以上模組集成在相同單元中。上述集成的模組既可以採用硬體的形式實現,
也可以採用硬體加軟體功能模組的形式實現。
最後應說明的係,以上實施例僅用以說明本申請的技術方案而非限制,儘管參照較佳實施例對本申請進行了詳細說明,本領域的普通技術人員應當理解,可以對本申請的技術方案進行修改或等同替換,而不脫離本申請技術方案的精神和範圍。
S21~S24:步驟
Claims (8)
- 一種人物識別方法,其中,該方法包括:從獲取的圖像中識別每個人物對應的人物區域;根據所述人物區域的長度與預設的長度佔比,將所述人物區域劃分為多個目標區域,所述多個目標區域包括第一目標區域、第二目標區域以及第三目標區域,包括:識別所述人物區域的長度;基於所述人物區域的長度與預設的長度佔比,將所述人物區域劃分為所述第一目標區域、所述第二目標區域以及所述第三目標區域,其中,所述第一目標區域的長度佔比小於所述第二目標區域以及所述第三目標區域,所述第二目標區域的長度佔比大於所述第三目標區域;識別所述多個目標區域對應的多個寬度,確定第一目標寬度變化關係;在所述第一目標寬度變化關係與預設的標準寬度變化關係不匹配時,確定對所述人物的識別不完整,包括:識別所述第一目標區域對應的寬度、所述第二目標區域對應的寬度以及所述第三目標區域對應的寬度;若所述第一目標區域對應的寬度大於或等於所述第二目標區域對應的寬度,且所述第一目標區域對應的寬度大於所述第三目標區域對應的寬度,確定所述第一目標寬度變化關係與所述標準寬度變化關係不匹配。
- 如請求項1所述的人物識別方法,其中,在所述確定所述人物區域不完整以後,所述方法還包括:利用預設的深度學習演算法對所述人物區域進行修復,得到修復後的人物區域;根據所述修復後的人物區域的長度以及所述長度佔比,將所述修復後的人物區域劃分為多個預期區域;識別所述多個預期區域對應的多個寬度,確定第二目標寬度變化關係;若所述第二目標寬度變化關係與所述標準寬度變化關係匹配,確定所述修復後的人物區域為所述人物的識別結果;若所述第二目標寬度變化關係與所述標準寬度變化關係不匹配,確定所述人 物區域為所述人物的識別結果。
- 如請求項1所述的人物識別方法,其中,所述標準寬度變化關係,包括:獲取多個測試人員對應的多個測試圖像;將所述多個測試圖像輸入預設的識別模型,得到所述多個測試圖像中所述測試人員的人體區域;對所述人體區域進行劃分,將包含所述測試人員頭部的區域作為第一人體區域,將不包含所述測試人員頭部的上半身區域作為第二人體區域、將所述測試人員的下半身區域作為第三人體區域;獲取所述第一人體區域對應的寬度、所述第二人體區域對應的寬度以及所述第三人體區域對應的寬度;基於所述第一人體區域對應的寬度、所述第二人體區域對應的寬度以及所述第三人體區域對應的寬度,確定所述標準寬度變化關係。
- 如請求項3所述的人物識別方法,其中,所述第一人體區域對應的寬度小於所述第二人體區域對應的寬度和所述第三人體區域對應的寬度;所述第二人體區域對應的寬度大於所述第三人體區域對應的寬度。
- 如請求項2所述的人物識別方法,其中,所述多個預期區域包括第一預期區域、第二預期區域以及第三預期區域,所述根據所述修復後的人物區域的長度以及所述長度佔比,將所述修復後的人物區域劃分為多個預期區域,包括:識別所述修復後的人物區域的長度;基於所述修復後的人物區域的長度以及所述預設的長度佔比,將所述修復後的人物區域劃分為所述第一預期區域、所述第二預期區域以及所述第三預期區域,其中,所述第一預期區域的長度佔比小於所述第二預期區域以及所述第三預期區域,所述第二預期區域的長度佔比大於所述第三預期區域。
- 如請求項5所述的人物識別方法,其中,所述確定所述修復後 的人物區域為所述人物的識別結果,包括:識別所述第一預期區域對應的寬度、所述第二預期區域對應的寬度以及所述第三預期區域對應的寬度;若所述第一預期區域對應的寬度小於所述第二預期區域對應的寬度,且所述第二預期區域的寬度大於所述第三預期區域的寬度,確定所述第二目標寬度變化關係與所述標準寬度變化關係匹配。
- 一種電子設備,其中,所述電子設備包括處理器和儲存器,所述處理器用於執行儲存器中存儲的電腦程式以實現如請求項1至6中任意一項所述的人物識別方法。
- 一種電腦可讀存儲介質,其中,所述電腦可讀存儲介質存儲有至少一個指令,所述至少一個指令被處理器執行時實現如請求項1至6中任意一項所述的人物識別方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111147520A TWI845060B (zh) | 2022-12-10 | 2022-12-10 | 人物識別方法及相關設備 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW111147520A TWI845060B (zh) | 2022-12-10 | 2022-12-10 | 人物識別方法及相關設備 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI845060B true TWI845060B (zh) | 2024-06-11 |
TW202424784A TW202424784A (zh) | 2024-06-16 |
Family
ID=92539783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111147520A TWI845060B (zh) | 2022-12-10 | 2022-12-10 | 人物識別方法及相關設備 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI845060B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751454A (zh) * | 2015-03-11 | 2015-07-01 | 百度在线网络技术(北京)有限公司 | 一种用于确定图像中的人物轮廓的方法和装置 |
US20160364634A1 (en) * | 2011-08-30 | 2016-12-15 | Digimarc Corporation | Methods and arrangements for identifying objects |
TWI648985B (zh) * | 2017-01-25 | 2019-01-21 | 和碩聯合科技股份有限公司 | 視訊成像方法及其電子裝置 |
-
2022
- 2022-12-10 TW TW111147520A patent/TWI845060B/zh active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160364634A1 (en) * | 2011-08-30 | 2016-12-15 | Digimarc Corporation | Methods and arrangements for identifying objects |
CN104751454A (zh) * | 2015-03-11 | 2015-07-01 | 百度在线网络技术(北京)有限公司 | 一种用于确定图像中的人物轮廓的方法和装置 |
TWI648985B (zh) * | 2017-01-25 | 2019-01-21 | 和碩聯合科技股份有限公司 | 視訊成像方法及其電子裝置 |
Also Published As
Publication number | Publication date |
---|---|
TW202424784A (zh) | 2024-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934115B (zh) | 人脸识别模型的构建方法、人脸识别方法及电子设备 | |
WO2018188453A1 (zh) | 人脸区域的确定方法、存储介质、计算机设备 | |
CN109583483B (zh) | 一种基于卷积神经网络的目标检测方法和系统 | |
WO2021051601A1 (zh) | 利用Mask R-CNN选择检测框的方法及系统、电子装置及存储介质 | |
JP6688277B2 (ja) | プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置 | |
CN109871845B (zh) | 证件图像提取方法及终端设备 | |
WO2021017283A1 (zh) | 基于离线型的在线跟踪方法、装置、计算机设备及存储介质 | |
CN109241890B (zh) | 面部图像校正方法、装置及存储介质 | |
CN111666800A (zh) | 一种行人重识别模型训练方法及行人重识别方法 | |
CN112101185B (zh) | 一种训练皱纹检测模型的方法、电子设备及存储介质 | |
CN112836653A (zh) | 人脸隐私化方法、设备、装置及计算机存储介质 | |
Milford et al. | Long exposure localization in darkness using consumer cameras | |
WO2021258955A1 (zh) | 目标图像中的对象轮廓的标注方法及装置、存储介质和电子装置 | |
TWI845060B (zh) | 人物識別方法及相關設備 | |
CN113012030A (zh) | 图像拼接方法、装置及设备 | |
CN112541436B (zh) | 专注度分析方法、装置、电子设备及计算机存储介质 | |
CN114038045A (zh) | 一种跨模态人脸识别模型构建方法、装置及电子设备 | |
CN110751163A (zh) | 目标定位方法及其装置、计算机可读存储介质和电子设备 | |
CN113327212A (zh) | 人脸驱动、模型的训练方法、装置、电子设备及存储介质 | |
CN113139072A (zh) | 数据标注方法、装置和电子设备 | |
CN118172750A (zh) | 人物识别方法及相关设备 | |
TWI832302B (zh) | 深度圖像獲取方法、電子設備及電腦可讀存儲媒體 | |
TWI807904B (zh) | 深度識別模型訓練方法、圖像深度識別方法及相關設備 | |
CN113095347A (zh) | 基于深度学习的标记识别方法和训练方法及其系统和电子设备 | |
CN112699759B (zh) | 一种训练性别识别模型的方法及相关装置 |