TWI808438B - 影像修飾方法與影像修飾裝置 - Google Patents

影像修飾方法與影像修飾裝置 Download PDF

Info

Publication number
TWI808438B
TWI808438B TW110123209A TW110123209A TWI808438B TW I808438 B TWI808438 B TW I808438B TW 110123209 A TW110123209 A TW 110123209A TW 110123209 A TW110123209 A TW 110123209A TW I808438 B TWI808438 B TW I808438B
Authority
TW
Taiwan
Prior art keywords
image
area
detector
image area
substitute
Prior art date
Application number
TW110123209A
Other languages
English (en)
Other versions
TW202301264A (zh
Inventor
陳柏森
蔣佳良
游清皓
高才虔
鍾權岳
鄭道華
Original Assignee
和碩聯合科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 和碩聯合科技股份有限公司 filed Critical 和碩聯合科技股份有限公司
Priority to TW110123209A priority Critical patent/TWI808438B/zh
Priority to US17/727,671 priority patent/US20220415081A1/en
Publication of TW202301264A publication Critical patent/TW202301264A/zh
Application granted granted Critical
Publication of TWI808438B publication Critical patent/TWI808438B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

一種影像修飾方法與影像修飾裝置。所述方法包括:獲得第一影像;經由至少一影像偵測器偵測所述第一影像中的第一影像區域及包含於所述第一影像區域內的第二影像區域,其中該第二影像區域包括該第一影像區域中呈現一目標顏色的影像區域;以及基於所述第二影像區域與所述第一影像區域的面積比值高於預設值,在所述第一影像區域上覆蓋替代影像並產生第二影像。

Description

影像修飾方法與影像修飾裝置
本揭示是有關於一種影像修飾技術,且特別是有關於一種影像修飾方法與影像修飾裝置。
隨著科技的進步以及人們生活習慣改變,遠距教學與線上會議等經由遠端視訊連線來完成人與人之間的聯繫的生活模式也越來越普及。但是,在進行遠端視訊時,使用者有可能因為平常在家的穿著過於休閒、裸露或沒注意到攝影鏡頭已經開啟,而導致包含使用者的身體之裸露畫面的不雅影像直接藉由遠端視訊播出,進而造成使用上的困擾。
本揭示提供一種影像修飾方法與影像修飾裝置,可有效減少不雅影像遭意外播出的情形。
本揭示的實施例提供一種影像修飾方法,其包括:獲得第一影像;經由至少一影像偵測器偵測所述第一影像中的第一影像區域及包含於所述第一影像區域內的第二影像區域,其中所述第二影像區域包括所述第一影像區域中呈現目標顏色的影像區域;以及基於所述第二影像區域與所述第一影像區域的面積比值高於預設值,在所述第一影像區域上覆蓋替代影像並產生第二影像。
本揭示的實施例另提供一種影像修飾裝置,其包括儲存電路與處理器。所述儲存電路用以儲存第一影像及第二影像並包含至少一影像偵測器。所述至少一影像偵測器用以偵測所述第一影像中的一第一影像區域及包含於所述第一影像區域內的一第二影像區域,其中所述第二影像區域包括所述第一影像區域中呈現一目標顏色的影像區域。所述處理器耦接至所述儲存電路並用以基於所述第二影像區域與所述第一影像區域的面積比值高於預設值,在所述第一影像區域上覆蓋替代影像並產生所述第二影像。
基於上述,在獲得第一影像後,可經由至少一影像偵測器偵測所述第一影像中的第一影像區域及具有目標顏色的第二影像區域。接著,可根據所述第二影像區域與所述第一影像區域的面積比值判斷第一影像中具有目標顏色的區域是否過大,若過大則判斷為不雅畫面,並在所述第一影像區域上覆蓋替代影像以產生第二影像。藉此,可有效減少不雅影像遭意外播出的情形。
圖1A是根據本揭示的一實施例所繪示的影像修飾裝置的示意圖。請參照圖1A,影像修飾裝置10可包括智慧型手機、筆記型電腦、桌上型電腦、平板電腦或遊戲機等各式視訊裝置或搭配視訊裝置使用的電腦裝置。
影像修飾裝置10包括處理器11、儲存電路12及輸入/輸出介面13。處理器11用以負責影像修飾裝置10的整體或部分運作。例如,處理器11可包括中央處理單元(CPU)或是其他可程式化之一般用途或特殊用途的微處理器、數位訊號處理器(Digital Signal Processor, DSP)、可程式化控制器、特殊應用積體電路(Application Specific Integrated Circuits, ASIC)、可程式化邏輯裝置(Programmable Logic Device, PLD)或其他類似裝置或這些裝置的組合。
儲存電路12耦接至處理器11並用以儲存資料。例如,儲存電路12可包括揮發性儲存電路與非揮發性儲存電路。揮發性儲存電路用以揮發性地儲存資料。例如,揮發性儲存電路可包括隨機存取記憶體(Random Access Memory, RAM)或類似的揮發性儲存媒體。非揮發性儲存電路用以非揮發性地儲存資料。例如,非揮發性儲存電路可包括唯讀記憶體(Read Only Memory, ROM)、固態硬碟(solid state disk, SSD)及/或傳統硬碟(Hard disk drive, HDD)或類似的非揮發性儲存媒體。
輸入/輸出介面13耦接至處理器11並用以執行訊號的輸入與輸出。例如,輸入/輸出介面13可包括網路介面卡、顯示器、滑鼠、鍵盤、觸控板、觸控螢幕、揚聲器、麥克風、及/或攝影模組等各式輸入/輸出裝置。本揭示不限制所述輸入/輸出裝置的類型。
在一實施例中,處理器11可獲得影像(亦稱為第一影像)101並將影像101儲存於儲存電路12。在一實施例中,影像101可經由輸入/輸出介面13中的攝影模組(包含鏡頭與感光元件)經由拍攝外部影像而獲得。或者,在一實施例中,影像101亦可以是從其他電子裝置或伺服器下載而獲得。
在一實施例中,處理器11可執行儲存電路12中的影像偵測器121以分析影像101。例如,影像偵測器121可包括深度學習模型及/或神經網路模型。所述深度學習模型及/或神經網路模型可經由訓練而提高對於特定物件的偵測效率(例如偵測準確度)。在一實施例中,處理器11可經由影像偵測器121偵測影像101中的至少一影像區域(亦稱為第一影像區域)及包含於第一影像區域內的特定影像區域(亦稱為第二影像區域)。
詳細來說,處理器11可執行影像偵測器121以偵測影像101中的特定物件(即第一影像區域與第二影像區域)。影像偵測器121可將對所述特定物件的偵測結果回饋給處理器11。
在一實施例中,處理器11可執行儲存電路12中的修飾模組122以對影像101進行影像修飾。在一實施例中,處理器11可基於影像偵測器121所測得的第二影像區域與第一影像區域的面積比值,經由修飾模組122在第一影像區域上覆蓋一個替代影像並產生影像102。藉此,在影像102中,第一影像區域中的至少部分影像可受所述替代影像遮蔽(即覆蓋)。影像102可被儲存於儲存電路12並可經由輸入/輸出介面13(例如顯示器及/或網路介面卡)輸出。
在一實施例中,第一影像區域包括影像101中呈現特定的人體部位(亦稱為目標人體部位)的影像區域。在一實施例中,目標人體部位可包括一般認為是人體的性器官所在的部位或其周圍。例如,目標人體部位可包括人體的胸部、胯下及臀部的至少其中之一。在其他實施例中,目標人體部位也可包括人體中任何未用服飾遮蔽時會導致觀看者不舒服或不悅的人體部位,例如人體的大腿或小腿,本揭示不加以限制。
在一實施例中,第二影像區域包括第一影像區域中呈現特定顏色(亦稱為目標顏色)的至少部分影像區域。例如,目標顏色可包括影像101中呈現的人體的膚色。隨著使用者的人種、皮膚狀態及/或環境燈光不同,所述目標顏色也可能隨之改變。在一實施例中,處理器11可根據影像101中的人臉的顏色(即膚色)來決定所述目標顏色。
圖1B是根據本揭示的一實施例所繪示的根據第一影像產生第二影像的示意圖。請參照圖1B,在一實施例中,圖1A的影像偵測器121包括影像偵測器121a(亦稱為第一影像偵測器)與影像偵測器121b(亦稱為第二影像偵測器)。影像101可經由不同的通道輸入至影像偵測器121a與121b。
在將影像101輸入至影像偵測器121a後,影像偵測器121a可分析101影像以偵測影像101中的第一影像區域,例如,偵測影像101中呈現所述目標人體部位的影像區域。在一實施例中,影像偵測器121a可對影像101中呈現所述目標人體部位的影像區域進行框選。經影像偵測器121a框選的影像區域即為所述第一影像區域。
另一方面,在將影像101輸入至影像偵測器121b後,影像偵測器121b可分析影像101以偵測影像101中包含於第一影像區域內的第二影像區域,例如,偵測影像101中呈現所述目標顏色的影像區域。
須注意的是,在另一實施例中,影像偵測器121b的輸入亦可以是串接於影像偵測器121a的輸出。藉此,在影像偵測器121a測得影像101中的第一影像區域後,影像偵測器121b可以影像偵測器121a所偵測的第一影像區域為基礎,進一步在第一影像區域中偵測第二影像區域。
於一實施例中,影像偵測器121a及影像偵測器121b包括深度學習模型及/或神經網路模型。詳細來說,影像偵測器121a可以藉由大量的第一樣本影像來訓練,以使得訓練好的影像偵測器121a具有在影像101中偵測第一影像區域的能力,其中第一樣本影像每一者包含已標記為目標人體部位的第一影像區域。而影像偵測器121b可以藉由大量的第二樣本影像來訓練,以使得訓練好的影像偵測器121b具有在影像101中偵測第二影像區域的能力,其中第二樣本影像每一者包含已標記為目標顏色的第二影像區域。
在測得第一影像區域與第二影像區域後,處理器11可執行儲存電路12的修飾模組122以分析第二影像區域與第一影像區域的面積比值。處理器11可基於此面積比值在第一影像區域上覆蓋替代影像以對影像101進行修飾,並產生影像102。
在一實施例中,修飾模組122可根據第二影像區域與第一影像區域的面積比值是否大於一預設值來決定是否對影像101進行修飾(例如在第一影像區域上覆蓋替代影像)。在一實施例中,修飾模組122可根據影像偵測器121a的輸出獲得第一影像區域的面積並根據影像偵測器121b的輸出獲得第二影像區域的面積。修飾模組122可判斷第二影像區域的面積在第一影像區域的面積中的佔比是否高於一預設值。此預設值可為20%~100%等不大於1的正值。若第二影像區域的面積在第一影像區域的面積中的佔比高於所述預設值,也就是說,膚色在第一影像區域中占的面積太大,可能存在不雅影像,因此,修飾模組122可對影像101進行修飾(即在第一影像區域上覆蓋替代影像),以取代可能存在的不雅影像。然而,若第二影像區域的面積在第一影像區域的面積中的佔比不高於所述預設值,修飾模組122可不對影像101進行修飾。
請回到圖1,在一實施例中,處理器11還可運行儲存電路12中的人臉偵測器123以對影像101進行人臉偵測或人臉辨識。在一實施例中,處理器11可經由人臉偵測器123偵測影像101中的人臉。處理器11可根據所述人臉的顏色決定所述目標顏色。藉此,用於偵測所述第二影像區域的目標顏色可根據當前的影像101而被即時及/或動態決定。
圖1C是根據本揭示的一實施例所繪示的根據第一影像產生第二影像的示意圖。請參照圖1C,在一實施例中,影像101亦可被輸入至人臉偵測器123。人臉偵測器123可分析影像101以經由人臉偵測技術或臉部辨識技術來偵測影像101中呈現的人臉。根據人臉偵測器123所偵測到的人臉,影像偵測器121b可根據影像101中人臉所在的影像區域的(主要)顏色(即影像101中人臉的顏色)來設定所述目標顏色。根據所述目標顏色,影像偵測器121b可偵測影像101中的第二影像區域。
在一實施例中,處理器11可根據人臉偵測器123所測得的影像101中人臉的顏色(即膚色),從多個候選模型中選擇至少一影像偵測模型(亦稱為目標模型)供影像偵測器121a及/或121b使用。藉此,響應於使用者的人種、皮膚狀態及/或環境燈光不同,影像偵測器121a及/或121b可動態採用最合適的影像偵測模型,以提高對於第一影像區域及/或第二影像區域的偵測效率。
在一實施例中,經由修飾影像101而產生的影像102可包括本地影像與遠端影像。本地影像可經由輸入/輸出介面13中的顯示器呈現。遠端影像可經由輸入/輸出介面13中的網路介面卡傳送至遠端裝置。在一實施例中,在所述本地影像中,處理器11可經由所述替代影像呈現警示訊息,以警示或提醒使用者原始影像101中存在不雅影像且部分影像已被遮蔽或覆蓋。在所述遠端影像中,處理器11可經由所述替代影像呈現替代服裝。此替代服裝之影像可用以遮蔽原始影像101中的部分影像,即第一影像區域中的部分影像。
圖2是根據本揭示的一實施例所繪示的使用者操作影像修飾裝置的示意圖。請參照圖2,假設使用者(亦稱為本地使用者)20處於影像修飾裝置10的鏡頭21前方。鏡頭21可包含於圖1的輸入/輸出裝置13中,以擷取使用者20的影像(即第一影像)。須注意的是,雖然圖2的實施例是以筆記型電腦作為影像修飾裝置10的範例,然而,在其他實施例中,影像修飾裝置10還可以是智慧型手機、桌上型電腦、平板電腦或遊戲機等各式視訊裝置或搭配視訊裝置使用的電腦裝置,本揭示不加以限制。
圖3是根據本揭示的一實施例所繪示的第一影像的示意圖。請參照圖3,接續於圖2的實施例,假設圖1的影像101(即第一影像)包括影像301。影像301可呈現使用者影像30。
圖4是根據本揭示的一實施例所繪示的第一影像區域與第二影像區域的示意圖。請參照圖4,接續於圖3的實施例,影像301中的影像區域41(即第一影像區域)及影像區域42(即第二影像區域)可被偵測。例如,影像區域41可涵蓋使用者影像30中的胯下,即目標人體部位的影像範圍。此外,影像區域42可包括影像區域421與422,即使用者影像30中裸露的大腿及/或小腿之影像區域。影像區域421與422可涵蓋影像區域41中呈現為膚色(即目標顏色)的影像區域。
圖5是根據本揭示的一實施例所繪示的第二影像的示意圖。請參照圖5,接續於圖4的實施例,根據影像區域42與41的面積比值(例如影像區域42的面積在影像區域41的面積中的佔比大於預設值),替代影像51可被覆蓋於影像區域41上,以對原始影像301進行不雅影像的修飾。例如,在使用替代影像51覆蓋至少部分的影像區域41後,原始影像301中的不雅部位或裸露部位可被遮擋。例如,替代影像51可呈現用以遮擋不雅影像的替代服裝。影像401(即第二影像)可根據修飾後的影像301產生。在一實施例中,影像401可作為遠端影像而傳送至遠端裝置進行顯示。此外,在一實施例中,影像401也可作為本地影像而由影像修飾裝置10的顯示器呈現。
圖6是根據本揭示的一實施例所繪示的視訊介面的示意圖。請參照圖6,接續於圖5的實施例,在執行遠端視訊時,視訊介面61可呈現於影像修飾裝置10的顯示器及/或遠端裝置的顯示器。視訊介面61中可呈現使用者影像30、60a及60b。使用者影像30為圖2的使用者20之影像。使用者影像60a及60b為多個遠端使用者的影像。相較於原始影像301,將經修飾的影像401呈現於視訊介面61中,可避免包含使用者的身體之裸露畫面的不雅影像直接藉由遠端視訊播出。
圖7是根據本揭示的一實施例所繪示的第二影像的示意圖。請參照圖7,接續於圖4的實施例,影像701可包含於第二影像中並可作為本地影像。根據影像區域42與41的面積比值(例如影像區域42的面積在影像區域41的面積中的佔比大於預設值),替代影像71可被覆蓋於影像區域41上。須注意的是,相較於圖5與6的替代影像51,替代影像71中可呈現警示訊息。此警示訊息可用以警示或提醒本地使用者,原始影像101中存在不雅影像且部分影像已被遮蔽或覆蓋。
圖8是根據本揭示的一實施例所繪示的影像修飾方法的流程圖。請參照圖8,在步驟S801中,獲得第一影像。在步驟S802中,經由至少一影像偵測器偵測所述第一影像中的第一影像區域及包含於所述第一影像區域內的第二影像區域。在步驟S803中,基於所述第二影像區域與所述第一影像區域的面積比值的面積比值高於預設值,在所述第一影像區域上覆蓋替代影像並產生第二影像。
圖9是根據本揭示的一實施例所繪示的影像修飾方法的流程圖。請參照圖9,在步驟S901中,獲得第一影像。在步驟S902中,經由人臉偵測器偵測所述第一影像中呈現的人臉。在步驟S903中,根據所述人臉的顏色從多個候選模型中選擇至少一目標模型。在步驟S904中,經由第一影像偵測器分析所述第一影像以偵測所述第一影像中的第一影像區域。在步驟S905中,經由第二影像偵測器分析所述第一影像以偵測所述第一影像中包含於所述第一影像區域內的第二影像區域。
在步驟S906中,判斷所述第二影像區域的面積在所述第一影像區域的面積中的佔比是否高於預設值。若是,在步驟S907中,在所述第一影像區域上覆蓋替代影像並產生第二影像。藉此,在第二影像中,第一影像區域中的至少部分影像可受所述替代影像遮蔽(即覆蓋)。此外,若步驟S906判斷為否,則可回到步驟S901。
然而,圖9中各步驟已詳細說明如上,在此便不再贅述。值得注意的是,圖9中各步驟可以實作為多個程式碼或是電路,本揭示不加以限制。此外,圖9的方法可以搭配以上範例實施例使用,也可以單獨使用,本揭示不加以限制。
綜上所述,本揭示所提出的範例實施例可動態偵測(視訊)影像中是否存在不雅影像。若存在不雅影像時,可即時使用替代影像來加以遮蔽。藉此,可有效減少不雅影像遭意外播出的情形。
雖然本揭示已以實施例揭露如上,然其並非用以限定本揭示,任何所屬技術領域中具有通常知識者,在不脫離本揭示的精神和範圍內,當可作些許的更動與潤飾,故本揭示的保護範圍當視後附的申請專利範圍所界定者為準。
10:影像修飾裝置 11:處理器 12:儲存電路 13:輸入/輸出介面 101、102、301、401、701:影像 121、121a、121b:影像偵測器 122:修飾模組 123:人臉偵測器 20:使用者 21:鏡頭 30、60a、60b:使用者影像 41、42、421、422:影像區域 51、71:替代影像 61:視訊介面 S801~S803、S901~S907:步驟
圖1A是根據本揭示的一實施例所繪示的影像修飾裝置的示意圖。 圖1B是根據本揭示的一實施例所繪示的根據第一影像產生第二影像的示意圖。 圖1C是根據本揭示的一實施例所繪示的根據第一影像產生第二影像的示意圖。 圖2是根據本揭示的一實施例所繪示的使用者操作影像修飾裝置的示意圖。 圖3是根據本揭示的一實施例所繪示的第一影像的示意圖。 圖4是根據本揭示的一實施例所繪示的第一影像區域與第二影像區域的示意圖。 圖5是根據本揭示的一實施例所繪示的第二影像的示意圖。 圖6是根據本揭示的一實施例所繪示的視訊介面的示意圖。 圖7是根據本揭示的一實施例所繪示的第二影像的示意圖。 圖8是根據本揭示的一實施例所繪示的影像修飾方法的流程圖。 圖9是根據本揭示的一實施例所繪示的影像修飾方法的流程圖。
S801~S803:步驟

Claims (16)

  1. 一種影像修飾方法,包括:獲得一第一影像;經由至少一影像偵測器偵測該第一影像中的一第一影像區域及包含於該第一影像區域內的一第二影像區域,其中該第二影像區域為呈現一目標顏色的影像區域;以及響應於該第二影像區域與該第一影像區域的一面積比值高於一預設值,在該第一影像區域上覆蓋一替代影像並產生一第二影像。
  2. 如請求項1所述的影像修飾方法,其中該第一影像區域包括該第一影像中呈現一目標人體部位的影像區域。
  3. 如請求項2所述的影像修飾方法,其中該目標人體部位包括人體的胸部、胯下及臀部的至少其中之一。
  4. 如請求項1所述的影像修飾方法,其中該目標顏色包括該第一影像中呈現的一人體的膚色。
  5. 如請求項1所述的影像修飾方法,其中偵測該第一影像中的該第一影像區域及包含於該第一影像區域內的該第二影像區域的步驟包括:偵測該第一影像中呈現的一人臉;以及根據該人臉的顏色,決定該目標顏色。
  6. 如請求項1所述的影像修飾方法,其中該至少一影像偵測器包括一第一影像偵測器與一第二影像偵測器,且經由該至 少一影像偵測器偵測該第一影像中的該第一影像區域及包含於該第一影像區域內的該第二影像區域的步驟包括:經由該第一影像偵測器偵測該第一影像中的該第一影像區域;以及經由該第二影像偵測器偵測該第一影像中包含於該第一影像區域內的該第二影像區域。
  7. 如請求項1所述的影像修飾方法,其中該第二影像包括一本地影像與一遠端影像,且該影像修飾方法更包括:在該本地影像中,經由該替代影像呈現一警示訊息;以及在該遠端影像中,經由該替代影像呈現一替代服裝。
  8. 一種影像修飾裝置,包括:一儲存電路,用以儲存一第一影像與一第二影像,並包括至少一影像偵測器;以及一處理器,耦接至該儲存電路,並用以:執行該至少一影像偵測器偵測該第一影像中的一第一影像區域及包含於該第一影像區域內的一第二影像區域,其中該第二影像區域為呈現一目標顏色的影像區域;以及響應於該第二影像區域與該第一影像區域的一面積比值高於一預設值,在該第一影像區域上覆蓋一替代影像並產生該第二影像。
  9. 如請求項8所述的影像修飾裝置,其中該至少一影像偵測器包含一深度學習模型或一神經網路模型。
  10. 如請求項8所述的影像修飾裝置,其中該第一影像區域包括該第一影像中呈現一目標人體部位的影像區域。
  11. 如請求項10所述的影像修飾裝置,其中該目標人體部位包括人體的胸部、胯下及臀部的至少其中之一。
  12. 如請求項8所述的影像修飾裝置,其中該目標顏色包括該第一影像中呈現的一人體的膚色。
  13. 如請求項8所述的影像修飾裝置,其中該處理器更用以:執行該至少一影像偵測器偵測該第一影像中呈現的一人臉;以及根據該人臉的顏色,決定該目標顏色。
  14. 如請求項8所述的影像修飾裝置,其中該至少一影像偵測器包括一第一影像偵測器與一第二影像偵測器,且該處理器執行該至少一影像偵測器偵測該第一影像中的該第一影像區域及包含於該第一影像區域內的該第二影像區域的操作包括:執行該第一影像偵測器偵測該第一影像中的該第一影像區域;以及執行該第二影像偵測器偵測該第一影像中的該第二影像區域。
  15. 如請求項8所述的影像修飾裝置,其中該儲存電路更用以儲存複數個候選模型,並包含一人臉偵測器,該處理器更用以:執行該人臉偵測器偵測該第一影像中呈現的一人臉;以及 根據該人臉的顏色從該些候選模型中選擇至少一目標模型供該至少一影像偵測器使用。
  16. 如請求項8所述的影像修飾裝置,其中該第二影像包括一本地影像與一遠端影像,且該處理器更用以:在該本地影像中,經由該替代影像呈現一警示訊息;以及在該遠端影像中,經由該替代影像呈現一替代服裝。
TW110123209A 2021-06-24 2021-06-24 影像修飾方法與影像修飾裝置 TWI808438B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW110123209A TWI808438B (zh) 2021-06-24 2021-06-24 影像修飾方法與影像修飾裝置
US17/727,671 US20220415081A1 (en) 2021-06-24 2022-04-22 Image modification method and image modification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW110123209A TWI808438B (zh) 2021-06-24 2021-06-24 影像修飾方法與影像修飾裝置

Publications (2)

Publication Number Publication Date
TW202301264A TW202301264A (zh) 2023-01-01
TWI808438B true TWI808438B (zh) 2023-07-11

Family

ID=84542403

Family Applications (1)

Application Number Title Priority Date Filing Date
TW110123209A TWI808438B (zh) 2021-06-24 2021-06-24 影像修飾方法與影像修飾裝置

Country Status (2)

Country Link
US (1) US20220415081A1 (zh)
TW (1) TWI808438B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8982110B2 (en) * 2005-03-01 2015-03-17 Eyesmatch Ltd Method for image transformation, augmented reality, and teleperence
CN107590443A (zh) * 2017-08-23 2018-01-16 上海交通大学 基于深度残差学习的限制级直播视频自动检测方法与系统
CN108510594A (zh) * 2018-02-27 2018-09-07 吉林省行氏动漫科技有限公司 虚拟试衣方法、装置及终端设备
TWI646438B (zh) * 2017-04-25 2019-01-01 元智大學 情緒偵測系統及方法
CN111031348A (zh) * 2019-12-11 2020-04-17 浙江宇视科技有限公司 一种视频加扰方法、装置、服务器和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8982110B2 (en) * 2005-03-01 2015-03-17 Eyesmatch Ltd Method for image transformation, augmented reality, and teleperence
TWI646438B (zh) * 2017-04-25 2019-01-01 元智大學 情緒偵測系統及方法
CN107590443A (zh) * 2017-08-23 2018-01-16 上海交通大学 基于深度残差学习的限制级直播视频自动检测方法与系统
CN108510594A (zh) * 2018-02-27 2018-09-07 吉林省行氏动漫科技有限公司 虚拟试衣方法、装置及终端设备
CN111031348A (zh) * 2019-12-11 2020-04-17 浙江宇视科技有限公司 一种视频加扰方法、装置、服务器和存储介质

Also Published As

Publication number Publication date
TW202301264A (zh) 2023-01-01
US20220415081A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
EP3352438B1 (en) User terminal device for recommending response message and method therefor
KR101730759B1 (ko) 의도를 통한 증강 현실에서의 가상 객체의 조작
CN109040824A (zh) 视频处理方法、装置、电子设备和可读存储介质
WO2019091412A1 (zh) 拍摄图像的方法、装置、终端和存储介质
WO2017092289A1 (zh) 图像处理方法及装置
CN112752158B (zh) 一种视频展示的方法、装置、电子设备及存储介质
US11122217B2 (en) Method and system for automatically adding effect while recording
WO2014074959A1 (en) Real-time face detection using pixel pairs
JP2023511807A (ja) 人工現実における物理環境のリアルタイムの視覚化を自動的にトリガーするためのシステム、方法、およびメディア
CN109948525A (zh) 拍照处理方法、装置、移动终端以及存储介质
US10216381B2 (en) Image capture
CN112235635B (zh) 动画显示方法、装置、电子设备及存储介质
CN108683845A (zh) 图像处理方法、装置、存储介质及移动终端
TWI808438B (zh) 影像修飾方法與影像修飾裝置
CN107155000B (zh) 一种拍照行为分析方法、装置及移动终端
CN110955580B (zh) 壳体温度的获取方法、装置、存储介质和电子设备
US20170278377A1 (en) Method and system for real-time detection and notification of events
CN112967180A (zh) 一种生成对抗网络的训练方法、图像风格转换方法和装置
WO2023001110A1 (zh) 神经网络训练方法、装置及电子设备
US20220189200A1 (en) Information processing system and information processing method
TWI757940B (zh) 視訊會議系統及其排除打擾的方法
WO2021087773A1 (zh) 识别方法、装置、电子设备及存储介质
TWI787019B (zh) 鞋跟高度上限的偵測方法與鞋跟高度上限的偵測系統
CN112000256B (zh) 一种内容互动方法及装置
US11748225B2 (en) Dynamic interface intervention to improve sensor performance