TW202022802A - 辨識影像中前景物件的方法與電子裝置 - Google Patents

辨識影像中前景物件的方法與電子裝置 Download PDF

Info

Publication number
TW202022802A
TW202022802A TW107144648A TW107144648A TW202022802A TW 202022802 A TW202022802 A TW 202022802A TW 107144648 A TW107144648 A TW 107144648A TW 107144648 A TW107144648 A TW 107144648A TW 202022802 A TW202022802 A TW 202022802A
Authority
TW
Taiwan
Prior art keywords
image
disparity
area
new
block
Prior art date
Application number
TW107144648A
Other languages
English (en)
Other versions
TWI701639B (zh
Inventor
謝佳達
陳裕彥
Original Assignee
緯創資通股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 緯創資通股份有限公司 filed Critical 緯創資通股份有限公司
Priority to TW107144648A priority Critical patent/TWI701639B/zh
Priority to CN201811621011.6A priority patent/CN111314689B/zh
Priority to US16/296,170 priority patent/US10964050B2/en
Publication of TW202022802A publication Critical patent/TW202022802A/zh
Application granted granted Critical
Publication of TWI701639B publication Critical patent/TWI701639B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一種辨識影像中前景物件的方法與電子裝置。所述方法包括:將第一影像與第二影像進行分割以取得第一影像的第一影像區塊與第二影像的第二影像區塊;比較第一影像區塊與第二影像區塊以獲得分別對應第一影像區塊的多個視差值,並產生包含此些視差值的視差影像;將視差影像中每一個視差值與第一門檻值相比較以形成一視差深度影像,並自視差深度影像中選擇被選區塊以形成第一區域;以及將第一區域映射至第一影像中以識別出被映射到的物件並將此物件識別為前景物件。

Description

辨識影像中前景物件的方法與電子裝置
本發明是有關於一種影像辨識方法,特別是有關於使用影像分割與視差值來識別影像中前景物件的一種辨識影像中前景物件的方法與電子裝置。
目前影像偵測特定物件,例如偵測人臉、手掌、車輛、行人等物件,較常用的是分類器或深度學習模型等方法。而針對特定物件的偵測通常是對整張影像作運算,相當花費時間。雖然可以用圖形處理單元(Graphic Processing Unit,GPU)提升運算速度(例如,使用平行運算),但硬體需求相當高且不是每台電腦都能做得到。因此,一種替代作法係可以先取得影像中的前景物件,再將此前景物件輸入至分類器或深度學習模型進行辨識。取得影像中的前景物件的方式例如可以使用深度鏡頭先取得前景物件,再對前景物件進行偵測。然而,由於計算影像的深度通常也需要大運算量,亦相當耗時。
本發明提供一種辨識影像中前景物件的方法與電子裝置,可以較快速地並且低運算量地辨識影像中的前景物件。
本發明提出一種辨識影像中前景物件的方法,用於一電子裝置,所述方法包括:自一影像擷取裝置獲得對應於一第一視角的一第一影像以及對應於一第二視角的第二影像,所述第一視角不同於所述第二視角;根據一第一感興趣區域(region of interest)的一第一尺寸分割所述第一影像以及所述第二影像以獲得所述第一影像中的多個第一影像區塊以及所述第二影像中的多個第二影像區塊;比較所述多個第一影像區塊與所述多個第二影像區塊以獲得分別對應所述多個第一影像區塊的多個視差值(disparity),並產生包含所述多個視差值的一視差影像;將所述視差影像中每一所述多個視差值與一第一門檻值相比較以形成一視差深度影像,並自所述視差深度影像中選擇視差值大於或等於所述第一門檻值的至少一被選區塊以形成一第一區域;以及將所述第一區域映射至所述第一影像中以識別出被映射到的一物件並將所述物件識別為一前景物件。
本發明提出一種電子裝置,所述電子裝置包括處理器,處理器用以執行下述運作:自一影像擷取裝置獲得對應於一第一視角的一第一影像以及對應於一第二視角的第二影像,所述第一視角不同於所述第二視角;根據一第一感興趣區域(region of interest)的一第一尺寸分割所述第一影像以及所述第二影像以獲得所述第一影像中的多個第一影像區塊以及所述第二影像中的多個第二影像區塊;比較所述多個第一影像區塊與所述多個第二影像區塊以獲得分別對應所述多個第一影像區塊的多個視差值(disparity),並產生包含所述多個視差值的一視差影像;將所述視差影像中每一所述多個視差值與一第一門檻值相比較以形成一視差深度影像,並自所述視差深度影像中選擇視差值大於或等於所述第一門檻值的至少一被選區塊以形成一第一區域;以及將所述第一區域映射至所述第一影像中以識別出被映射到的一物件並將所述物件識別為一前景物件。
本發明提出一種電子裝置,所述電子裝置包括影像擷取裝置、分割影像模組、視差比較模組與前景物件識別模組。影像擷取裝置用以對一物件進行影像擷取以獲得對應於一第一視角的一第一影像以及對應於一第二視角的第二影像,所述第一視角不同於所述第二視角。分割影像模組用以根據一第一感興趣區域(region of interest)的一第一尺寸分割所述第一影像以及所述第二影像以獲得所述第一影像中的多個第一影像區塊以及所述第二影像中的多個第二影像區塊。視差比較模組用以比較所述多個第一影像區塊與所述多個第二影像區塊以獲得分別對應所述多個第一影像區塊的多個視差值(disparity),並產生包含所述多個視差值的一視差影像。視差深度影像形成模組用以將所述視差影像中每一所述多個視差值與一第一門檻值相比較以形成一視差深度影像,並自所述視差深度影像中選擇視差值大於或等於所述第一門檻值的至少一被選區塊以形成一第一區域。前景物件識別模組,用以將所述第一區域映射至所述第一影像中以識別出被映射到的一物件並將所述物件識別為一前景物件。
基於上述,本發明的辨識影像中前景物件的方法可以使用預定尺寸的感興趣區域來對影像進行分割,並藉由視差值的方式產生視差深度影像後映射至原影像以快速地取得影像中前景物件大概的所在位置。若有需要則可以再根據所找出的視差深度影像的前景以及延伸此前景週圍的區塊所形成的區域,以尺寸較小的感興趣區域來對此區域進行分割,並再藉由視差值的方式來取得更準確的前景物件。基此,本發明的辨識影像中前景物件的方法可以較快速地辨識影像中的前景物件。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
現將詳細參考本發明之示範性實施例,在附圖中說明所述示範性實施例之實例。另外,凡可能之處,在圖式及實施方式中使用相同標號的元件/構件代表相同或類似部分。
圖1是依照本發明的一實施例所繪示的電子裝置與影像擷取裝置的示意圖。
請參照圖1,電子裝置100包括處理器10以及儲存裝置12。儲存裝置12耦接至處理器10。其中,電子裝置100例如是手機、平板電腦、筆記型電腦、電視、遊戲機、虛擬實境等電子裝置,在此不設限。
處理器10可以是中央處理器(Central Processing Unit,CPU),或是其他可程式化之一般用途或特殊用途的微處理器(Microprocessor)、數位信號處理器(Digital Signal Processor,DSP)、可程式化控制器、特殊應用積體電路(Application Specific Integrated Circuit,ASIC)或其他類似元件或上述元件的組合。
儲存裝置12可以是任何型態的固定或可移動隨機存取記憶體(random access memory,RAM)、唯讀記憶體(read-only memory,ROM)、快閃記憶體(flash memory)、硬碟(Hard Disk Drive,HDD)、固態磁碟(Solid-State Drive,SSD)或類似元件或上述元件的組合。
在本範例實施例中,電子裝置100的儲存裝置12中儲存有多個程式碼片段,在上述程式碼片段被安裝後,會由電子裝置100的處理器10來執行。例如,電子裝置100的儲存裝置12中包括多個軟體模組,藉由這些軟體模組來分別執行電子裝置100的各個運作,其中各軟體模組是由一或多個程式碼片段所組成。然而本發明不限於此,上述的各個運作也可以是使用其他硬體或韌體形式的方式來實現。
影像擷取裝置200包括處理器20、第一鏡頭22與第二鏡頭24。其中,第一鏡頭22與第二鏡頭24分別直接或間接耦接至處理器20。處理器20可以是與處理器10相同或類似的元件,在此並不贅述。在一實施例中,影像擷取裝置200可以不設置處理器20而係第一鏡頭22與第二鏡頭24直接或間接耦接至處理器10;或是,處理器10與處理器20可以整合成單一處理器。本說明書區分有處理器10與處理器20僅為示範性地舉一實施例說明,非用以限制處理器的數量與運算方式。
第一鏡頭22與第二鏡頭24例如是採用電荷耦合元件(Charge coupled device,CCD)鏡頭、互補式金氧半電晶體(Complementary metal oxide semiconductor transistors,CMOS)鏡頭。在本範例實施例中,第一鏡頭22與第二鏡頭24被配置在影像擷取裝置20中的同一水平線上並用於同時對一場景進行拍攝。第一鏡頭22例如是左鏡頭並用於拍攝該場景以產生左眼物體影像(簡稱為,左影像)。第二鏡頭24例如是右鏡頭並用於拍攝該場景以產生右眼物體影像(簡稱為,右影像)。而處理器20(及/或處理器10)可以根據所拍攝的左影像與右影像來獲得左影像(或右影像)中各個像素的深度資訊。需注意的是,在其他實施例中,第一鏡頭22也可以是右鏡頭且第二鏡頭24也可以是左鏡頭。
以下以多個步驟來描述本發明的辨識影像中前景物件的方法。
[輸入影像的步驟]
在「輸入影像」的步驟中,第一鏡頭22可以以第一視角(例如,左眼的視角)拍攝一場景以獲得一左影像(亦稱為,第一影像)。第二鏡頭24可以以第二視角(例如,右眼的視角)拍攝前述場景以獲得一右影像(亦稱為,第二影像)。之後,處理器10可以透過有線或無線的方式取得前述的第一影像與第二影像。本發明並不用於限定處理器10如何取得影像擷取裝置200所拍攝的第一影像與第二影像。
[定義感興趣區域的步驟]
接著,「定義感興趣區域」的步驟主要用來針對一影像中要被偵測的物件(即,前景物件)的尺寸來對應地定義出感興趣區域的尺寸,但實際上感興趣區域的尺寸不一定要準確地相等於要被偵測的物件的尺寸,此可由經驗值來決定或調整,可能會大於也可能會小於要被偵測物件的尺寸。舉例來說,當要偵測距離影像擷取裝置200兩公尺(亦即假定兩公尺內出現的物件視為前景物件時)以內的一個手掌時,使用者要預先定義在所拍攝的影像中可以包圍或大部分含蓋該影像中於前景範圍內最遠而最小的手掌的一個感興趣區域的長與寬大概分別為多少個像素(pixel)。在此假設能夠包圍或大部分含蓋影像中兩公尺處的手掌的感興趣區域的尺寸為50*50個像素。需注意的是,此步驟可以是在「輸入影像的步驟」之前或之後執行,在此不做限制。而為了便於解釋,在此步驟中定義的感興趣區域又可稱為「第一感興趣區域」,而第一感興趣區域的尺寸又稱為「第一尺寸」。
[切割影像的步驟]
接著,在「切割影像」的步驟中,處理器10會根據第一感興趣區域的第一尺寸分割前述第一鏡頭22所拍攝的第一影像以及第二鏡頭24所拍攝的第二影像以獲得第一影像中的多個區塊(亦稱為,第一影像區塊)以及第二影像中的多個區塊(亦稱為,第二影像區塊)。
更詳細來說,延續前述偵測影像中的手掌的範例,假設第一影像以及第二影像皆為500*500個像素的尺寸。由於前述第一尺寸為50*50個像素,處理器10可以將第一影像平均地分割為100個第一影像區塊且將第二影像平均地分割為100個第二影像區塊。換句話說,第一影像的長可以根據第一尺寸被平均地區分為10個等分且第一影像的寬可以根據第一尺寸被平均地區分為10個等分;第二影像的長可以根據第一尺寸被平均地區分為10個等分且第二影像的寬可以根據第一尺寸被平均地區分為10個等分。
然而需注意的是,在一實施例中,第一尺寸可能無法將第一影像的長與寬以及第二影像的長與寬進行等分。更詳細來說,圖2A至圖2B是依照本發明的一實施例所繪示的第一尺寸無法將第一影像的長與寬以及第二影像的長與寬進行等分的示意圖。
請參照圖2A,在此以第一影像為例,假設第一影像的尺寸為640*480個像素。當以前述50*50個像素的第一尺寸分割圖2A的第一影像時,由於第一影像的長與寬無法分別被第一尺寸的長與寬整除,故如圖2A所示,在以第一尺寸分割第一影像時,第一影像的長會包括虛圓30處不滿足第一尺寸的長的剩餘像素而第一影像的寬會包括虛圓32中不滿足第一尺寸的寬的剩餘像素。為了解決此問題,在本實施例中,請參照圖2B,虛圓30的剩餘像素會與圖2A中最後一個區塊70共用部分的像素34以使得原本虛圓30中的剩餘像素在與像素34結合後剛好滿足第一尺寸的長並且可以產生與區塊70部分重疊的區塊74。類似地,虛圓32中的剩餘像素會與圖2A中最後一個區塊72共用部分的像素36以使得原本虛圓32中的剩餘像素在與像素36結合後剛好滿足第一尺寸的寬並且可以產生與區塊72部分重疊的區塊76。
藉由上述方式,假設第一影像與第二影像的尺寸分別為640*480個像素並且以前述50*50個像素的第一尺寸分割第一影像與第二影像時,第一影像與第二影像會分別得到13*10個區塊。
[計算視差值的步驟]
接著,在「計算視差值」的步驟中,處理器10會根據前述的第一影像區塊以及前述的第二影像區塊的相比較,獲得第一影像中的每一區塊相對於第二影像中對應區塊的視差值(disparity)。
舉例來說,圖3是依照本發明的一實施例所繪示的計算視差值的示意圖。
請參照圖3,以計算第一影像300的區塊L11的視差值為例。處理器10首先會計算並獲得區塊L11的區塊資訊,此區塊資訊例如是區塊L11中所有的像素的灰階值的平均值或是總合或者是色彩空間(例如,RGB三個通道)的顏色值。接著,處理器10會將區塊L11的區塊資訊與第二影像302中位於與區塊L11所在的位置(亦稱為,第一位置)同一列(例如,第一列)的區塊R11~R1n逐一進行比較以選擇出一最相似區塊,也就是此最相似區塊的區塊資訊與區塊L11的區塊資訊的差值(例如灰階值或顏色值的差值)為最小。換句話說,假設第二影像302中的區塊R14是前述所選擇出的最相似區塊,則區塊R14的區塊資訊與區塊L11的區塊資訊的差值(灰階值或顏色值的差值)會小於第二影像302中其他非區塊R14的區塊的區塊資訊與區塊L11的區塊資訊與的差值(灰階值或顏色值的差值)。
之後,處理器10會根據區塊L11以及前述所找出的最相似區塊獲得區塊L11的視差值。其中,區塊L11與最相似區塊在同一列中所間隔的像素的數量即是區塊L11的視差值。也就是說,區塊L11與最相似的區塊R14應是相同的物件影像,但在第一影像300與第二影像302中的位置偏差了前述的視差值。
舉例來說,假設第二影像302中的區塊R14是前述所選擇出的最相似區塊,則由於區塊L11是位在第一影像300中第一列的第一個區塊而區塊R14是位在第二影像302中第一列的第四個區塊,而第一個區塊與第四個區塊在同一列中位置差為三個區塊,而每一個區塊的長為50個像素,故第一個區塊與第四個區塊相距150個像素。也就是說,區塊L11的視差值為150。
需注意的是,前述僅以計算區塊L11的視差值為範例,而第一影像300中其他區塊的視差值也可以藉由類似上述的方式來得出,在此不再贅述。
特別是,傳統一種計算視差值的方法是使用滑動視窗(Sliding Window),若欲得到一影像(例如,第一影像)中所有滑動視窗的視差值,由於一個滑動視窗需與另一影像(例如,第二影像)中同一列的所有滑動視窗進行比較,故一個滑動視窗需比較640次;而就總計算量來說,需要執行640*640*480次的計算才能得到所有滑動視窗的視差值。然而,由於本發明是「以區塊為基礎」地計算每個區塊的視差值,因此在計算前述640*480的尺寸的第一影像所構成的13*10個區塊的視差值時,由於第一影像的一個區塊僅需與第二影像中同一列的所有「區塊」進行比較,故一個區塊僅需比較13次。就總計算量來說,僅需要執行13*13*10次的計算即可得到各個區塊的視差值。因此,本發明「以區塊為基礎」的視差值計算方法可以比「以像素為基礎」的視差值計算方法更有效率。
[定義前景的步驟]
在計算完第一影像300中所有區塊的視差值後,會產生一張包含多個視差區塊(數量與位置與前述切割影像的區塊數量與位置相同)的視差影像,也就是每一區塊具有上述運算過的一視差值。處理器10會根據前述視差影像中的每一個視差區塊的視差值與一第一門檻值比較,若小於該第一門檻值時例如標示為0(黑色)而大於或等於該第一門檻值時例標示如為1(白色)以轉換形成一張視差深度影像,而因此可從中選擇出至少一區塊(亦稱為,被選區塊)。也就是說,被選區塊的視差值均是大於或等於第一門檻值且所有被選區塊會共同形成第一區域。第一區域可以被當成是視差深度影像中的前景。
舉例來說,圖4A至圖4C是依照本發明的一實施例所繪示的根據視差值選擇被選區塊的示意圖。請參照圖4A至圖4C,假設第一影像300為第一鏡頭22所拍攝的影像,且第一影像300被根據前述的第一感興趣區域的第一尺寸分割為6*4個區塊(即,前述的第一影像區塊)。在對此些第一影像區塊計算出每一個區塊的視差值而產生一視差深度影像400後,假設其中只有視差區塊44~46的視差值大於或等於第一門檻值,則視差區塊44~46會被選擇為前述的被選區塊。而此些被選區塊在圖4B中所形成的白色區域即為前述視為前景的第一區域。
之後,再將已被視為前景的第一區域映射而疊合至第一影像300而形成如圖4C之一疊合影像500,而第一區域映射到的物件就會被識別為是前景物件(例如,欲偵測的手掌)。
在此需說明的是,第一門檻值的計算方式可以是採用如下述公式(1):
Threshold = (Baseline/Distance)*Focus………(1)
其中,「Threshold」為第一門檻值。「Baseline」為鏡頭間距,「Distance」為物件距離,「Focus」為焦距。鏡頭間距為第一鏡頭22與第二鏡頭24之間的距離。焦距為第一鏡頭22與第二鏡頭24在拍攝並獲得第一影像與第二影像時所使用的焦距。物件距離為欲被識別為前景的物件(例如,前述的手掌)與影像擷取裝置200之間的距離。換句話說,第一門檻值等於一第一數值除以物件距離的商,而前述第一數值為鏡頭間距乘上焦距所獲得的乘積。
此外,判斷一個區塊是否為前景的方法可以如下述公式(2):
Figure 02_image001
.(2)
其中,disparity(x,y)是位在第x行第y列的區塊的視差值。當disparity(x,y)的值大於或等於前述的第一門檻值(即,Threshold)時,Block(x,y)的值會被設定為disparity(x,y)。反之,當disparity(x,y)的值小於前述的第一門檻值時,Block(x,y)的值會被設定為0。而Block(x,y)是用於判斷位在第x行第y列的區塊是否為前景。當Block(x,y)非為零時,代表位在第x行第y列的區塊屬於前景。當Block(x,y)為零時,代表位在第x行第y列的區塊不屬於前景。其中,前述的x與y的值皆為正整數。
需注意的是,在此步驟中,可以找到視差深度影像中屬於前景的第一區域且第一區域會由被選區塊所組成。然而,前述用來分割第一影像以產生第一影像區塊的第一感興趣區域的「第一尺寸」在一些情況下可能會影響在獲得前景物件時的準確度。以圖4C的範例來說,第一尺寸原是用來適應手掌位於前景範圍最遠處而手掌影像較小時,但圖4C中之手掌較靠近影像擷取裝置200而會較大,故以前述用較大的第一尺寸來分割第一影像時,最後獲得的屬於「手掌」的前景物件可能僅有「掌心」的部份,而手掌中屬於「手指」的部份(例如圖4C中拇指、食指、中指與無名指)卻可能被誤判為非前景物件(即,背景)的部分。
也就是說,若以前述較大的第一尺寸來分割第一影像時,雖然可以較快速地計算各個區塊的視差值並找出屬於前景的區塊。然而,此方式在一些情況下也可能會造成第一影像中部分屬於前景的區域被誤判為非前景。也就是說,當第一尺寸較大時,所獲得的前景物件在一些情況下有可能會不精確。相較來說,當第一尺寸較小時,在大部分情況下所獲得的前景應會較為精確,但第一尺寸若過小時則相對地也會增加處理器運算次數與時間。
因此,本發明的另一實施例的解決方案可繼續執行下述「重新定義感興趣區域的步驟」、「擴大比對區域的步驟」、「重新切割影像的步驟」、「重新計算視差值的步驟」以及「重新定義前景的步驟」來重新地取得第一影像中較為精確的前景。
[重新定義感興趣區域的步驟]
在「重新定義感興趣區域」的步驟中,處理器10會根據前述第一感興趣區域的第一尺寸調整一第二感興趣區域的一第二尺寸。其中,第二尺寸是用於來重新取得第一影像中的前景物件。特別是,在本範例實施例中,第二尺寸是小於第一尺寸,因此第二尺寸可以用於來重新取得第一影像中較為精確的前景物件。
在本範例實施例中,第二感興趣區域的長與寬分別是第一感興趣區域的長與寬的一半。也就是說,第二尺寸會是第一尺寸的1/4。
[擴大比對區域的步驟]
由於圖4C的疊合影像500中屬於「手指」的部份(例如圖4C中拇指、食指、中指與無名指)被誤判為非前景物件(即,背景)的部分。因此,在「擴大比對區域」的步驟中,處理器10會根據前述疊合影像500中所找出的第一區域(即,前景)決定第一影像中用於重新搜尋前景物件的一延伸區域。此延伸區域係指鄰接於第一區域且向外(例如上/下/左/右)擴張一定區塊數之區域。
舉例來說,圖5A與圖5B是依照本發明的一實施例所繪示的擴大第一區域以產生新的擴大第一區域的示意圖。
請參照圖5A,延續圖4A至圖4C的範例,處理器10例如可以產生疊合影像500中與視差區塊44~46所組成的第一區域的邊緣相鄰且與該些視差區塊44~46同尺寸的多個延伸區塊47~52以形成延伸區域,而所述延伸區域與第一區域可合併形成擴大第一區域。也就是說,此步驟所產生的擴大第一區域包括在原始的第一影像中被第一區域映射到的區域,且擴大第一區域會大於第一區域。而在另一實施例中,請參照圖5B,也可以僅產生較小尺寸的延伸區塊作為延伸區域。例如,可以將視差區塊44~46所組成的第一區域的邊緣往外分別擴張前述視差區塊尺寸的一半以獲得延伸區塊60~65。
特別是,此步驟所產生的擴大第一區域主要用於擴大尋找與映射可能也屬於第一影像中的前景物件,相較於從整張第一影像中來尋找前景物件,使用較小且有限的擴大第一區域範圍來再次尋找與映射第一影像中的前景物件仍可以較快速地找到前景物件。此外,再搭配使用較小的第二感興趣區域的第二尺寸來尋找前景物件,應可以找到第一影像中更為精確的前景物件。
[重新切割影像的步驟]
在獲得疊合影像500的擴大第一區域的範圍後,在「重新切割影像」的步驟中,處理器10會根據前述的第二尺寸分割擴大第一區域以獲得多個新第一影像區塊。
圖6A與圖6B是依照本發明的一實施例所繪示的重新切割影像的示意圖。
請參照圖6A,假設處理器10是使用第二尺寸(即,第一尺寸的四分之一)對圖5A的擴大第一區域進行分割,則分割完後會產生如圖6A所示具有36個新第一影像區塊的新第一影像600。或者,請參照圖6B,假設處理器10是使用第二尺寸(即,第一尺寸的四分之一)對圖5B中的擴大第一區域進行分割,則分割完後會產生如圖6B所示具有25個新第一影像區塊的新第一影像700。而相類似地方式亦可以用於對第二影像進行分割以獲得多個尺寸較小的新第二影像區塊而形成新第二影像。
[重新計算視差值的步驟]
接著,在「重新計算視差值」的步驟中,處理器10會相同地依據前述計算視差值的方法,根據前述擴大第一區域範圍內的多個新第一影像區塊與新第二影像中前述多個新第二影像區塊的比對,獲得新第一影像區塊中的每一個第一影像區塊的視差值。例如,處理器10會比較所述多個新第一影像區塊以及前述新第二影像中對應於的多個新第二影像區塊以獲得分別對應所述多個新第一影像區塊的多個新視差值,並產生包含所述多個新視差值的新視差影像。其中,視差值的計算方式與前述的新視差影像類似於前述圖3、圖4B的實施例,故在此不再贅述。
[重新定義前景的步驟]
在計算出新第一影像區塊中的每一個區塊的新視差值後,在「重新定義前景」的步驟中,處理器10會將新第一影像區塊中每一個區塊的新視差值與前述的第一門檻值相比較,與前述[定義前景的步驟]相同地產生一新視差深度影像,再自新視差深度影像中選擇新視差值大於或等於第一門檻值的至少一新被選區塊以形成新第一區域,之後將新被選區塊組成的新第一區域疊合與映射至第一影像,若有被映射到的另一物件則將此另一物件識別為第一影像的前景物件。此步驟類似於前述圖4A至圖4C的實施例,故在此不再贅述。
圖7是依照本發明的一實施例所繪示的重新定義的前景的示意圖。
請參照圖7,假設處理器10是使用圖6B中的25個區塊的視差值來決定前述的新被選區塊。假設圖6B的25個區塊中,只有如圖7中的這些新被選區塊的視差值大於或等於第一門檻值,則圖7中的這些新被選區塊所形成的區域即為前述的新第一區域。此新第一區域將映射至第一影像而識別出範圍較大的前景物件。可以明顯地看出,圖7中所識別出的前景物件相較於圖4C所識別出的前景物件更為準確。
而在處理器10將新第一影像中屬於新第一區域的像素映射並識別為第一影像的前景物件的運作之後,處理器10例如可以根據前述新第一區域的相素以產生一前景物件影像並輸出此前景物件影像。而處理器10還可以再將此前景物件影像輸入至一分類器(未繪示)中來識別此前景物件影像中的物件。而分類器例如可以再輸出一識別結果,其中此結果用於指出該前景物件影像中的物件是否為特定物件(例如,手掌)或特定形狀的物件(例如,張開5指的手掌)。
圖8A與圖8B是依照本發明的一實施例所繪示的辨識影像中前景物件的方法的流程示意圖。
請參照圖8A,在步驟S801中,處理器10自影像擷取裝置獲得對應於第一視角的第一影像以及對應於第二視角的第二影像。在步驟S803中,處理器10根據第一感興趣區域的第一尺寸分割第一影像以及第二影像以獲得第一影像中的多個第一影像區塊以及第二影像中的多個第二影像區塊。在步驟S805中,處理器10比較第一影像區塊與第二影像區塊以獲得分別對應第一影像區塊的多個視差值,並產生包含所述多個視差值的視差影像。在步驟S807中,處理器10將視差影像中每一個視差值與第一門檻值相比較以形成視差深度影像,並自此視差深度影像中選擇視差值大於或等於第一門檻值的被選區塊以形成第一區域。在步驟S809中,處理器10將第一區域映射至第一影像中以識別出被映射到的物件並將所述物件識別為一前景物件。之後,請參照圖8B,在步驟S811中,處理器10根據第一尺寸決定第二感興趣區域的第二尺寸。在步驟S813中,處理器10根據第一區域決定第一影像的擴大第一區域,其中擴大第一區域包括第一影像中被第一區域映射到的區域且擴大第一區域大於第一區域。在步驟S815中,處理器10根據第二尺寸分割擴大第一區域以獲得擴大第一區域中的多個新第一影像區塊。在步驟S817中,處理器10比較新第一影像區塊以及新第二影像中對應於新第一影像區塊的多個新第二影像區塊以獲得分別對應新第一影像區塊的多個新視差值,並產生包含新視差值的新視差影像。在步驟S819中,處理器10將新視差影像中每一個新視差值與第一門檻值相比較以形成新視差深度影像,並自新視差深度影像中選擇新視差值大於或等於第一門檻值的新被選區塊以形成新第一區域。在步驟S821中,處理器10將新第一區域映射至第一影像中以識別出被映射到的另一物件以將此另一物件識別為前景物件。
上述圖8係以步驟流程的型態為示範來說明本發明的辨識方法,該些流程方法係由讀取軟體/韌體程式的程式碼所執行,換言之,本發明的程式碼可以依據執行的功能不同而至少可歸納包含例如感興趣區域尺寸決定模組、分割影像模組、視差比較模組、視差深度影像形成模組、前景物件識別模組、擴大比對區域模組等之軟體程式模組。
綜上所述,本發明的影像中前景物件的辨識方法可以利用預定尺寸的感興趣區域來對影像進行分割,並藉由視差值的方式產生視差深度影像後映射至原影像以快速地取得影像中前景物件大概的所在位置。並且可更進一步地,再根據所找出視差深度影像疊合原影像後的前景以及延伸此前景周圍的區塊所形成的擴大區域,並以較小的感興趣區域的尺寸來對此擴大區域重新進行分割,同樣再藉由視差值的方式來取得更準確的前景物件。基此,本發明的影像中前景物件的辨識方法可以較快速地辨識影像中的前景物件。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
100:電子裝置200:影像擷取裝置10、20:處理器12:儲存裝置22:第一鏡頭24:第二鏡頭30、32:虛圓44~52、60~65:延伸區塊L11、R11~R1n、70、72、74、76:區塊36、36:像素300:第一影像400:深度影像500:疊合影像600、700:新第一影像302:第二影像步驟S801:自影像擷取裝置獲得對應於第一視角的第一影像以及對應於第二視角的第二影像的步驟步驟S803:根據第一感興趣區域的第一尺寸分割第一影像以及第二影像以獲得第一影像中的多個第一影像區塊以及第二影像中的多個第二影像區塊的步驟步驟S805:比較第一影像區塊與第二影像區塊以獲得分別對應第一影像區塊的多個視差值,並產生包含所述多個視差值的視差影像的步驟步驟S807:將視差影像中每一個視差值與第一門檻值相比較以形成視差深度影像,並自此視差深度影像中選擇視差值大於或等於第一門檻值的被選區塊以形成第一區域的步驟步驟S809:將第一區域映射至第一影像中以識別出被映射到的物件並將所述物件識別為一前景物件的步驟步驟S811:根據第一尺寸決定第二感興趣區域的第二尺寸的步驟步驟S813:根據第一區域決定第一影像的擴大第一區域,其中擴大第一區域包括第一影像中被第一區域映射到的區域且擴大第一區域大於第一區域的步驟步驟S815:根據第二尺寸分割擴大第一區域以獲得擴大第一區域中的多個新第一影像區塊的步驟步驟S817:比較新第一影像區塊以及新第二影像中對應於新第一影像區塊的多個新第二影像區塊以獲得分別對應新第一影像區塊的多個新視差值,並產生包含新視差值的新視差影像的步驟步驟S819:將新視差影像中每一個新視差值與第一門檻值相比較以形成新視差深度影像,並自新視差深度影像中選擇新視差值大於或等於第一門檻值的新被選區塊以形成新第一區域的步驟步驟S821:將新第一區域映射至第一影像中以識別出被映射到的另一物件以將此另一物件識別為前景物件的步驟
圖1是依照本發明的一實施例所繪示的電子裝置與影像擷取裝置的示意圖。 圖2A至圖2B是依照本發明的一實施例所繪示的第一尺寸無法將第一影像的長與寬以及第二影像的長與寬進行等分的示意圖。 圖3是依照本發明的一實施例所繪示的計算視差值的示意圖。 圖4A至圖4C是依照本發明的一實施例所繪示的根據視差值選擇被選區塊的示意圖。 圖5A與圖5B是依照本發明的一實施例所繪示的擴大第一區域以產生延伸區域的示意圖。 圖6A與圖6B是依照本發明的一實施例所繪示的重新切割影像的示意圖。 圖7是依照本發明的一實施例所繪示的重新定義的前景的示意圖。 圖8A與圖8B是依照本發明的一實施例所繪示的辨識影像中前景物件的方法的流程示意圖。
L11、R11~R1n:區塊
300:第一影像
302:第二影像

Claims (17)

  1. 一種辨識影像中前景物件的方法,用於一電子裝置,所述方法包括: 自一影像擷取裝置對一物件進行影像擷取以獲得對應於一第一視角的一第一影像以及對應於一第二視角的第二影像,所述第一視角不同於所述第二視角; 根據一第一感興趣區域(region of interest)的一第一尺寸分割所述第一影像以及所述第二影像以獲得所述第一影像中的多個第一影像區塊以及所述第二影像中的多個第二影像區塊; 比較所述多個第一影像區塊與所述多個第二影像區塊以獲得分別對應所述多個第一影像區塊的多個視差值(disparity),並產生包含所述多個視差值的一視差影像; 將所述視差影像中每一所述多個視差值與一第一門檻值相比較以形成一視差深度影像,並自所述視差深度影像中選擇視差值大於或等於所述第一門檻值的至少一被選區塊以形成一第一區域;以及 將所述第一區域映射至所述第一影像中以識別出被映射到的一物件並將所述物件識別為一前景物件。
  2. 如申請專利範圍第1項所述的辨識影像中前景物件的方法,更包括:   根據所述第一區域決定所述第一影像的一擴大第一區域,其中所述擴大第一區域包括第一影像中被所述第一區域映射到的區域且所述擴大第一區域大於所述第一區域。
  3. 如申請專利範圍第2項所述的辨識影像中前景物件的方法,更包括: 根據所述第一尺寸決定一第二感興趣區域(region of interest)的一第二尺寸;根據所述第二尺寸分割所述擴大第一區域以獲得所述擴大第一區域中的多個新第一影像區塊; 比較所述多個新第一影像區塊以及所述第二影像中對應於所述多個新第一影像區塊的多個新第二影像區塊以獲得分別對應所述多個新第一影像區塊的多個新視差值(disparity),並產生包含所述多個新視差值的新視差影像; 將所述新視差影像中每一所述多個新視差值與所述第一門檻值相比較以形成新視差深度影像,並自所述新視差深度影像中選擇新視差值大於或等於所述第一門檻值的至少一新被選區塊以形成一新第一區域;以及 將所述新第一區域映射至所述第一影像中以識別出被映射到的另一物件以將所述另一物件識別為所述前景物件。
  4. 如申請專利範圍第1項所述的辨識影像中前景物件的方法,其中所述影像擷取裝置包含一第一鏡頭與一第二鏡頭,所述第一門檻值是根據一鏡頭間距、一焦距以及一物件距離所獲得,所述鏡頭間距為所述第一鏡頭與所述第二鏡頭之間的距離,所述焦距為所述第一鏡頭與所述第二鏡頭在拍攝並獲得所述第一影像與所述第二影像時所使用的所述焦距,所述物件距離為所述物件與所述影像擷取裝置之間的距離。
  5. 如申請專利範圍第4項所述的辨識影像中前景物件的方法,其中所述第一門檻值等於一第一數值除以所述物件距離的商,所述第一數值為所述鏡頭間距乘上所述焦距所獲得的乘積。
  6. 如申請專利範圍第3項所述的辨識影像中前景物件的方法,其中所述第二尺寸小於所述第一尺寸。
  7. 如申請專利範圍第2項所述的辨識影像中前景物件的方法,其中所述擴大第一區域包括所述多個第一影像區塊中與被所述第一區域映射到的區域的邊緣相鄰的至少一視差區塊的一部分或全部,且被所述第一區域映射到的區域不包括所述視差區塊。
  8. 如申請專利範圍第1項所述的辨識影像中前景物件的方法,其中所述比較所述多個第一影像區塊與所述多個第二影像區塊的步驟係比較所述多個第一影像區塊與所述多個第二影像區塊的區塊資訊,且所述區塊資訊為灰階值或一色彩空間的顏色值。
  9. 一種電子裝置,包括: 一影像擷取裝置,用以對一物件進行影像擷取以獲得對應於一第一視角的一第一影像以及對應於一第二視角的第二影像,所述第一視角不同於所述第二視角;以及 一處理器,用以讀取至少一程式碼以執行以下程序:   根據一第一感興趣區域(region of interest)的一第一尺寸分割所述第一影像以及所述第二影像以獲得所述第一影像中的多個第一影像區塊以及所述第二影像中的多個第二影像區塊; 比較所述多個第一影像區塊與所述多個第二影像區塊以獲得分別對應所述多個第一影像區塊的多個視差值(disparity),並產生包含所述多個視差值的一視差影像; 將所述視差影像中每一所述多個視差值與一第一門檻值相比較以形成一視差深度影像,並自所述視差深度影像中選擇視差值大於或等於所述第一門檻值的至少一被選區塊以形成一第一區域; 將所述第一區域映射至所述第一影像中以識別出被映射到的一物件並將所述物件識別為一前景物件。
  10. 如申請專利範圍第9項所述的電子裝置,其中: 所述處理器更用以執行以下程序: 根據所述第一區域決定所述第一影像的一擴大第一區域,其中所述擴大第一區域包括第一影像中被所述第一區域映射到的區域且所述擴大第一區域大於所述第一區域。
  11. 如申請專利範圍第10項所述的電子裝置,其中: 所述處理器更用以執行以下程序: 根據所述第一尺寸決定一第二感興趣區域(region of interest)的一第二尺寸, 所述處理器更用以根據所述第二尺寸分割所述擴大第一區域以獲得所述擴大第一區域中的多個新第一影像區塊, 所述處理器更用以比較所述多個新第一影像區塊以及所述第二影像中對應於所述多個新第一影像區塊的多個新第二影像區塊以獲得分別對應所述多個新第一影像區塊的多個新視差值(disparity),並產生包含所述多個新視差值的新視差影像, 所述處理器更用以將所述新視差影像中每一所述多個新視差值與所述第一門檻值相比較以形成新視差深度影像,並自所述新視差深度影像中選擇新視差值大於或等於所述第一門檻值的至少一新被選區塊以形成一新第一區域, 所述處理器更用以將所述新第一區域映射至所述第一影像中以識別出被映射到的另一物件以將所述另一物件識別為所述前景物件。
  12. 如申請專利範圍第11項所述的電子裝置,其中所述影像擷取裝置包含一第一鏡頭與一第二鏡頭,所述第一門檻值是根據一鏡頭間距、一焦距以及一物件距離所獲得,所述鏡頭間距為所述第一鏡頭與所述第二鏡頭之間的距離,所述焦距為所述第一鏡頭與所述第二鏡頭在拍攝並獲得所述第一影像與所述第二影像時所使用的所述焦距,所述物件距離為所述物件與所述影像擷取裝置之間的距離。
  13. 如申請專利範圍第12項所述的電子裝置,其中所述第一門檻值等於一第一數值除以所述物件距離的商,所述第一數值為所述鏡頭間距乘上所述焦距所獲得的乘積。
  14. 如申請專利範圍第11項所述的電子裝置,其中所述第二尺寸小於所述第一尺寸。
  15. 如申請專利範圍第10項所述的電子裝置,其中所述擴大第一區域包括所述多個第一影像區塊中與被所述第一區域映射到的區域的邊緣相鄰的至少一視差區塊的一部分或全部,且被所述第一區域映射到的區域不包括所述視差區塊。
  16. 如申請專利範圍第9項所述的電子裝置,其中所述比較所述多個第一影像區塊與所述多個第二影像區塊的步驟係比較所述多個第一影像區塊與所述多個第二影像區塊的區塊資訊,且所述區塊資訊為灰階值或一色彩空間的顏色值。
  17. 一種電子裝置,包括:     一影像擷取裝置,用以對一物件進行影像擷取以獲得對應於一第一視角的一第一影像以及對應於一第二視角的第二影像,所述第一視角不同於所述第二視角; 一分割影像模組,用以根據一第一感興趣區域(region of interest)的一第一尺寸分割所述第一影像以及所述第二影像以獲得所述第一影像中的多個第一影像區塊以及所述第二影像中的多個第二影像區塊; 一視差比較模組,用以比較所述多個第一影像區塊與所述多個第二影像區塊以獲得分別對應所述多個第一影像區塊的多個視差值(disparity),並產生包含所述多個視差值的一視差影像; 一視差深度影像形成模組,用以將所述視差影像中每一所述多個視差值與一第一門檻值相比較以形成一視差深度影像,並自所述視差深度影像中選擇視差值大於或等於所述第一門檻值的至少一被選區塊以形成一第一區域;以及     一前景物件識別模組,用以將所述第一區域映射至所述第一影像中以識別出被映射到的一物件並將所述物件識別為一前景物件。
TW107144648A 2018-12-11 2018-12-11 辨識影像中前景物件的方法與電子裝置 TWI701639B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
TW107144648A TWI701639B (zh) 2018-12-11 2018-12-11 辨識影像中前景物件的方法與電子裝置
CN201811621011.6A CN111314689B (zh) 2018-12-11 2018-12-28 识别影像中前景物件的方法与电子装置
US16/296,170 US10964050B2 (en) 2018-12-11 2019-03-07 Method for identifying foreground object in image and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW107144648A TWI701639B (zh) 2018-12-11 2018-12-11 辨識影像中前景物件的方法與電子裝置

Publications (2)

Publication Number Publication Date
TW202022802A true TW202022802A (zh) 2020-06-16
TWI701639B TWI701639B (zh) 2020-08-11

Family

ID=70971028

Family Applications (1)

Application Number Title Priority Date Filing Date
TW107144648A TWI701639B (zh) 2018-12-11 2018-12-11 辨識影像中前景物件的方法與電子裝置

Country Status (3)

Country Link
US (1) US10964050B2 (zh)
CN (1) CN111314689B (zh)
TW (1) TWI701639B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI817797B (zh) * 2022-10-31 2023-10-01 晶睿通訊股份有限公司 影像分析模型調整方法及其影像分析設備
TWI818880B (zh) * 2023-03-31 2023-10-11 宸祿科技股份有限公司 影像融合裝置及影像融合演算法平行化優化之方法
TWI831696B (zh) * 2023-05-23 2024-02-01 晶睿通訊股份有限公司 影像分析方法及其影像分析設備

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11120280B2 (en) * 2019-11-15 2021-09-14 Argo AI, LLC Geometry-aware instance segmentation in stereo image capture processes
CN114359123A (zh) * 2022-01-12 2022-04-15 广东汇天航空航天科技有限公司 一种图像处理方法和装置
CN115049980A (zh) * 2022-06-16 2022-09-13 威海经济技术开发区天智创新技术研究院 基于图像的目标对象确定方法、装置及电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1806697B1 (en) 2006-01-10 2016-08-10 Microsoft Technology Licensing, LLC Segmenting image elements
CN102075779B (zh) * 2011-02-21 2013-05-08 北京航空航天大学 一种基于块匹配视差估计的中间视图合成方法
US8509545B2 (en) * 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8873835B2 (en) 2011-11-30 2014-10-28 Adobe Systems Incorporated Methods and apparatus for correcting disparity maps using statistical analysis on local neighborhoods
CN103208006B (zh) * 2012-01-17 2016-07-06 株式会社理光 基于深度图像序列的对象运动模式识别方法和设备
CN102609724B (zh) * 2012-02-16 2014-05-14 北京航空航天大学 一种基于双摄像头的周围环境信息提示方法
US9224060B1 (en) 2013-09-17 2015-12-29 Amazon Technologies, Inc. Object tracking using depth information
CN103945118B (zh) * 2014-03-14 2017-06-20 华为技术有限公司 图像虚化方法、装置及电子设备
EP3373240B1 (en) 2015-11-30 2019-10-02 Huawei Technologies Co., Ltd. Image processing method and dual-camera system
CN107610041B (zh) * 2017-08-16 2020-10-27 南京华捷艾米软件科技有限公司 基于3d体感摄像头的视频人像抠图方法及系统
CN107370958B (zh) * 2017-08-29 2019-03-29 Oppo广东移动通信有限公司 图像虚化处理方法、装置及拍摄终端

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI817797B (zh) * 2022-10-31 2023-10-01 晶睿通訊股份有限公司 影像分析模型調整方法及其影像分析設備
TWI818880B (zh) * 2023-03-31 2023-10-11 宸祿科技股份有限公司 影像融合裝置及影像融合演算法平行化優化之方法
TWI831696B (zh) * 2023-05-23 2024-02-01 晶睿通訊股份有限公司 影像分析方法及其影像分析設備

Also Published As

Publication number Publication date
TWI701639B (zh) 2020-08-11
CN111314689B (zh) 2021-08-06
US10964050B2 (en) 2021-03-30
CN111314689A (zh) 2020-06-19
US20200184673A1 (en) 2020-06-11

Similar Documents

Publication Publication Date Title
TWI701639B (zh) 辨識影像中前景物件的方法與電子裝置
US11830141B2 (en) Systems and methods for 3D facial modeling
US9179071B2 (en) Electronic device and image selection method thereof
JP6371553B2 (ja) 映像表示装置および映像表示システム
JP5521676B2 (ja) 画像処理装置及び画像処理プログラム
EP2704056A2 (en) Image processing apparatus, image processing method
JP6582516B2 (ja) 画像におけるカラーチャートの検出装置及び検出方法
WO2020199562A1 (zh) 深度信息检测方法、装置及电子设备
US20150131853A1 (en) Stereo matching system and method for generating disparity map using same
CN111357034A (zh) 点云生成方法、系统和计算机存储介质
TW201432620A (zh) 具有邊緣選擇功能性之影像處理器
WO2021098576A1 (zh) 手部姿态估计方法、装置及计算机存储介质
EP3035242B1 (en) Method and electronic device for object tracking in a light-field capture
CN111046845A (zh) 活体检测方法、装置及系统
JP6526527B2 (ja) 識別装置及び認証システム
US11256949B2 (en) Guided sparse feature matching via coarsely defined dense matches
WO2018058573A1 (zh) 对象检测方法、对象检测装置以及电子设备
US9712807B2 (en) Disparity determination for images from an array of disparate image sensors
JP6754717B2 (ja) 物体候補領域推定装置、物体候補領域推定方法、及び物体候補領域推定プログラム
JP7136721B2 (ja) 演算装置、視差算出方法
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
TWI507919B (zh) 追蹤與記錄指尖軌跡的影像處理方法
US10769805B2 (en) Method, image processing device, and system for generating depth map
JP2018132951A (ja) 画像認識装置