TWI457853B - 提供深度資訊之影像處理方法及其影像處理系統 - Google Patents

提供深度資訊之影像處理方法及其影像處理系統 Download PDF

Info

Publication number
TWI457853B
TWI457853B TW098109603A TW98109603A TWI457853B TW I457853 B TWI457853 B TW I457853B TW 098109603 A TW098109603 A TW 098109603A TW 98109603 A TW98109603 A TW 98109603A TW I457853 B TWI457853 B TW I457853B
Authority
TW
Taiwan
Prior art keywords
variation
input image
input
intensity
image
Prior art date
Application number
TW098109603A
Other languages
English (en)
Other versions
TW201035906A (en
Inventor
Te Chin Shao
Wen Chao Chen
Original Assignee
Ind Tech Res Inst
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ind Tech Res Inst filed Critical Ind Tech Res Inst
Priority to TW098109603A priority Critical patent/TWI457853B/zh
Priority to US12/632,954 priority patent/US8565513B2/en
Publication of TW201035906A publication Critical patent/TW201035906A/zh
Application granted granted Critical
Publication of TWI457853B publication Critical patent/TWI457853B/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Description

提供深度資訊之影像處理方法及其影像處理系統
本發明是有關於一種影像處理方法及其影像處理系統,且特別是有關於一種用以提供深度資訊的影像處理方法。
在電腦視覺的領域上,為了提供具有立體效果之立體影像,通常係提供三維內容(3D content)至一立體顯示器(autostereoscopic display)。
上述之三維內容包括影像加深度(2D plus Z)之資訊,即一二維影像與一深度資訊(depth information)。此深度資訊例如為對應至此二維影像之一深度地圖(depth map)。亦即,此深度資訊包含了對應至二維影像的各畫素的深度值。根據二維影像與對應之深度資訊,立體顯示器可顯示出立體影像,而能讓使用者獲得3D之觀賞效果。
為了令立體顯示器顯示立體影像,則需對影像中的場景進行深度估測。傳統中,立體視覺(stereo vision)之技術係利用對應於左右眼的兩張拍攝影像來進行深度估測。此外,近年來亦有人使用在多視角下所拍攝之多張影像來進行深度估測。再者,為了降低成本與操作便利性,亦有能對單一鏡頭的攝像裝置所提供之一張輸入影像來進行深度估測之作法。
於一種估測一張輸入影像之深度資訊之傳統作法中,係分析此輸入影像的影像特徵資訊,並進行分類(classification)處理。如此,將能歸納出輸入影像中的場景特徵,如地面、建築物、人體、及車輛,並作為影像深度判斷的依據。然而,此一作法卻需要花費大量時間在對輸入影像進行分類的實驗(training)上。因此,如何利用一張輸入影像來產生其所對應之深度資訊,仍為業界所致力之課題之一。
本發明係有關於一種影像處理方法及其影像處理系統,不用花費大量時間在對輸入影像進行分類的實驗上,而能利用一張輸入影像來產生輸入影像所對應之深度資訊。此深度資訊確實能表現出輸入影像中之物體拍攝距離的遠近程度,且能精確地呈現影像中之物體的立體感。
根據本發明之一方面,提出一種影像處理方法,用以依據一輸入影像產生對應之一深度資訊。此方法包括下列步驟。首先,依據輸入影像產生一參考影像。接著,分別將輸入影像與參考影像分為對應之多個輸入影像區塊與參考影像區塊。然後,依據對應之各輸入影像區塊與各參考影像區塊所分別包含之多筆輸入畫素資料與參考畫素資料,取得各輸入影像區塊所對應之變異量強度。之後,對輸入影像進行影像分割處理,以取得多個分割區域。接著,依據各個分割區域所實質上涵蓋對應之輸入影像區塊之此些變異量強度來產生深度資訊。
根據本發明之另一方面,提出一種影像處理系統,用以依據一輸入影像產生對應之一深度資訊。影像處理系統包括一輸入單元、一參考影像產生單元、一變異量強度產生單元、一影像分割單元、及一輸出單元。輸入單元用以取得輸入影像。參考影像產生單用以依據輸入影像產生一參考影像。變異量強度產生單元用以分別將輸入影像與參考影像分為對應之多個輸入影像區塊與多個參考影像區塊,並用以依據對應之各輸入影像區塊與各參考影像區塊所分別包含之多筆輸入畫素資料與多筆參考畫素資料,取得各輸入影像區塊所對應之變異量強度。影像分割單元用以對輸入影像進行影像分割處理,以取得多個分割區域。輸出單元用以依據各個分割區域所實質上涵蓋對應之輸入影像區塊之變異量強度來產生深度資訊。
為讓本發明之上述內容能更明顯易懂,下文特舉較佳實施例,並配合所附圖式,作詳細說明如下。
於本發明之實施例中,係揭露一種能用以對一輸入影像進行影像處理而提供對應其之深度資訊的影像處理方法與影像處理系統。本實施例擷取此輸入影像的方式例如是利用單一取像設備來擷取。此外,本實施例所適用之輸入影像中的場景物件例如為單一取像設備所擷取之真實的物件、人物、或景觀,亦可以是利用基於電腦動畫技術所產生的立體物件。
請參照第1A圖,其繪示依照本發明一實施例之影像處理方法之流程圖。此影像處理方法用以依據一輸入影像產生對應之深度資訊,例如是一深度地圖(depth map)。此方法包括下列步驟。
首先,如步驟S110所示,依據輸入影像產生一參考影像。接著,如步驟S120所示,分別將輸入影像與參考影像分為對應之多個輸入影像區塊與多個參考影像區塊。
之後,如步驟S130所示,依據對應之各輸入影像區塊與各參考影像區塊所分別包含之多筆輸入畫素資料與多筆參考畫素資料,取得各輸入影像區塊所對應之變異量強度。
然後,如步驟S140所示,對輸入影像進行影像分割處理,以取得多個分割區域。接著,如步驟S150所示,依據各個分割區域所實質上涵蓋對應之輸入影像區塊之此些變異量強度來產生深度資訊。
茲以一影像處理系統將第1A圖之影像處理方法的詳細作法說明如下。請繼續參照第1A圖,並請同時參照第1B圖,其繪示依照本發明一實施例之影像處理系統之方塊圖。影像處理系統100包括一輸入單元110、一參考影像產生單元120、一變異量強度產生單元130、一影像分割單元140、與一輸出單元150。本實施例之影像處理系統100用以執行第1A圖之影像處理方法。
首先,在本實施例進入步驟S110前,可由輸入單元110先擷取一原始影像Im,例如是彩色之原始影像(未繪示)。原始影像Im之畫素資料例如由YCbCr之色彩空間所定義。而由於人眼對亮度(luminance)變化的感受較為敏銳,故本實施例係以原始影像Im之亮度成分作為輸入影像IY。
請參照第3圖,其繪示為一輸入影像IY之示意圖一例。本實施例所使用之輸入影像例如是輸入影像IY,且此輸入影像IY例如為保留了彩色原始影像Im之YCbCr色彩空間之Y通道(Y channel)成分的影像。
然後,本實施例進入步驟S110。於步驟S110中,參考影像產生單元120依據輸入影像IY產生一參考影像IR。
請參照第4圖,其繪示為一參考影像IR之示意圖一例。產生參考影像IR之方式可為,對輸入影像IY進行模糊化處理來產生參考影像,例如是參考影像IR。舉例來說,參考影像產生單元120在產生參考影像IR時,可利用一低通濾波器(low-pass filter)(例如高斯濾波器(Gaussian filter))、或一平均遮罩(average mask)來對輸入影像IY進行模糊化處理。
接著,於步驟S120中,變異量強度產生單元130分別將輸入影像IY與參考影像IR分為對應之多個輸入影像區塊與多個參考影像區塊。
請參照第5圖及第6圖,其分別繪示為將第3及4圖之輸入影像IY與參考影像IR分為多個輸入影像區塊YB1~YBk與參考影像區塊RB1~RBk之一例。於本實施例中,輸入影像IY可被分為多個輸入影像區塊,例如是輸入影像區塊YB1~YBk。而參考影像IR亦可以此方式來分為多個參考影像區塊,例如是參考影像區塊RB1~RBk。於此些輸入影像區塊YB1~YBk與參考影像區塊RB1~RBk中,對應之一個輸入影像區塊(如輸入影像區塊YB1)與一個參考影像區塊(如參考影像區塊RB1)具有相同的影像解析度與畫素數量。
之後,於步驟S130中,變異量強度產生單元130依據對應之各輸入影像區塊與各參考影像區塊所分別包含之多筆輸入畫素資料與多筆參考畫素資料,取得各輸入影像區塊所對應之變異量強度VM1~VMk。
請參照第7圖,其繪示為第5圖之此些輸入影像區塊YB1~YBk所對應之變異量強度VM1~VMk之一例。第7圖之此些區塊係對應至第5圖之此些輸入影像區塊YB1~YBk,而此些區塊所指示之數值係用以表示為本實施例所取得之變異量強度VM1~VMk。換言之,一個輸入影像區塊(如輸入影像區塊YB1)係對應至一個變異量強度(如變異量強度VM1所示)。
詳言之,步驟S130可包含步驟S132~S136。請參照第2圖,其繪示乃步驟S130所包含之步驟S132~S136之流程圖。
於步驟S132中,變異量強度產生單元130計算一個輸入影像區塊與對應之一個參考影像區塊所分別包含之各筆輸入畫素資料與各筆參考畫素資料於水平方向之變化與於垂直方向之變化。接著,變異量強度產生單元130再依據計算結果產生輸入影像區塊所對應之一水平總體變異量與一垂直總體變異量。
茲以輸入影像區塊YB1為例,將如何產生輸入影像區塊YB1所對應之水平總體變異量與垂直總體變異量說明如下。請參照第5圖及第6圖,假設輸入影像區塊YB1與對應之參考影像區塊RB1各包含m×n筆畫素資料,則對第I(i,j) 筆畫素資料而言,i 為0至(m-1)之整數,j 為0至(n-1)之整數。
於步驟S132中,在產生輸入影像區塊YB1所對應之水平總體變異量時,水平總體變異量例如以下列式子來產生:
D_Ihor(i,j)=Abs(I(i,j)-I(i-1,j)),for i=1 to m-1,j=0 to n-1  (式1)
D_Rhor(i,j)=Abs(R(i,j)-R(i-1,j)),for i=1 to m-1,j=0 to n-l  (式2)
D_Vhor(i,j)=Max(0,D_Ihor(i,j)-D_Rhor(i,j)),for i=1 to m-1,j=1 to n-1  (式3)
其中,I(i,j) 表示為輸入影像區塊YB1之第(i,j) 筆輸入畫素資料;R(i,j) 表示為參考影像區塊RB1之第(i,j) 筆參考畫素資料;Abs(‧) 表示進行絕對值之運算;Max(‧) 表示進行最大值之運算;D_Ihor(i,j) 表示為輸入影像區塊YB1之第(i,j) 筆輸入畫素資料於水平方向之變化;D_Rhor(i,j) 表示為參考影像區塊RB1之第(i,j) 筆參考畫素資料於水平方向之變化;D_Vhor(i,j) 表示為輸入影像區塊YB1之第(i,j) 筆輸入畫素資料之水平變異量絕對差值;s_Vhor 表示為輸入影像區塊YB1之所有輸入畫素資料的水平總體變異量。
再者,於步驟S132中,在產生輸入影像區塊YB1所對應之垂直總體變異量時,垂直總體變異量例如以下列式子來產生:
D_Iver(i,j)=Abs(I(i,j)-I(i,j-1)),for j=1 to n-1,i=0 to m-1  (式5)
D_Rver(i,j)=Abs(R(i,j)-R(i,j-1)),for j=1 to n-1,i=0 to m-1  (式6)
D_Vver(i,j)=Max(0,D_Iver(i,j)-D_Rver(i,j)),for i=1 to m_1,j=1 to n_1  (式7)
其中,D_Iver(i,j) 表示為輸入影像區塊YB1之第(i,j) 筆輸入畫素資料於垂直方向之變化;D_Rver(i,j) 表示為參考影像區塊RB1之第(i,j) 筆參考畫素資料於垂直方向之變化;D_Vver(i,j) 表示為輸入影像區塊YB1之第(i,j) 筆輸入畫素資料之垂直變異量絕對差值;s_Vver 表示為輸入影像區塊YB1之所有輸入畫素資料的垂直總體變異量。
在步驟S132之後,接著,如步驟S13A所示,變異量強度產生單元130正規化水平總體變異量與垂直總體變異量。
變異量強度產生單元130在正規化水平總體變異量與水平總體變異量時,例如係以一水平正規化參考值來對水平總體變異量進行正規化,並以一垂直正規化參考值來對垂直總體變異量進行正規化。水平正規化參考值與垂直正規化參考值例如以下列式子來取得:
其中,s_Ihor 表示為水平正規化參考值;s_Iver 表示為垂直正規化參考值。
於本實施例中,正規化水平總體變異量與垂直總體變異量之方式如下:
其中,c_Ihor 表示為正規化後之水平總體變異量;c_Iver 表示為正規化後之垂直總體變異量;正規化後之水平總體變異量與垂直總體變異量係介於0至1之間。
之後,如步驟S136所示,變異量強度產生單元130依據正規化後之水平總體變異量與垂直總體變異量,來取得輸入影像區塊所對應之變異量強度。
舉例來說,於一實施例中,變異量強度產生單元130在取得輸入影像區塊YB1所對應之變異量強度VM1時,變異量強度產生單元130係將正規化後之水平總體變異量與垂直總體變異量之較大者,作為輸入影像區塊YB1所對應之變異量強度VM1。詳言之,輸入影像區塊YB1所對應之變異量強度VM1例如可以下列式子來取得:
cVar=Max (c_Iver,c_Ihor ) (式13)
其中,cVar 表示為輸入影像區塊YB1所對應之變異量強度VM1。
於另一實施例中,變異量強度產生單元130在取得輸入影像區塊YB1所對應之變異量強度VM1時,變異量強度產生單元130係計算出正規化後之水平總體變異量與垂直總體變異量之幾和平均數,來作為輸入影像區塊YB1所對應之變異量強度VM1。詳言之,輸入影像區塊YB1所對應之變異量強度VM1亦例如能以下列式子來取得:
上述係應用式13或式14之指標計算方式,以依據正規化後之水平總體變異量與垂直總體變異量來取得輸入影像區塊YB1所對應之變異量強度VM1,然其係用以說明本發明之用,而非用以限制本發明。本發明應可利用其他種指標計算方式來取得輸入影像區塊YB1所對應之變異量強度VM1。
如此,重複執行步驟S132~S136,將能取得如第7圖所示之此些輸入影像區塊YB1~YBk所對應之變異量強度VM1~VMk。
接著,本實施例進入步驟S140。於步驟S140中,影像分割單元140對輸入影像IY進行影像分割處理,以取得多個分割區域DA1~DAx。影像分割單元140在對輸入影像進行影像分割處理時,可利用影像灰階的不連續性,或可依據影像色彩、紋理、或空間之相似性,來將具有相同質性的區域分割出來。舉例來說,影像分割單元140對輸入影像IY進行影像分割處理之方式可為,以邊緣偵測(edge detection)之方式來進行分割,或以區域成長(region growing)之方式來進行分割。
請參照第8圖,其繪示為對第3圖之輸入影像IY進行影像分割處理後所取得之多個分割區域DA1~DAx之一例。影像分割單元140對輸入影像IY進行影像分割處理後,將可取得此多個分割區域DA1~DAx。
於步驟S140後,本實施例將能取得多個輸入影像區塊YB1~YBk所對應的變異量強度VM1~VMk(如第7圖所示),以及輸入影像IY之多個分割區域DA1~DAx(如第8圖所示)。之後,本實施例便能利用輸入影像區塊YB1~YBk所對應的變異量強度VM1~VMk,來決定出能合適地代表各個分割區域DA1~DAx之深度的數值,從而產生對應至輸入影像IY之深度資訊。如此,本實施例不用花費大量時間在對輸入影像進行分類的實驗上,即能利用一張輸入影像來產生其所對應之深度資訊。
具體來說,於步驟S150中,輸出單元150依據各個分割區域DA1~DAx所實質上涵蓋對應之輸入影像區塊之此些變異量強度VM1~VMk來產生深度資訊。深度資訊例如為一深度地圖DM。
詳言之,輸出單元150在依據所選取之此些變異量強度VM1~VMk來產生深度資訊時,例如係先依據各個分割區域DA1~DAx所實質上涵蓋對應之輸入影像區塊之此些變異量強度VM1~VMk,來取得各個分割區域DA1~DAx所對應之一變異量強度代表值。之後,再依據此些分割區域DA1~DAx所對應之變異量強度代表值來產生深度資訊。
舉例來說,請同時參照第7圖與第8圖。在依據一個分割區域DA1所實質上涵蓋對應之輸入影像區塊之此些變異量強度時,可先選取此分割區域DA1所實質上涵蓋對應之此些輸入影像區塊YB1~YBk之此些變異量強度VM1~VMk,例如是選取輸入影像區塊YB(a1)~YB(an)所對應之此些變異量強度VM(a1)~VM(an)。輸入影像區塊YB(a1)~YB(an)所對應之此些變異量強度VM(a1)~VM(an)係實質上涵蓋於一個對應區域DA1’之中。而對應區域DA1’與分割區域DA1係具有相近之面積與位置。
接著,在選取此些變異量強度VM(a1)~VM(an)後,本實施例之輸出單元150再依據所選取之此些變異量強度VM(a1)~VM(an)來取得分割區域DA1所對應之一變異量強度代表值。於一實施例中,輸出單元150取得分割區域DA1所對應之變異量強度代表值之方式例如但不限制地為,計算分割區域DA1所實質上涵蓋對應之輸入影像區塊之變異量強度(例如是所選取之此些變異量強度VM(a1)~VM(an))之均值,來作為分割區域DA1所對應之變異量強度代表值。於其他實施例中,輸出單元150亦可計算分割區域DA1所實質上涵蓋對應之輸入影像區塊之變異量強度之中間值,來作為分割區域DA1所對應之變異量強度代表值。然,均值與中間值之作法僅為用以說明本發明之用,並非用以限制本發明,只要能從分割區域DA1所實質上涵蓋對應之輸入影像區塊之變異量強度來找出能代表分割區域DA1之變異量強度的變異量強度代表值,皆在本發明之保護範圍中。
如此,依據上述之步驟(即取得分割區域DA1所對應之變異量強度代表值的步驟),便能取得所有分割區域DA1~DAx所對應之變異量強度代表值。其中,由於在步驟S136中,輸入影像區塊VM1~VMk所對應之變異量強度係以正規化後(介於0至1之間)的水平總體變異量與垂直總體變異量來取得,故此些變異量強度代表值會介於0至1之間。
然後,輸出單元150依據此些分割區域所對應之此些變異量強度代表值來產生深度資訊。於實作中,由於深度資訊例如具有8位元之灰階(grayscale),即深度地圖DM之各個畫素的灰階值係介於0至255之間,故本實施例之輸出單元150可藉由對此些變異量強度代表值進行線性對應(linear mapping)的方式來產生深度資訊。
於另一實施例中,輸出單元150亦可藉由對此些變異量強度代表值進行非線性(nonlinear)對應的方式來產生深度資訊。例如,可依據此些變異量強度代表值的直方圖(histogram)來將各個介於0至1之間的值延展至0至255之間。然亦不限於此,只要能將介於0至1之間之此些變異量強度代表值對應地轉換為所需之深度資訊,皆在本發明之保護範圍內。
請參照附圖1~6。附圖1為第3圖之輸入影像IY之一例。附圖2為第4圖之參考影像IR之一例。附圖3為第5圖之此些輸入影像區塊YB1~YBk之一例。附圖4為第7圖之此些輸入影像區塊YB1~YBk所對應之變異量強度VM1~VMk之一例。附圖5為第8圖之多個分割區域DA1~DAx之一例。附圖6為本發明一實施例之影像處理方法依照附圖4之變異量強度VM1~VMk與附圖5之分割區域DA1~DAx所產生之深度地圖DM之一例。
請同時參照附圖1與附圖6。於附圖6所示之深度地圖DM中,顏色愈亮(灰階度愈高)之處表示物體拍攝距離愈近,而顏色愈暗(灰階度愈低)之處表示物體拍攝距離愈遠。區域A1的顏色較亮,且此區域A1於輸入影像IY中係對應至距離較近的物體B1。對應地,區域A2的顏色較暗,且此區域A2於輸入影像IY中係對應至距離較遠的物體B2。因此,本實施例所產生之深度地圖DM確實能表現出輸入影像IY中之物體拍攝距離的遠近程度。
再者,請同時參照附圖6與附圖7。附圖7為利用位於美國加州之一間發展動態數位深度(Dynamic Digital Depth,DDD)的公司所提供之二維影像轉立體影像之技術來產生之深度地圖DM2。於附圖7所示之深度地圖DM2中,其深度配置是以影像中心向周圍遞減,亦即深度地圖DM2係以影像中間區域的距離較近、而影像周圍的距離較遠的方式來予以計算深度值。然而,此方式將只能表現出位在影像中間區域之物體的立體感,而無法有效地表現出影像周圍之物體的立體感。舉例來說,於深度地圖DM2中,影像周圍之區域A3’於輸入影像IY中係對應至距離較近的物體B3,然而此區域A3’的顏色卻很暗(灰階度很低)。
於本實施例中,係利用影像之清晰的程度來突顯出物體在影像上的遠近關係。如此,將能精確地呈現影像中之物體的立體感。舉例來說,相較於傳統之深度地圖DM2,於本實施例所產生之深度地圖DM中,影像周圍之區域A3的顏色很亮,且此區域A3於輸入影像IY中係對應至距離較近的物體B3。因此,本實施例不會有使得立體感降低的問題,而能夠有效地表現出影像(包含影像中心和周圍)之物體的立體感。
此外,於一實施例中,此影像處理方法可更用以產生一立體(three-dimensional)影像Im3D。請參照第1B圖,影像處理系統100所應用之影像處理方法例如可更包括以下步驟:提供輸入影像與對應之深度資訊至影像處理系統100所包含之一立體顯示器160。例如,可由一處理單元170來依據輸入影像IY與對應之深度資訊(如深度地圖DM)產生一多視角影像,並以交錯(interlace)的方式將多視角影像轉換為一交錯影像Imit,並提供至立體顯示器160。如此,立體顯示器160便能產生具有立體視覺(stereo vision)效果之立體影像Im3D。
本發明上述實施例所揭露之影像處理方法及其影像處理系統,依據一輸入影像與對應產生之一參考影像來產生輸入影像之多個輸入影像區塊所對應的變異量強度,並依據此些變異量強度來決定出能合適地代表各個輸入影像之各個分割區域之深度值的數值。如此,將不用花費大量時間在對輸入影像進行分類的實驗上,而能利用一張輸入影像來產生其所對應之深度資訊。此深度資訊確實能表現出輸入影像中之物體拍攝距離的遠近程度,且能精確地呈現影像中之物體的立體感。
綜上所述,雖然本發明已以一較佳實施例揭露如上,然其並非用以限定本發明。本發明所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可作各種之更動與潤飾。因此,本發明之保護範圍當視後附之申請專利範圍所界定者為準。
100...影像處理系統
110...輸入單元
120...參考影像產生單元
130...變異量強度產生單元
140‧‧‧影像分割單元
150‧‧‧輸出單元
160‧‧‧立體顯示器
DA1~DAx‧‧‧分割區域
DM、DM2‧‧‧深度地圖
Im‧‧‧原始影像
IR‧‧‧參考影像
IY‧‧‧輸入影像
RB1~RBk‧‧‧參考影像區塊
S110~S150、S132~S136‧‧‧流程步驟
YB1~YBk、YB(a1)~YB(an)‧‧‧輸入影像區塊
VM1~VMk、VM(a1)~VM(an)‧‧‧變異量強度
第1A圖繪示依照本發明一實施例之影像處理方法之流程圖。
第1B圖繪示依照本發明一實施例之影像處理系統之方塊圖。
第2圖繪示乃步驟S130所包含之步驟S132~S136之流程圖。
第3圖繪示為一輸入影像之示意圖一例。
第4圖其繪示為一參考影像之示意圖一例。
第5圖及第6圖分別繪示為將第3及4圖之輸入影像與參考影像分為多個輸入影像區塊與參考影像區塊之一例。
第7圖繪示為第5圖之此些輸入影像區塊所對應之變異量強度之一例。
第8圖繪示為對第3圖之輸入影像進行影像分割處理後所取得之多個分割區域之一例。
S110~S150...流程步驟

Claims (38)

  1. 一種影像處理方法,用以依據一輸入影像產生對應之一深度資訊(depth information),該方法包括:依據該輸入影像產生一參考影像;分別將該輸入影像與該參考影像分為對應之複數個輸入影像區塊與複數個參考影像區塊;依據對應之各該輸入影像區塊與各該參考影像區塊所分別包含之複數筆輸入畫素資料與複數筆參考畫素資料,取得各該輸入影像區塊所對應之變異量強度;對該輸入影像進行影像分割處理,以取得複數個分割區域;以及依據各個分割區域所實質上涵蓋對應之該些輸入影像區塊之該些變異量強度來產生該深度資訊;其中取得各該輸入影像區塊所對應之變異量強度係包括:計算一個輸入影像區塊與對應之一個參考影像區塊所分別包含之各筆輸入畫素資料與各筆參考畫素資料於水平方向之變化與於垂直方向之變化,並依據計算結果產生該輸入影像區塊所對應之一水平總體變異量與一垂直總體變異量;以及依據該水平總體變異量與該垂直總體變異量,取得該輸入影像區塊所對應之變異量強度。
  2. 如申請專利範圍第1項所述之方法,其中之產生該參考影像,係對該輸入影像進行模糊化處理來產生該參考影像。
  3. 如申請專利範圍第2項所述之方法,其中之對該輸入影像進行模糊化處理,係利用一低通濾波器(low-pass filter)或一平均遮罩(average mask)來對該輸入影像進行模糊化處理。
  4. 如申請專利範圍第1項所述之方法,其中該輸入影像區塊與對應之該參考影像區塊各包含m×n筆畫素資料,且於產生該輸入影像區塊所對應之該水平總體變異量之步驟中,該水平總體變異量係以下列式子來產生:D_Ihor(i,j) =Abs(I(i,j)-I(i-1,j)),for i =1 to m-1,j =0 to n-1D_Rhor(i,j) =Abs(R(i,j)-R(i-1,j)),for i =1 to m-1,j =0 to n-1D_Vhor(i,j) =Max(0,D_Ihor(i,j)-D_Rhor(i,j)),for i =1 to m-1,j =1 to n-1 ;以及 其中,I(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料;R(i,j) 表示為該參考影像區塊之第(i,j) 筆參考畫素資料;Abs(.) 表示進行絕對值之運算;Max(.) 表示進行最大值之運算;D_Ihor(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料於水平方向之變化;D_Rhor(i,j) 表示為該參考影像區塊之第(i,j) 筆參考畫素資料於水平方向之變化;D_Vhor(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料之水平變異量絕對差值;及s_Vhor 表示為該輸入影像區塊之該些輸入畫素資料的該水平總體變異量。
  5. 如申請專利範圍第1項所述之方法,其中該輸入影像區塊與對應之該參考影像區塊各包含m×n筆畫素資料,且於產生該輸入影像區塊所對應之該垂直總體變異量之步驟中,該垂直總體變異量係以下列式子來產生:D_Iver(i,j) =Abs(I(i,j)-I(i,j-1)),for j =1 to n-1,i =0 to m-1D_Rver(i,j) =Abs(R(i,j)-R(i,j-1)),for j =1 to n-1,i =0 to m-1D_Vver(i,j) =Max(0,D_Iver(i,j)-D_Rver(i,j)),for i =1 to m-1,j =1 to n-1 ;以及 其中,I(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料;R(i,j) 表示為該參考影像區塊之第(i,j) 筆參考畫素資料;Abs(.) 表示進行絕對值之運算;Max(.) 表示進行最大值之運算;D_Iver(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料於垂直方向之變化;D_Rver(i,j) 表示為該參考影像區塊之第(i,j) 筆參考畫素資料於垂直方向之變化;D_Vver(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料之垂直變異量絕對差值;及s_Vver 表示為該輸入影像區塊之該些輸入畫素資料的該垂直總體變異量。
  6. 如申請專利範圍第1項所述之方法,其中於取得該輸入影像區塊所對應之變異量強度之步驟前,該方法更包括:正規化該水平總體變異量與該垂直總體變異量;其中於取得該輸入影像區塊所對應之變異量強度之步驟中,係依據正規化後之該水平總體變異量與該垂直總體變異量,來取得該輸入影像區塊所對應之變異量強度。
  7. 如申請專利範圍第6項所述之方法,其中於正規化該水平總體變異量與該垂直總體變異量之步驟中,係以一水平正規化參考值來對該水平總體變異量進行正規化,並以一垂直正規化參考值來對該垂直總體變異量進行正規化。
  8. 如申請專利範圍第7項所述之方法,其中該輸入影像區塊對應之該參考影像區塊各包含m×n筆畫素資料,且該水平正規化參考值與該垂直正規化參考值係以下列式子來取得:D_Ihor(i,j) =Abs(I(i,j)-I(i-1,j)),for i =1 to m-1,j =0 to n-1D_Iver(i,j) =Abs(I(i,j)-I(i,j-1)),for j =1 to n-1,i =0 to m-1;以及 其中,I(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料;Abs(.) 表示進行絕對值之運算;D_Ihor(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料於水平方向之變化;D_Iver(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料於垂直方向之變化;s_Ihor 表示為該水平正規化參考值;及s_Iver 表示為該垂直正規化參考值。
  9. 如申請專利範圍第6項所述之方法,其中在取得該輸入影像區塊所對應之變異量強度時,係將正規化後之該水平總體變異量與該垂直總體變異量之較大者,作為該輸入影像區塊所對應之變異量強度。
  10. 如申請專利範圍第6項所述之方法,其中在取得該輸入影像區塊所對應之變異量強度時,係計算出正規化後之該水平總體變異量與該垂直總體變異量之幾和平均數,來作為該輸入影像區塊所對應之變異量強度。
  11. 如申請專利範圍第1項所述之方法,其中對該輸入影像進行影像分割處理之步驟中,係以邊緣偵測(edge detection)之方式來進行分割。
  12. 如申請專利範圍第1項所述之方法,其中對該輸入影像進行影像分割處理之步驟中,係以區域成長(region growing)之方式來進行分割。
  13. 如申請專利範圍第1項所述之方法,其中產生該深度資訊之步驟包括:依據各個分割區域所實質上涵蓋對應之該些輸入影像區塊之該些變異量強度,來取得各個分割區域所對應之一變異量強度代表值;以及依據該些分割區域所對應之該些變異量強度代表值來產生該深度資訊。
  14. 如申請專利範圍第13項所述之方法,其中於取得各個分割區域所對應之該變異量強度代表值之步驟包括:計算一個分割區域所實質上涵蓋對應之該些輸入影像區塊之該些變異量強度之均值,來作為該分割區域所對應之該變異量強度代表值。
  15. 如申請專利範圍第13項所述之方法,其中於取得各個分割區域所對應之該變異量強度代表值之步驟包括:計算一個分割區域所實質上涵蓋對應之該些輸入影像區塊之該些變異量強度之中間值,來作為該分割區域所對應之該變異量強度代表值。
  16. 如申請專利範圍第13項所述之方法,其中產生該深度資訊之步驟中,係以對該些變異量強度代表值進行線性對應(linear mapping)的方式來產生。
  17. 如申請專利範圍第13項所述之方法,其中產生該深度資訊之步驟中,係以對該些變異量強度代表值進行 非線性(nonlinear)對應的方式來產生。
  18. 如申請專利範圍第1項所述之方法,更用以產生一立體(three-dimensional)影像,且該方法更包括:提供該輸入影像與對應之該深度資訊至一立體顯示器,以使該立體顯示器產生具有立體視覺(stereo vision)效果之該立體影像。
  19. 如申請專利範圍第1項所述之方法,更包括:擷取一原始影像,並以該原始影像之亮度(luminance)成分作為該輸入影像。
  20. 一種影像處理系統,用以依據一輸入影像產生對應之一深度資訊(depth information),該影像處理系統包括:一輸入單元,用以取得該輸入影像;一參考影像產生單元,用以依據該輸入影像產生一參考影像;一變異量強度產生單元,用以分別將該輸入影像與該參考影像分為對應之複數個輸入影像區塊與複數個參考影像區塊,並用以依據對應之各該輸入影像區塊與各該參考影像區塊所分別包含之複數筆輸入畫素資料與複數筆參考畫素資料,取得各該輸入影像區塊所對應之變異量強度;一影像分割單元,用以對該輸入影像進行影像分割處理,以取得複數個分割區域;以及一輸出單元,用以依據各個分割區域所實質上涵蓋對應之該些輸入影像區塊之該些變異量強度來產生該深度 資訊;其中該變異量強度產生單元在取得各該輸入影像區塊所對應之變異量強度時,該變異量強度產生單元係計算一個輸入影像區塊與對應之一個參考影像區塊所分別包含之各筆輸入畫素資料與各筆參考畫素資料於水平方向之變化與於垂直方向之變化,並依據計算結果產生該輸入影像區塊所對應之一水平總體變異量與一垂直總體變異量,該變異量強度產生單元更依據該水平總體變異量與該垂直總體變異量取得該輸入影像區塊所對應之變異量強度。
  21. 如申請專利範圍第20項所述之影像處理系統,其中該參考影像產生單元係對該輸入影像進行模糊化處理來產生該參考影像。
  22. 如申請專利範圍第21項所述之影像處理系統,其中該參考影像產生單元係利用一低通濾波器(low-pass filter)或一平均遮罩(average mask)來對該輸入影像進行模糊化處理。
  23. 如申請專利範圍第20項所述之影像處理系統,其中該輸入影像區塊與對應之該參考影像區塊各包含m×n筆畫素資料,且該變異量強度產生單元係以下列式子來產生該輸入影像區塊所對應之該水平總體變異量:D_Ihor(i,j) =Abs(I(i,j)-I(i-1,j)),for i =1 to m-1,j =0 to n-1D_Rhor(i,j) =Abs(R(i,j)-R(i-1,j)),for i =1 to m-1,j =0 to n-1D_Vhor(i,j) =Max(0,D_Ihor(i,j)-D_Rhor(i,j)),for i =1 to m-1,j =1 to n-1 ;以及 其中,I(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料;R(i,j) 表示為該參考影像區塊之第(i,j) 筆參考畫素資料;Abs(.) 表示進行絕對值之運算;Max(.) 表示進行最大值之運算;D_Ihor(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料於水平方向之變化;D_Rhor(i,j) 表示為該參考影像區塊之第(i,j) 筆參考畫素資料於水平方向之變化;D_Vhor(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料之水平變異量絕對差值;及s_Vhor 表示為該輸入影像區塊之該些輸入畫素資料的該水平總體變異量。
  24. 如申請專利範圍第20項所述之影像處理系統,其中該輸入影像區塊與對應之該參考影像區塊各包含m×n筆畫素資料,且該變異量強度產生單元係以下列式子來產生該輸入影像區塊所對應之該垂直總體變異量:D_Iver(i,j) =Abs(I(i,j)-I(i,j-1)),for j =1 to n-1,i =0 to m-1D_Rver(i,j) =Abs(R(i,j)-R(i,j-1)),for j =1 to n-1,i =0 to m-1D_Vver(i,j) =Max(0,D_Iver(i,j)-D_Rver(i,j)),for i =1 to m-1,j =1 to n-1 ;以及 其中,I(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料;R(i,j) 表示為該參考影像區塊之第(i,j) 筆參考畫素資料;Abs(.) 表示進行絕對值之運算;Max(.) 表示進行最大值之運算;D_Iver(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料於垂直方向之變化;D_Rver(i,j) 表示為該參考影像區塊之第(i,j) 筆參考畫素資料於垂直方向之變化;D_Vver(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料之垂直變異量絕對差值;及s_Vver 表示為該輸入影像區塊之該些輸入畫素資料的該垂直總體變異量。
  25. 如申請專利範圍第20項所述之影像處理系統,其中該變異量強度產生單元更用以正規化該水平總體變異量與該垂直總體變異量,並依據正規化後之該水平總體變異量與該垂直總體變異量,來取得該輸入影像區塊所對應之變異量強度。
  26. 如申請專利範圍第25項所述之影像處理系統,其中該變異量強度產生單元係以一水平正規化參考值來對該水平總體變異量進行正規化,並以一垂直正規化參考 值來對該垂直總體變異量進行正規化。
  27. 如申請專利範圍第26項所述之影像處理系統,其中該輸入影像區塊對應之該參考影像區塊各包含m×n筆畫素資料,且該變異量強度產生單元係以下列式子來取得該水平正規化參考值與該垂直正規化參考值:D_Ihor(i,j) =Abs(I(i,j)-I(i-1,j)),for i =1 to m-1,j =0 to n-1D_Iver(i,j) =Abs(I(i,j)-I(i,j-1)),for j =1 to n-1,i =0 to m-1;以及 其中,I(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料;Abs(.) 表示進行絕對值之運算;D_Ihor(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料於水平方向之變化;D_Iver(i,j) 表示為該輸入影像區塊之第(i,j) 筆輸入畫素資料於垂直方向之變化;s_Ihor 表示為該水平正規化參考值;及s_Iver 表示為該垂直正規化參考值。
  28. 如申請專利範圍第25項所述之影像處理系統,其中該變異量強度產生單元係將正規化後之該水平總體變異量與該垂直總體變異量之較大者,作為該輸入影像區塊所對應之變異量強度。
  29. 如申請專利範圍第25項所述之影像處理系統,其中該變異量強度產生單元係計算出正規化後之該水平總體變異量與該垂直總體變異量之幾和平均數,來作為該輸入影像區塊所對應之變異量強度。
  30. 如申請專利範圍第20項所述之影像處理系統,其中該影像分割單元係以邊緣偵測(edge detection)之方式來對該輸入影像進行影像分割處理。
  31. 如申請專利範圍第20項所述之影像處理系統,其中該影像分割單元係以區域成長(region growing)之方式來對該輸入影像進行影像分割處理。
  32. 如申請專利範圍第20項所述之影像處理系統,其中該輸出單元在產生該深度資訊時,係依據各個分割區域所實質上涵蓋對應之該些輸入影像區塊之該些變異量強度來取得各個分割區域所對應之一變異量強度代表值,再依據該些分割區域所對應之該些變異量強度代表值來產生該深度資訊。
  33. 如申請專利範圍第32項所述之影像處理系統,其中該輸出單元係計算一個分割區域所實質上涵蓋對應之該些輸入影像區塊之該些變異量強度之均值,來作為該分割區域所對應之該變異量強度代表值。
  34. 如申請專利範圍第32項所述之影像處理系統,其中該輸出單元係計算一個分割區域所實質上涵蓋對應之該些輸入影像區塊之該些變異量強度之中間值,來作為該分割區域所對應之該變異量強度代表值。
  35. 如申請專利範圍第32項所述之影像處理系統, 其中該輸出單元係以對該些變異量強度代表值進行線性對應(linear mapping)的方式來產生該深度資訊。
  36. 如申請專利範圍第32項所述之影像處理系統,其中該輸出單元係以對該些變異量強度代表值進行非線性(nonlinear)對應的方式來產生該深度資訊。
  37. 如申請專利範圍第20項所述之影像處理系統,更包括:一立體顯示器,用以接收該輸入影像與對應之該深度資訊,而產生具有立體視覺(stereo vision)效果之一立體影像。
  38. 如申請專利範圍第20項所述之影像處理系統,其中該輸入單元更用以擷取一原始影像,並以該原始影像之亮度(luminance)成分作為該輸入影像。
TW098109603A 2009-03-24 2009-03-24 提供深度資訊之影像處理方法及其影像處理系統 TWI457853B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW098109603A TWI457853B (zh) 2009-03-24 2009-03-24 提供深度資訊之影像處理方法及其影像處理系統
US12/632,954 US8565513B2 (en) 2009-03-24 2009-12-08 Image processing method for providing depth information and image processing system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW098109603A TWI457853B (zh) 2009-03-24 2009-03-24 提供深度資訊之影像處理方法及其影像處理系統

Publications (2)

Publication Number Publication Date
TW201035906A TW201035906A (en) 2010-10-01
TWI457853B true TWI457853B (zh) 2014-10-21

Family

ID=42784315

Family Applications (1)

Application Number Title Priority Date Filing Date
TW098109603A TWI457853B (zh) 2009-03-24 2009-03-24 提供深度資訊之影像處理方法及其影像處理系統

Country Status (2)

Country Link
US (1) US8565513B2 (zh)
TW (1) TWI457853B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110210960A1 (en) * 2010-02-26 2011-09-01 Google Inc. Hierarchical blurring of texture maps
EP2691932B1 (en) * 2011-03-28 2019-07-24 Koninklijke Philips N.V. Contrast-dependent resolution image
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
DE102011121473A1 (de) * 2011-12-17 2013-06-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung, Kraftfahrzeug und Computerprogramm
US8824778B2 (en) 2012-01-13 2014-09-02 Cyberlink Corp. Systems and methods for depth map generation
US9460366B2 (en) 2014-02-19 2016-10-04 Nant Holdings Ip, Llc Invariant-based dimensional reduction of object recognition features, systems and methods
TWI674558B (zh) * 2018-06-12 2019-10-11 財團法人工業技術研究院 數值陣列資料影像處理裝置、數值陣列資料影像處理方法及色碼表產生方法
CN110889851B (zh) * 2018-09-11 2023-08-01 苹果公司 针对深度和视差估计的语义分割的稳健用途
WO2022088022A1 (zh) * 2020-10-30 2022-05-05 深圳市大疆创新科技有限公司 三维图像处理方法、装置、可移动平台及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432331A (en) * 1994-06-07 1995-07-11 Eastman Kodak Company Method and apparatus for detecting focus of moving images with tilted plane detector and time delay means
US6778692B1 (en) * 2000-08-11 2004-08-17 General Electric Company Image processing method and apparatus including image improving circuit
US20070019883A1 (en) * 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
US20070036427A1 (en) * 2005-08-15 2007-02-15 Makibi Nakamura Depth information for auto focus using two pictures and two-dimensional gaussian scale space theory

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6157733A (en) * 1997-04-18 2000-12-05 At&T Corp. Integration of monocular cues to improve depth perception
US6219461B1 (en) * 1997-07-29 2001-04-17 Cognex Corporation Determining a depth
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
EP1316068A1 (en) * 2000-08-09 2003-06-04 Dynamic Digital Depth Research Pty. Ltd. Image conversion and encoding techniques
US7120293B2 (en) * 2001-11-30 2006-10-10 Microsoft Corporation Interactive images
US7302096B2 (en) * 2002-10-17 2007-11-27 Seiko Epson Corporation Method and apparatus for low depth of field image segmentation
US7303131B2 (en) * 2004-07-30 2007-12-04 Symbol Technologies, Inc. Automatic focusing system for imaging-based bar code reader
JP2009515404A (ja) * 2005-11-04 2009-04-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マルチビューディスプレイのための画像データの再生
US7616254B2 (en) * 2006-03-16 2009-11-10 Sony Corporation Simple method for calculating camera defocus from an image scene
US8077964B2 (en) * 2007-03-19 2011-12-13 Sony Corporation Two dimensional/three dimensional digital information acquisition and display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432331A (en) * 1994-06-07 1995-07-11 Eastman Kodak Company Method and apparatus for detecting focus of moving images with tilted plane detector and time delay means
US6778692B1 (en) * 2000-08-11 2004-08-17 General Electric Company Image processing method and apparatus including image improving circuit
US20070019883A1 (en) * 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
US20070036427A1 (en) * 2005-08-15 2007-02-15 Makibi Nakamura Depth information for auto focus using two pictures and two-dimensional gaussian scale space theory

Also Published As

Publication number Publication date
US20100246938A1 (en) 2010-09-30
TW201035906A (en) 2010-10-01
US8565513B2 (en) 2013-10-22

Similar Documents

Publication Publication Date Title
TWI457853B (zh) 提供深度資訊之影像處理方法及其影像處理系統
US9171372B2 (en) Depth estimation based on global motion
Conze et al. Objective view synthesis quality assessment
EP3311361B1 (en) Method and apparatus for determining a depth map for an image
TWI767985B (zh) 用於處理影像性質圖的方法及裝置
US20110148868A1 (en) Apparatus and method for reconstructing three-dimensional face avatar through stereo vision and face detection
WO2012071356A1 (en) Depth estimation based on global motion
WO2011060579A1 (en) Method for generating depth maps from monocular images and systems using the same
CN102436671B (zh) 一种基于深度值非线性变换的虚拟视点绘制方法
CN110246111B (zh) 基于融合图像和强化图像的无参考立体图像质量评价方法
US9519956B2 (en) Processing stereo images
Jung et al. Depth sensation enhancement using the just noticeable depth difference
KR20110014067A (ko) 스테레오 컨텐트의 변환 방법 및 시스템
RU2419880C2 (ru) Способ и устройство для вычисления и фильтрации карты диспарантности на основе стерео изображений
KR20140118031A (ko) 영상 처리 장치 및 방법
Kuo et al. Depth estimation from a monocular view of the outdoors
Jung A modified model of the just noticeable depth difference and its application to depth sensation enhancement
CN101873506B (zh) 提供深度信息的影像处理方法及其影像处理系统
KR20160086802A (ko) 깊이 맵 생성 장치 및 방법과 이를 이용한 입체 영상 변환 장치 및 방법
JP2015095779A (ja) 画像処理装置、画像処理方法及び電子機器
CN109801257A (zh) 无参考dibr生成图像质量评价方法
CN117496019A (zh) 一种驱动静态图像的图像动画处理方法及系统
CN104982032B (zh) 3d图像数据分割的方法和装置
Maragatham et al. An automatic contrast enhancement method based on stochastic resonance
CN108830804B (zh) 基于线扩展函数标准差的虚实融合模糊一致性处理方法

Legal Events

Date Code Title Description
GD4A Issue of patent certificate for granted invention patent