TWI834744B - 使用具有不同視野的相機進行差異估測的電子裝置及方法 - Google Patents
使用具有不同視野的相機進行差異估測的電子裝置及方法 Download PDFInfo
- Publication number
- TWI834744B TWI834744B TW108138813A TW108138813A TWI834744B TW I834744 B TWI834744 B TW I834744B TW 108138813 A TW108138813 A TW 108138813A TW 108138813 A TW108138813 A TW 108138813A TW I834744 B TWI834744 B TW I834744B
- Authority
- TW
- Taiwan
- Prior art keywords
- image
- view
- field
- difference
- overlapping
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000000007 visual effect Effects 0.000 claims 23
- 230000004438 eyesight Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 22
- 230000000694 effects Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000012805 post-processing Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/133—Equalising the characteristics of different image components, e.g. their average brightness or colour balance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
本文中揭露一種電子裝置及方法。所述電子裝置包括:第一相機,具有第一視野(FOV);第二相機,具有較第一視野窄的第二視野;以及處理器,被配置成:使用第一相機拍攝第一影像,所述第一影像具有聯合視野;使用第二相機拍攝第二影像;確定第一影像與第二影像之間的交疊視野;基於交疊視野而產生差異估測值;產生聯合視野差異估測值;以及將聯合視野差異估測值與交疊視野差異估測值進行合併。
Description
本揭露大體而言是有關於一種影像處理系統。具體而言,本揭露是有關於一種使用具有不同視野的相機進行差異估測的方法及系統。
最近,人們對所拍攝的場景中的要素的真實世界深度的估測產生興趣。深度估測具有許多應用,例如將前景(近)物件與背景(遠)物件分開的能力。精確的深度估測使得場景中的感興趣的前景物件能夠與背景分開。精確的前景-背景分開使得能夠對所拍攝的影像進行處理以模仿例如焦外成像(Bokeh)效果等效果。焦外成像是背景的軟離焦(soft out-of-focus)模糊,背景的軟離焦模糊通常藉由在具有快鏡頭及寬孔徑的昂貴相機中使用正確的設定以及使相機更靠近主體且使主體距背景更遠以模仿淺景深(depth-of-field)來獲得。
精確的深度估測使得能夠處理來自非專業攝影者或鏡頭較小的相機(如行動電話相機)的影像,以獲得具有對主體聚焦的焦外成像效果的更美觀的影像。精確的深度估測的其他應用包括三維(three-dimensional,3D)物件重建及虛擬實境(virtual reality,VR)應用(在VR應用中,期望改變背景或主體並根據期望的VR呈現所述背景或主體)。根據所拍攝的場景進行精確深度估測的其他應用包括汽車自動化、監測相機、自動駕駛應用、以及藉由提高物件探測精確度及藉由僅使用相機的相機距離估測、或者相機輸入以及來自多個感測器的深度估測來增強安全性。
根據一個實施例,提供一種電子裝置。所述電子裝置包括:第一相機,具有第一視野(field of view,FOV);第二相機,具有較所述第一FOV窄的第二FOV;以及處理器,被配置成:使用所述第一相機拍攝第一影像,所述第一影像具有聯合FOV;使用所述第二相機拍攝第二影像;確定所述第一影像與所述第二影像之間的交疊FOV;基於所述交疊FOV而產生差異估測值;產生聯合FOV差異估測值;以及將所述聯合FOV差異估測值與所述交疊FOV差異估測值進行合併。
根據一個實施例,提供一種方法。所述方法包括:使用具有第一視野(FOV)的第一相機拍攝第一影像,所述第一影像具有聯合FOV;使用具有第二FOV的第二相機拍攝第二影像,所述第二FOV較所述第一FOV窄;確定所述第一影像與所述第二影像之間的交疊FOV;基於所述交疊FOV而產生差異估測值;產生聯合FOV差異估測值;以及將所述聯合FOV差異估測值與所述交疊FOV差異估測值進行合併。
在下文中,參照附圖詳細闡述本揭露的實施例。應注意,相同的元件將由相同的參考編號指示,儘管它們示出於不同的圖式中。在以下說明中,提供例如詳細配置及組件等具體細節僅是為了幫助全面理解本揭露的實施例。因此,對熟習此項技術者應顯而易見,在不背離本揭露的範圍的條件下可對本文所述的實施例作出各種改變及潤飾。另外,為清晰及簡潔起見,省略對眾所習知的功能及構造的說明。以下所述用語是考量到本揭露中的功能而定義的用語,且可根據使用者、使用者的意圖或習慣而有所不同。因此,該些用語的定義應基於本說明書通篇的內容來確定。
本揭露可具有各種潤飾及各種實施例,以下參照附圖詳細闡述其中的一些實施例。然而應理解,本揭露並非僅限於所述實施例,而是包括處於本揭露的範圍內的所有潤飾、等效形式及替代形式。
儘管可能使用包括例如「第一(first)」、「第二(second)」等序數詞的用語來闡述各種元件,但結構元件不受該些用語限制。該些用語僅用於區分各個元件。舉例而言,在不背離本揭露的範圍的條件下,「第一結構元件」可被稱為「第二結構元件」。相似地,「第二結構元件」亦可被稱為「第一結構元件」。本文中所用的用語「及/或(and/or)」包括一或多個相關項的任意及所有組合。
本文中所用的用語僅用於闡述本揭露的各種實施例,而並非旨在限制本揭露。除非上下文清楚地另外指明,否則單數形式旨在包括複數形式。在本揭露中,應理解,用語「包括(include)」或「具有(have)」指示特徵、數目、步驟、操作、結構元件、部件或其組合的存在,而不排除一或多個其他特徵、數字、步驟、操作、結構元件、部件或其組合的存在或添加的可能。
除非進行不同地定義,否則本文中所用的所有用語均具有與熟習本揭露所屬技術者所理解的含意相同的含意。例如在常用字典中所定義的用語等用語應被解釋為具有與相關技術領域中的上下文含意相同的含意,且除非在本揭露中進行清楚定義,否則不應將其解釋為具有理想化或過於正式的含意。
根據一個實施例的電子裝置可為各種類型的電子裝置中的一種。電子裝置可包括例如可攜式通訊裝置(例如,智慧型電話)、電腦、可攜式多媒體裝置、可攜式醫療裝置、相機、可穿戴裝置或家用電器。根據本揭露的一個實施例,電子裝置並非僅限於上述電子裝置。
本揭露中所用的用語並非旨在限制本揭露,而是旨在包括對對應實施例的各種改變、等效形式或替換形式。關於對附圖的說明,可使用相似的參考編號指代相似的或相關的元件。除非相關上下文清楚地另外指明,否則與物項對應的名詞的單數形式可包括一或多個事物。本文所用的例如「A或B」、「A及B中的至少一者」、「A或B中的至少一者」、「A、B或C」、「A、B、及C中的至少一者」及「A、B、或C中的至少一者」等片語中的每一者可包括與片語中的對應一個片語一同枚舉的物項的所有可能組合。本文所用的例如「第一(1st
、first)」及「第二(2nd、second)」等用語可用於將對應的組件與另一組件進行區分,而不旨在在其他態樣(例如,重要性或次序)對組件進行限制。本文意圖在於,若在帶有或不帶有用語「可操作地」或「可通訊地」的條件下將元件(例如,第一元件)稱為與另一元件(例如,第二元件)「耦合」、「耦合至」另一元件、與另一元件「連接」或「連接至」另一元件,則表示元件可直接地(例如,以有線方式)、無線地或藉由第三元件與另一元件耦合。
本文所用用語「模組」可包括以硬體、軟體或韌體形式實施的單元,且可與例如「邏輯」、「邏輯區塊」、「部件」及「電路系統」等其他用語互換使用。模組可為適以執行一或多種功能的單個整體組件或所述單個整體組件的最小單元或部件。舉例而言,根據一個實施例,模組可被實施為應用專用積體電路(application-specific integrated circuit,ASIC)的形式。
本系統及方法提供對由具有不同視野(FOV)的兩個相機拍攝的場景中的要素的真實深度的估測。可藉由計算兩個立體校正影像中的畫素之間的差異(例如,水平位移)來獲得根據所述兩個立體校正影像的精確的深度估測。
本系統及方法提供對所述兩個影像的FOV的聯合FOV中所有要素的深度的估測。可提供兩個相機,一個相機具有通常與低光學變焦(optical zoom)或無光學變焦相關聯的寬FOV,且另一相機具有常常與較大的光學變焦相關聯的較窄的FOV。最近的行動裝置配備有兩個或更多個相機。為利用額外的相機,常常將它們的鏡頭選擇成具有不同的光學變焦,以使所述裝置在近的物件及遠的物件二者處皆具有良好的解析度。具體而言,由於鏡頭及行動裝置的實體限制或者由於校準及安全目的(例如,自動駕駛(self-driving)應用),鏡頭的變焦水準不能由使用者改變。
本系統及方法可擴展至多個(例如,多於兩個)相機以自多個立體相機確定差異。
舉例而言,裝置中的一個鏡頭被設定成1倍變焦(例如,不放大)且具有廣角FOV(例如,寬FOV),而裝置中的另一鏡頭具有2倍變焦(例如,放大2倍)且具有較窄的攝遠FOV(例如,遠程FOV)。此兩個FOV的聯合是寬FOV的聯合。如本文中所揭露,實行對FOV的聯合FOV的深度的估測或者在此種情形中為對整個寬FOV的深度估測,儘管僅對於FOV的交叉點(其是遠程FOV)存在對應畫素。
本揭露的實例提供一種用於深度神經網路的統一架構、一種同時對多個任務訓練統一架構的方法以及一種對來自單影像深度估測演算法/過程與立體深度估測演算法/過程的結果進行融合的方法,所述統一架構可對來自2個或更多個相機的FOV的聯合FOV實行深度估測,而非僅對FOV的交疊交叉點進行估測。優點包括:對跨越所有相機的整個FOV進行深度估測,而非僅自FOV的交疊交叉點進行深度估測;以及藉由在具有固定預設變焦(如寬的1倍變焦及攝遠2倍固定變焦)的雙重相機的情形中對整個寬FOV而非交叉點FOV(其是較窄的攝遠FOV)應用焦外成像來產生跨越整個寬FOV的在美觀上更佳的影像。
圖1是根據實施例的焦外成像效果的圖。焦外成像是藉由使遠的主體離焦、同時使較近的主體更加銳化或聚焦來使影像中的背景主體模糊的過程。影像100繪示了遠程FOV上的焦外成像效果,而影像102繪示了寬FOV上的焦外成像效果。交疊FOV 104對應於影像100的整個FOV。此種效果可藉由帶有孔徑大(光圈值(f-stop)數目低)及焦距長的昂貴鏡頭以獲得淺景深的較昂貴的相機來獲得。由於影像感測器及鏡頭的尺寸及成本限制,在較便宜的小相機或在行動裝置上的相機中難以找到該些鏡頭。
圖2是根據實施例的立體匹配系統200的圖。不具有精確深度估測的系統可依靠由具有相同FOV的兩個相機201與202拍攝的兩個校正影像之間的立體匹配來確定兩個對應的畫素之間的差異d
(水平偏移,其是點P相對於相機201的水平距離x
1與點P相對於相機202的水平距離x
2之間的差)。對於每一畫素,可接著藉由已知的相機基線b
及焦距f
將所述差異轉換成主體P的深度z
的量度。
最近的電子裝置配備有兩個或更多個相機。所述兩個相機的規格可分別為(f/1.7、26毫米、1倍光學變焦)及(f/2.4、52毫米、2倍光學變焦)。然而第一相機具有較寬的孔徑,第二相機具有較長的焦距及翻倍的光學變焦。然而,第二相機的FOV是2倍變焦(例如,遠程FOV)時的影像的中心部分。第一相機的FOV是1倍變焦時的整個寬FOV。使相機具有不同FOV的一個原因是為了多樣性,其中較大孔徑的相機用於在低光設定及較快快門情況下獲得較佳的影像,其中2倍變焦相機提供翻倍的光學變焦且為2倍FOV提供較高的解析度影像。
立體差異匹配的一個應用是藉由使背景模糊、同時保持感興趣的物件聚焦而在影像中產生焦外成像效果。然而,在此種情形中,立體匹配可僅對在所述兩個相機之間交疊的中心FOV進行。因此,若使用者選擇將焦外成像效果應用於所拍攝的影像,則僅可對中心遠程FOV進行,進而產生圖1所示影像100。
圖3是根據實施例的對影像應用焦外成像效果的流程圖300。在302處,確定兩個影像之間的交疊FOV。舉例而言,參照圖1,交疊FOV 104對應於影像100的整個FOV。
在304處,產生具有相同FOV及解析度的兩個影像。可藉由自具有較大FOV的影像102剪裁交疊FOV 104且在較高解析度影像100中縮小交疊FOV來產生所述影像。
在306處,確定兩個影像之間的差異資訊。可藉由對在304處產生的所述兩個影像應用立體匹配演算法/過程來確定所述差異資訊。差異資訊可對應於在交疊FOV 104中影像100之間的畫素與影像102中與所述畫素對應的畫素之間的水平偏移。
在308處,產生所述兩個影像中任一影像的深度資訊。可藉由恰當的反演(inversion)及縮放(scaling)對來自306的差異資進行變換來產生所述深度資訊。
在310處,應用焦外成像演算法/過程。焦外成像演算法/過程可使遠物件模糊並對近物件聚焦,進而產生與影像100相似的結果,其中焦外成像效果僅可應用於影像100的遠程FOV。
如本文中所述,交疊FOV可指存在於所有所使用的相機中的FOV,即使FOV處於不同的比例。聯合FOV可指在將比例調整至參考影像的比例之後將一個參考相機的FOV與另一相機的FOV相加而得到的FOV。
圖4是根據實施例的表示聯合FOV及交疊FOV的影像的圖。影像400表示聯合FOV,而影像402表示交疊FOV。影像400包括與影像402的交疊部分404。影像402被以因數2進行下採樣,以與影像400在交疊FOV處的解析度匹配。感興趣的物件常常不位於影像402的遠程FOV的中心,且不完全被影像402的遠程FOV拍攝。因此,如本文中所揭露,可使用影像402的交疊FOV自影像400的聯合FOV產生差異估測值。
圖5是根據實施例的產生聯合FOV的差異的流程圖500。在502處,產生聯合FOV的深度估測值且產生聯合FOV的差異估測值。可藉由使用具有單影像差異估測(SIDE)的場景理解來產生深度估測值。
圖6是根據實施例的紅-綠-藍單影像深度估測(RGB-SIDE)網路的圖。RGB-SIDE網路是使用完全卷積神經網路實施。對全寬FOV(例如,聯合FOV 400)實行差異估測,其中在FOV的某些部分中僅來自一個相機的資訊可用。在600處輸入聯合FOV影像且在602處輸出差異估測。藉由使用當前相機設定(例如,相機基線、相機焦距等),RGB-SIDE網路估測逆深度且逆深度在網路內被以隱式方式縮放成差異。由此,基於回歸的損失函數(regression based loss function)可用作差異誤差的量度,其中對於每一畫素,所估測的差異與真實差異之間的距離給出了用於隨機梯度下降最佳化的誤差成本函數。
由於RGB-SIDE網路需要對場景進行理解來學習不同物件相對於相機鏡頭的相對位置,因此全寬影像400被立即處理。此種解決方案的優點是,輸出使用僅一個影像及一個區塊來提供對全寬FOV的差異的估測值。此種解決方案的缺點是缺乏精確度,其中所估測的差異或深度非常粗略、具有模糊的邊緣且容易出現大的誤差。此乃因依靠場景理解及物件之間的相對位置以及物件的大小來估測物件在FOV中的深度。
在504處,產生交疊FOV的差異估測值。可藉由使用立體匹配差異估測(stereo matching disparity estimation,SMDE)在兩個影像(例如在圖3所示304處產生的兩個影像)之間產生差異估測值。SMDE網路自所述兩個輸入影像估測差異。SMDE網路可使用神經網路來估測差異。可利用多種類型的SMDE網路,例如可應用於交疊FOV的遠程-廣角SMDE網路(tele-wide SMDE network,TW-SMNet)(TW-SMNet(T))或可應用於聯合FOV的TW-SMNet(TW-SMNet(W))、及在TW-SMNet(W)上添加附加的SIDE網路的多任務TW-SMNet(MT-TW-SMNet)。
圖7是根據實施例的TW-SMNet的圖。在網路中,影像400及影像402二者分別在700處及702處輸入到網路中。TW-SMNet使用立體匹配自所述兩個輸入影像估測差異。藉由傳統技術進行立體匹配涉及到沿同一水平線對校正影像中的特徵進行匹配。深度神經網路亦可藉由以不同差異偏移產生影像的特徵圖的偏移版本來實行立體匹配,以構建被稱為成本體積的體積。立體匹配深度神經網路依靠對成本體積(例如深度特徵之間的距離或者偏移的深度特徵之間的相關性)的計算。
對於TW-SMNet(T),使用立體匹配僅為交疊區提供差異估測。交疊部分404是影像400與影像402中的交疊FOV。此是藉由考量僅寬FOV影像400中的交疊部分404並將其與遠程FOV影像402進行立體匹配來進行的。演算法或神經網路被設計成僅使用交疊區回歸至真實差異。此方案將使遠程區中的差異估測值具有最佳精確度。
對於TW-SMNet(W),演算法/過程使用影像400的全寬FOV來估測聯合FOV的差異。影像402被縮放成與影像400中的交疊部分404的解析度匹配。然而,缺失區(其在此種情形中表示交疊部分404之外的周圍區)被零填充以達到全寬FOV的大小。此區塊的輸出是對全寬FOV的差異圖(disparity map)的估測值。此方案將使遠程區中的差異估測值具有很高的精確度且使周圍區中具有相當粗略的估測值。
圖8是根據實施例的MT-TW-SMNet的圖。在圖8中,在800處輸入寬FOV影像400,且在802處輸入遠程FOV影像402。對在800處輸入的FOV影像400應用附加的SIDE網路。
此網路被訓練用於藉由立體匹配進行差異估測。將用於僅對影像400進行基於SIDE的估測的附加頭部(head)在成本體積804之前添加至網路。對此兩個頭部一同進行訓練,以使SIDE分支有助於共享層具有較佳的場景理解能力。將網路立體匹配損失針對SIDE損失進行正則化(regularize)。因此,損失函數是組合損失函數806,組合損失函數806將來自SIDE分支的差異估測值的精確度以及來自SMDE分支的差異估測值的精確度考量在內,且系統在808處輸出差異。此會改善周圍區(非交疊FOV)中的性能(由於在周圍區中的立體影像中缺少對應的物件,因此在周圍區中無法進行立體匹配)。然而,自此網路輸出僅一個差異圖,所述差異圖是來自SMDE分支及SIDE分支的兩個差異圖的函數。此網路可僅選擇立體匹配差異圖作為最終輸出,此乃因立體匹配差異圖常常具有較佳的精確度。
在506處,增強聯合FOV差異。圖9是根據實施例的差異增強系統的圖。在圖9中,在TW-SMNet 904的900處輸入寬FOV影像400且在TW-SMNet的902處輸入遠程FOV影像402,由TW-SMNet產生並輸出差異。在908處,寬FOV影像400亦被輸入至SIDE RGB差異(SIDE RGB-Disparity,SIDE-RGBD)估測網路910,且由TW-SMNet輸出的差異被輸入至SIDE-RGBD網路910的906中。
在508處,將所估測的差異進行合併。圖10到圖13是根據實施例的用於產生欲被合併且進行後期處理的差異估測值的系統的圖。
圖10繪示了RGB SIDE + TW-SMNet(T)系統1000。寬FOV影像1002被輸入至RGB SIDE網路1006及TW-SMNet(T) 1008中,而遠程FOV影像1004被輸入至TW-SMNet(T) 1008。在1010處合併所得差異估測值且在1012處對差異圖進行處理。
圖11繪示了RGBD SIDE + TW-SMNet系統1100。寬FOV影像1102被輸入至RGBD SIDE網路1106及TW-SMNet 1108中,而遠程FOV影像1104被輸入至TW-SMNet 1108中。在1110處合併所得差異估測值且在1112處對差異圖進行處理。
圖12繪示了RGB SIDE + RGBD SIDE + TW-SMNet系統1200。寬FOV影像1202被輸入至RGBD SIDE網路1206、RGB SIDE網路1208及TW-SMNet 1210中,而遠程FOV影像1204被輸入至TW-SMNet 1210中。來自RGB SIDE網路1208的差異估測值被輸入至RGBD SIDE網路1206中。在1212處將來自RGBD SIDE網路1206與TW-SMNet 1210的所得差異估測值進行合併且在1214處對差異圖進行處理。
圖13繪示了RGB SIDE + RGBD SIDE + MT-TW-SMNet系統1300。寬FOV影像1302被輸入至RGBD SIDE網路1306、RGB SIDE網路1308及MT-TW-SMNet 1310中,而遠程FOV影像1304被輸入至MT-TW-SMNet 1310中。來自RGB SIDE網路1308的差異估測值被輸入至RGBD SIDE網路1306中。在1312處對來自RGBD SIDE網路1306與TW-SMNet 1310的所得差異估測值進行合併且在1314處對差異圖進行處理。
可藉由估測兩個差異圖、的交疊FOV之間的偏項、基於偏項調整來實行差異合併,如方程式(1)所示:
其中n是交疊FOV中畫素的數目。可基於對的周圍差異進行調整,且接著可使用應用加權和或差異選擇。
可基於縮放調整來實行差異合併,其中在兩個差異圖、的交疊FOV之間估測縮放差s
,其中n是交疊FOV中畫素的數目,如方程式(2)所示:
可基於對的周圍差異進行調整,且接著可使用應用加權和或差異選擇。
在510處,選擇差異圖。差異合併亦可藉由來自神經網路的所學習的非線性函數來達成,所述神經網路可由堆疊沙漏網路(stacked hourglass network)來實施。圖14是根據實施例的差異合併及選擇的圖。在圖14中,SIDE差異1402與SMDE差異1404由差異合併網路進行合併。所述網路是藉由回歸至實況(ground truth)差異進行訓練的。訓練網路的一種方法是將差異量化成多個層階且學習為每一層階輸出軟機率(soft probability)的分類器。回歸輸出1406是差異的期望值,其中使用所估測的機率來計算期望值。另外,所輸出的合併差異1406是由SIDE 1402及SMDE 1404獲得的輸入差異的非線性函數。
藉由使用SMDE,交疊FOV的差異可為最精確的。因此,選擇器1408可選擇為周圍區選擇合併差異1406或者為交疊遠程FOV選擇來自SMDE 1404的差異。
圖15是根據實施例的差異合併及選擇的圖。在圖15中,可使用立體匹配(stereo matching,SM)(例如,藉由使用TW-SMNet(T))僅對交疊區進行更精確的差異估測。然而,對被零填充的寬FOV的立體匹配可藉由對全寬FOV使用TW-SMNet(W)來產生交疊區及周圍區二者的差異估測值,交疊區及周圍區二者的差異估測值可使用融合網路進行合併以產生周圍區的更精確的差異估測值。然而,若複雜性容許,則可藉由使用差異區塊的第三輸入來對交疊遠程FOV利用最佳演算法/過程,所述第三輸入表示來自交疊遠程區上的精確立體匹配的差異估測值。舉例而言,SIDE差異1502及TW-SMNet(W)差異1504被合併至合併差異1508中且在TW-SMNet(T)差異1506與合併差異1508之間實行選擇1510。
寬FOV及遠程FOV RGB影像特徵亦可被輸入至差異合併區塊。自RGB影像提取的其他特徵(例如邊緣圖或語義分段(semantic segmentation)圖)可進一步與不同的差異圖一同作為輸入特徵進行序連。
在512處,對差異圖進行後期處理以增強品質(例如,藉由圖10到圖13的後期處理區塊)。後期處理區塊旨在提供在感覺上令人愉悅的差異圖。即使如在神經網路中一樣使用非線性運算進行合併之後,仍可觀察到交疊FOV與非交疊FOV之間邊界周圍的不連續性。後期處理旨在緩和此種效應,使得邊界效應不明顯。後期處理亦用於調整所需應用的輸出差異。
用於減小交疊區邊界周圍的差異急劇變化效應的後期處理的一個實例是使差異平滑。然而,邊緣常常代表一個物件,且目標是用平滑的深度估測值填充所述物件。一種解決方案是使用邊緣保持平滑(edge preserving smoothing)。邊緣保持平滑可藉由將經濾波的輸出計算為加權平均值(此可迭代地實施)來實施。可利用例如雙向濾波器等局部濾波器(local filter)。雙向濾波器及其他局部濾波器的一個限制是,它們可能無法解決是對差異圖中的特定邊緣進行保持還是進行平滑的模糊兩可性。可利用如下方式:使用RGB影像作為對平滑的引導,以保持RGB影像中的邊緣(此被稱為邊緣引導濾波)。也可利用如下方式:將以資料約束及平滑度先驗(smoothness prior)界定的全域目標函數(global objective function)最佳化(被稱為快速全域平滑器(fast global smoother,FGS))。因此,邊界周圍的FGS濾波值取決於整個差異圖。在一個實例中,藉由部署FGS,使用全域濾波器來計算邊界周圍的濾波值。接著僅將合併差異中邊界周圍的條帶(strip)由經濾波的條帶替換,且其餘條帶部署原始合併值。
如上所述,本系統及方法利用僅兩個相機。然而,此可容易地擴展至多於兩個相機。圖16是根據實施例的當存在四個相機時聯合FOV及交疊FOV的圖。圖16示出了邊緣相機配置(verged camera configuration)1602,其中暗區1604示出了交疊FOV,交疊FOV是自所有相機可見的共用三維空間,且虛線區1606示出了聯合FOV。
一種簡單的方法是對每一參考影像進行校正並分別與(相機的數目–1)個校正影像進行立體匹配。藉由使用深度學習方法,可獲得在相機之間交疊的FOV 1604的非常精確的深度估測值。由於相機相對於彼此的位置是固定的,因此任何一對校正影像之間的差異應轉化為剩餘對之間的特定值,此可用於得到交疊FOV 1604的更精確的結果。聯合FOV 1606的一些部分將在兩個相機之間交疊而非在所有的相機之間交疊。可使用該些相機對之間的立體匹配在此區中得到差異的良好估測值。聯合FOV 1606中僅被一個相機看到的區將利用單影像差異估測。作為另外一種選擇,聯合FOV 1606可利用所有輸入影像、以及聯合FOV 1606中至少在相機之間交疊的部分的差異估測值。上述用於差異圖與後期處理平滑之間的融合的其他方法亦適用於此實例。
關於圖16的替代實例是利用三個相機的系統。第一相機可具有遠程FOV,第二相機可具有寬FOV,且第三相機可具有超寬FOV。如以上針對圖5所述,對於來自遠程FOV的影像及來自寬FOV的影像,可將聯合FOV差異估測值與交疊FOV差異估測值進行合併。此方法可使用寬FOV的先前所估測深度遞歸地進行重複,以藉由超寬FOV與寬FOV之間的立體匹配產生超寬FOV的深度估測。在此種實例中,超寬FOV可用作聯合FOV,且寬FOV可用作交疊FOV。
圖17是根據一個實施例的網路環境1700中的電子裝置1701的方塊圖。參照圖17,網路環境1700中的電子裝置1701可藉由第一網路1798(例如,短距離無線通訊網路)來與電子裝置1702進行通訊,或者藉由第二網路1799(例如,長距離無線通訊網路)來與電子裝置1704或伺服器1708進行通訊。電子裝置1701可藉由伺服器1708來與電子裝置1704進行通訊。電子裝置1701可包括處理器1720、記憶體1730、輸入裝置1750、聲音輸出裝置1755、顯示裝置1760、音訊模組1770、感測器模組1776、介面1777、觸感模組(haptic module)1779、相機模組1780、電源管理模組1788、電池1789、通訊模組1790、用戶識別模組(subscriber identification module,SIM)1796或天線模組1797。在一個實施例中,可自電子裝置1701省略該些組件中的至少一者(例如,顯示裝置1760或相機模組1780),或者可向電子裝置1701添加一或多個其他組件。在一個實施例中,所述組件中的一些組件可被實施為單個積體電路(integrated circuit,IC)。舉例而言,感測器模組1776(例如,指紋感測器(fingerprint sensor)、虹膜感測器(iris sensor)或亮度感測器(illuminance sensor))可嵌入於顯示裝置1760(例如,顯示器)中。
處理器1720可執行例如軟體(例如,程式1740)以控制與處理器1720耦合的電子裝置1701的至少一個其他組件(例如,硬體組件或軟體組件),且可實行各種資料處理或計算。作為資料處理或計算的至少一部分,處理器1720可在揮發性記憶體1732中加載自另一組件(例如,感測器模組1776或通訊模組1790)接收的命令或資料,處理儲存於揮發性記憶體1732中的命令或資料,以及將所得資料儲存於非揮發性記憶體1734中。處理器1720可包括主處理器1721(例如,中央處理單元(central processing unit,CPU)或應用處理器(application processor,AP))以及能夠獨立於主處理器1721運作或與主處理器1721結合運作的輔助處理器1723(例如,圖形處理單元(graphics processing unit,GPU)、影像訊號處理器(image signal processor,ISP)、感測器集線器處理器(sensor hub processor)或通訊處理器(communication processor,CP))。另外地或作為另一選擇,輔助處理器1723可適以消耗較主處理器1721少的功率,或者執行特定功能。輔助處理器1723可與主處理器1721分開實施或者作為主處理器1721的一部分實施。
當主處理器1721處於非現用(inactive)(例如,睡眠)狀態時,輔助處理器1723可替代主處理器1721來控制與電子裝置1701的組件中的至少一個組件(例如,顯示裝置1760、感測器模組1776或通訊模組1790)相關的功能或狀態中的至少一些功能或狀態;或者當主處理器1721處於現用狀態(例如,正在執行應用時),輔助處理器1723可與主處理器1721一起控制上述功能或狀態中的至少一些功能或狀態。根據一個實施例,輔助處理器1723(例如,影像訊號處理器或通訊處理器)可被實施為在功能上與輔助處理器1723相關的另一組件(例如,相機模組1780或通訊模組1790)的一部分。
記憶體1730可儲存由電子裝置1701的至少一個組件(例如,處理器1720或感測器模組1776)使用的各種資料。所述各種資料可包括例如軟體(例如,程式1740)以及用於與軟體相關的命令的輸入資料或輸出資料。記憶體1730可包括揮發性記憶體1732或非揮發性記憶體1734。
程式1740可作為軟體儲存於記憶體1730中且可包括例如作業系統(operating system,OS)1742、中間軟體(middleware)1744或應用1746。
輸入裝置1750可自電子裝置1701的外部(例如,使用者)接收欲由電子裝置1701的其他組件(例如,處理器1720)使用的命令或資料。輸入裝置1750可包括例如麥克風、滑鼠或鍵盤。
聲音輸出裝置1755可將聲音訊號輸出至電子裝置1701的外部。聲音輸出裝置1755可包括例如揚聲器或接收器。揚聲器可用於一般用途(例如播放多媒體或錄音),且接收器可用於接收傳入呼叫。根據一個實施例,接收器可與揚聲器分開實施或作為揚聲器的一部分實施。
顯示裝置1760可向電子裝置1701的外部(例如,使用者)以視覺方式提供資訊。顯示裝置1760可包括例如顯示器、全息圖裝置(hologram device)或投影儀以及用於控制顯示器、全息圖裝置及投影儀中的對應一者的控制電路系統。根據一個實施例,顯示裝置1760可包括適以偵測觸摸的觸摸電路系統、或適以量測由觸摸引發的力的強度的感測器電路系統(例如,壓力感測器)。
音訊模組1770可將聲音轉換成電性訊號以及將電性訊號轉換成聲音。根據一個實施例,音訊模組1770可藉由輸入裝置1750獲得聲音,或者藉由聲音輸出裝置1755或藉由與電子裝置1701直接地(例如,以有線方式)耦合或無線耦合的外部電子裝置1702的頭戴耳機來輸出聲音。
感測器模組1776可偵測電子裝置1701的運作狀態(例如,功率或溫度)或者電子裝置1701外部的環境狀態(例如,使用者狀態),且接著產生與所偵測的狀態對應的電性訊號或資料值。感測器模組1776可包括例如手勢感測器(gesture sensor)、陀螺儀感測器(gyro sensor)、大氣壓感測器(atmospheric pressure sensor)、磁性感測器(magnetic sensor)、加速度感測器(acceleration sensor)、握持感測器(grip sensor)、接近感測器(proximity sensor)、顏色感測器(color sensor)、紅外(infrared,IR)感測器、生物特徵感測器(biometric sensor)、溫度感測器(temperature sensor)、濕度感測器(humidity sensor)或亮度感測器。
介面1777可支援為將電子裝置1701直接地(例如,以有線方式)或無線地與外部電子裝置1702耦合而使用的一或多種規定協定。根據一個實施例,介面1777可包括例如高清晰度多媒體介面(high definition multimedia interface,HDMI)、通用串列匯流排(universal serial bus,USB)介面、安全數位(secure digital,SD)卡介面或音訊介面。
連接端子1778可包括連接件,電子裝置1701可藉由連接件與外部電子裝置1702實體連接。根據一個實施例,連接端子1778可包括例如HDMI連接件、USB連接件、SD卡連接件或音訊連接件(例如,頭戴耳機連接件)。
觸感模組1779可將電性訊號轉換成機械刺激(例如,震動或移動)或者可由使用者藉由觸覺(tactile sensation)或動覺(kinesthetic sensation)識別的電性刺激。根據一個實施例,觸感模組1779可包括例如馬達(motor)、壓電式元件(piezoelectric element)或電性刺激器(electrical stimulator)。
相機模組1780可拍攝靜止影像或移動影像。根據一個實施例,相機模組1780可包括一或多個鏡頭、影像感測器、影像訊號處理器或閃光燈。
電源管理模組1788可管理向電子裝置1701供應的電力。電源管理模組1788可被實施為例如電源管理積體電路(power management integrated circuit,PMIC)的至少一部分。
電池1789可向電子裝置1701的至少一個組件供電。根據一個實施例,電池1789可包括例如不可再充電的原電池(primary cell)、可再充電的二次電池(secondary cell)或燃料電池(fuel cell)。
通訊模組1790可支援在電子裝置1701與外部電子裝置(例如,電子裝置1702、電子裝置1704或伺服器1708)之間建立直接的(例如,有線的)通訊通道或無線的通訊通道以及藉由所建立的通訊通道實行通訊。通訊模組1790可包括可獨立於處理器1720(例如,AP)運作的一或多個通訊處理器並支援直接的(例如,有線的)通訊或無線的通訊。根據一個實施例,通訊模組1790可包括無線通訊模組1792(例如,蜂巢式通訊模組、短距離無線通訊模組或全球導航衛星系統(global navigation satellite system,GNSS)通訊模組)或有線通訊模組1794(例如,局部區域網路(local area network,LAN)通訊模組或電力線通訊(power line communication,PLC)模組)。該些通訊模組中對應的一個通訊模組可藉由第一網路1798(例如,短距離通訊網路,例如藍芽TM
、無線保真(wireless-fidelity,Wi-Fi)直接或紅外資料協會(Infrared Data Association,IrDA)標準)或第二網路1799(例如,長距離通訊網路,例如蜂巢式網路、網際網路或電腦網路(例如,LAN或廣域網路(wide area network,WAN)))與外部電子裝置進行通訊。該些各種類型的通訊模組可被實施為單個組件(例如,單個積體電路)或者可被實施為彼此分開的多個組件(例如,多個積體電路)。無線通訊模組1792可利用儲存於用戶識別模組1796中的用戶資訊(例如,國際行動用戶識別碼(international mobile subscriber identity,IMSI))來識別及認證通訊網路(例如第一網路1798或第二網路1799)中的電子裝置1701。
天線模組1797可將訊號或電力傳送至電子裝置1701外部(例如,外部電子裝置)或者自電子裝置1701外部(例如,外部電子裝置)接收訊號或電力。根據一個實施例,天線模組1797可包括一或多個天線,且可舉例而言由通訊模組1790(例如,無線通訊模組1792)自所述一或多個天線中選擇適用於在通訊網路(例如第一網路1798或第二網路1799)中使用的通訊方案的至少一個天線。接著可藉由所選擇的至少一個天線在通訊模組1790與外部電子裝置之間傳送或接收訊號或電力。
上述組件中的至少一些組件可相互耦合且所述至少一些組件之間可藉由周邊間通訊方案(inter-peripheral communication scheme)(例如,匯流排、通用輸入及輸出(general purpose input and output,GPIO)、串列周邊介面(serial peripheral interface,SPI)或行動產業處理器介面(mobile industry processor interface,MIPI))傳送訊號(例如,命令或資料)。
根據一個實施例,可藉由與第二網路1799耦合的伺服器1708在電子裝置1701與外部電子裝置1704之間傳送或接收命令或資料。電子裝置1702及電子裝置1704中的每一者可為與電子裝置1701為相同類型或不同類型的裝置。欲在電子裝置1701處執行的所有操作或一些操作可在外部電子裝置1702、外部電子裝置1704或外部電子裝置1708中的一或多者處執行。舉例而言,若電子裝置1701原本應自動地或響應於來自使用者或另一裝置的請求而實行功能或服務,則替代執行所述功能或服務或者除了執行所述功能或服務之外,電子裝置1701亦可請求所述一或多個外部電子裝置實行所述功能或服務的至少一部分。接收到所述請求的所述一或多個外部電子裝置可實行所請求的功能或服務的所述至少一部分,或者實行與所述請求相關的其他功能或其他服務,並將所述實行的結果傳輸至電子裝置1701。電子裝置1701可在對結果進行進一步處理或不進行進一步處理的情況下提供所述結果作為對請求的回復的至少一部分。為此,舉例而言,可使用雲端計算、分佈式計算或客戶機-伺服器計算技術。
一個實施例可被實施為包括儲存於可由機器(例如,電子裝置1701)讀取的儲存媒體(例如,內部記憶體1736或外部記憶體1738)中的一或多個指令的軟體(例如,程式1740)。舉例而言,電子裝置1701的處理器可在使用或不使用受處理器控制的一或多個其他組件的條件下調用儲存於儲存媒體中的所述一或多個指令中的至少一個指令,並執行所述至少一個指令。因此,可操作機器根據所調用的所述至少一個指令來實行至少一種功能。所述一或多個指令可包括由編譯器產生的代碼或者可由解釋器執行的代碼。機器可讀取儲存媒體可設置成非暫態儲存媒體形式。用語「非暫態」指示儲存媒體是有形裝置,且不包括訊號(例如,電磁波),但此用語並不區分資料以半永久方式儲存於儲存媒體中的情形與資料臨時儲存於儲存媒體中的情形。
根據一個實施例,本揭露的方法可包括在電腦程式產品中及在電腦程式產品中提供。電腦程式產品可在賣方與買方之間作為產品進行交易。電腦程式產品可以機器可讀取儲存媒體(例如,光盤唯讀記憶體(compact disc read only memory,CD-ROM))形式分發,或者藉由應用商店(例如,播放商店TM
(Play StoreTM
))在線分發(例如,下載或上傳),或者直接在兩個使用者裝置(例如,智慧型電話)之間分發。若在線分發,則電腦程式產品的至少一部分可在機器可讀取儲存媒體(例如,製造商伺服器的記憶體、應用商店的伺服器或中繼伺服器)中臨時產生或至少臨時儲存於所述機器可讀取儲存媒體中。
根據一個實施例,上述組件中的每一個組件(例如,模組或程式)可包括單個實體或多個實體。可省略上述組件中的一或多者,或者可添加一或多個其他組件。作為另一選擇或另外地,可將多個組件(例如,模組或程式)整合成單個組件。在此種情形中,積體組件仍可以與在整合之前所述多個組件中的對應一者實行一或多種功能的方式相同或相似的方式實行所述多個組件中的每一者的所述一或多種功能。由模組、程式或另一組件實行的操作可依序地、並列地、重複地或啟發式地執行,或者所述操作中的一或多個操作可以不同的次序執行或者被省略,或者可添加一或多個其他操作。
儘管已在本揭露的詳細說明中闡述了本揭露的某些實施例,然而在不背離本揭露的範圍的條件下可以各種形式來對本揭露進行修改。因此,本揭露的範圍不應僅基於所闡述的實施例來確定,而是應基於隨附申請專利範圍及其等效形式來確定。
100、102:影像
104:交疊視野(FOV)
200:立體匹配系統
201、202:相機
300、500:流程圖
302、304、306、308、310、502、504、506、508、510、512:步驟
400:影像/聯合FOV/全寬影像/寬FOV影像/FOV影像
402:影像/遠程FOV影像
404:交疊部分
600:輸入聯合FOV影像
602:輸出差異估測
700:輸入影像400
702:輸入影像402
800:輸入寬FOV影像400
802:輸入遠程FOV影像402
806:組合損失函數
808:輸出差異
900:輸入寬FOV影像400
902:輸入遠程FOV影像402
904:遠程-廣角立體匹配差異估測網路(TW-SMNet)
906:輸入TW-SMNet輸出的差異
908:輸入寬FOV影像400
910:單影像深度估測紅-綠-藍差異(SIDE-RGBD)估測網路
1000:紅-綠-藍單影像深度估測+遠程-廣角立體匹配差異估測網路(遠程)(RGB SIDE + TW-SMNet(T))系統
1002、1102、1202、1302:寬FOV影像
1004、1104、1204、1304:遠程FOV影像
1006、1208、1308:RGB SIDE網路
1008:TW-SMNet(T)
1010、1110、1212、1312:合併所得差異估測值
1012、1112、1214、1314:對差異圖進行處理
1100:紅-綠-藍差異單影像深度估測+遠程-廣角立體匹配差異估測網路(RGBD SIDE + TW-SMNet)系統
1106、1206、1306:RGBD SIDE網路
1108、1210:TW-SMNet
1200:紅-綠-藍單影像深度估測+紅-綠-藍差異單影像深度估測+遠程-廣角立體匹配差異估測網路(RGB SIDE + RGBD SIDE + TW-SMNet)系統
1300:紅-綠-藍單影像深度估測+紅-綠-藍差異單影像深度估測+多任務遠程-廣角立體匹配差異估測網路(RGB SIDE + RGBD SIDE + MT-TW-SMNet)系統
1310:MT-TW-SMNet
1402:SIDE差異/SIDE
1404:SMDE差異/SMDE
1406:回歸輸出/合併差異
1408:選擇器
1502:SIDE差異
1504:TW-SMNet(W)差異
1506:TW-SMNet(T)差異
1508:合併差異
1510:選擇
1602:邊緣相機配置
1604:暗區/交疊FOV
1606:虛線區/聯合FOV
1700:網路環境
1701:電子裝置
1702、1704:電子裝置/外部電子裝置
1708:伺服器/外部電子裝置
1720:處理器
1721:主處理器
1723:輔助處理器
1730:記憶體
1732:揮發性記憶體
1734:非揮發性記憶體
1736:內部記憶體
1738:外部記憶體
1740:程式
1742:作業系統(OS)
1744:中間軟體
1746:應用
1750:輸入裝置
1755:聲音輸出裝置
1760:顯示裝置
1770:音訊模組
1776:感測器模組
1777:介面
1778:連接端子
1779:觸感模組
1780:相機模組
1788:電源管理模組
1789:電池
1790:通訊模組
1792:無線通訊模組
1794:有線通訊模組
1796:用戶識別模組(SIM)
1797:天線模組
1798:第一網路
1799:第二網路b:相機基線d:差異f:焦距
P:點/主體x1、x2:水平距離z:深度
結合附圖閱讀以下詳細說明,本揭露的某些實施例的以上及其他態樣、特徵及優點將更顯而易見,在附圖中:
圖1是根據實施例的焦外成像效果的圖。
圖2是根據實施例的立體匹配(stereo matching)系統的圖。
圖3是根據實施例的使用兩個具有相似FOV的影像對影像應用焦外成像效果的流程圖。
圖4是根據實施例的表示聯合FOV及交疊FOV的影像的圖。
圖5是根據實施例的產生聯合FOV的差異的流程圖。
圖6是根據實施例的紅-綠-藍(red-green-blue,RGB)單影像差異估測(red-green-blue single image disparity estimation,RGB-SIDE)網路的圖。
圖7是根據實施例的遠程-廣角(tele-wide)立體匹配網路的圖。
圖8是根據實施例的多任務遠程-廣角立體匹配網路的圖。
圖9是根據實施例的差異增強系統的圖。
圖10、圖11、圖12及圖13是根據實施例的用於產生欲被合併且進行後期處理的差異估測值的系統的圖。
圖14是根據實施例的差異合併及選擇的圖。
圖15是根據實施例的差異合併及選擇的圖。
圖16是根據實施例的當存在四個相機時聯合FOV及交疊FOV的圖。
圖17是根據一個實施例的網路環境中的電子裝置的方塊圖。
500:流程圖
502、504、506、508、510、512:步驟
Claims (20)
- 一種電子裝置,包括: 第一相機,具有第一視野(FOV); 第二相機,具有較所述第一視野窄的第二視野;以及 處理器,被配置成: 使用所述第一相機拍攝第一影像,所述第一影像具有聯合視野; 使用所述第二相機拍攝第二影像; 確定所述第一影像與所述第二影像之間的交疊視野; 基於所述交疊視野而產生交疊視野差異估測值; 產生聯合視野差異估測值;以及 將所述聯合視野差異估測值與所述交疊視野差異估測值進行合併。
- 如申請專利範圍第1項所述的電子裝置,其中所述交疊視野差異估測是使用利用所述交疊視野的立體匹配網路差異估測而產生的。
- 如申請專利範圍第1項所述的電子裝置,其中所述處理器更被配置成自所述第一影像剪裁所確定的所述交疊視野且將所述交疊視野自所述第二影像縮放至與所述第一影像對應的解析度。
- 如申請專利範圍第3項所述的電子裝置,其中所述處理器更被配置成使用所述交疊視野差異估測值來增強所述聯合視野差異估測值。
- 如申請專利範圍第1項所述的電子裝置,其中所述聯合視野差異估測值是基於僅所述第一影像的所述第一視野的深度估測並根據基於所述第一相機的相機基線及焦距的資訊而產生的。
- 如申請專利範圍第1項所述的電子裝置,其中所述處理器被配置成基於所述聯合視野差異估測值及所述交疊視野差異估測值中所述交疊視野中的偏項及比例校準來將所述聯合視野差異估測值與所述交疊視野差異估測值進行合併。
- 如申請專利範圍第1項所述的電子裝置,其中所述聯合視野差異估測值是基於來自紅-綠-藍(RGB)單影像差異估測(RGB-SIDE)網路的差異估測值而產生的。
- 如申請專利範圍第1項所述的電子裝置,其中所述聯合視野差異估測值更在來自立體匹配差異估測(SMDE)網路的零填充交疊視野與所述聯合視野之間產生。
- 如申請專利範圍第1項所述的電子裝置,其中所述聯合視野差異估測值更在來自多任務立體匹配差異(MT-SMDE)及單影像差異估測網路的零填充交疊視野與所述聯合視野之間產生。
- 如申請專利範圍第1項所述的電子裝置,更包括: 第三相機,具有較所述第一視野寬的第三視野, 其中所述處理器更被配置成: 使用所述第三相機拍攝第三影像,所述第三影像具有所述第三視野;以及 基於所述第一影像的所述聯合視野的深度估測而產生所述第三影像的深度估測。
- 一種差異估測的方法,包括: 使用具有第一視野(FOV)的第一相機拍攝第一影像,所述第一影像具有聯合視野; 使用具有第二視野的第二相機拍攝第二影像,所述第二視野較所述第一視野窄; 確定所述第一影像與所述第二影像之間的交疊視野; 基於所述交疊視野而產生交疊視野差異估測值; 產生聯合視野差異估測值;以及 將所述聯合視野差異估測值與所述交疊視野差異估測值進行合併。
- 如申請專利範圍第11項所述的方法,其中所述交疊視野差異估測是使用利用所述交疊視野的立體匹配網路差異估測而產生的。
- 如申請專利範圍第11項所述的方法,更包括:自所述第一影像剪裁所確定的所述交疊視野且將所述交疊視野自所述第二影像縮放至與所述第一影像對應的解析度。
- 如申請專利範圍第13項所述的方法,更包括:使用所述交疊視野差異估測值來增強所述聯合視野差異估測值。
- 如申請專利範圍第11項所述的方法,其中所述聯合視野差異估測值是基於僅所述第一影像的所述第一視野的深度估測並根據基於所述第一相機的相機基線及焦距的資訊而產生的。
- 如申請專利範圍第11項所述的方法,其中將所述聯合視野差異估測值與所述交疊視野差異估測值進行合併是基於所述聯合視野差異估測值及所述交疊視野差異估測值中所述交疊視野中的偏項及比例校準來實行。
- 如申請專利範圍第11項所述的方法,其中所述聯合視野差異估測值是基於來自紅-綠-藍(RGB)單影像深度估測(SIDE)網路的差異估測值而產生的。
- 如申請專利範圍第11項所述的方法,其中所述聯合視野差異估測值更在來自立體匹配差異估測(SMDE)網路的零填充交疊視野與所述聯合視野之間產生。
- 如申請專利範圍第11項所述的方法,其中所述聯合視野差異估測值更在來自多任務立體匹配差異(MT-SMDE)及單影像差異估測網路的零填充交疊視野與所述聯合視野之間產生。
- 如申請專利範圍第11項所述的方法,更包括: 使用具有第三視野的第三相機拍攝第三影像,所述第三視野較所述第一視野寬,以及 基於所述第一影像的所述聯合視野的深度估測而產生所述第三影像的深度估測。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862751960P | 2018-10-29 | 2018-10-29 | |
US62/751,960 | 2018-10-29 | ||
US16/365,167 US11055866B2 (en) | 2018-10-29 | 2019-03-26 | System and method for disparity estimation using cameras with different fields of view |
US16/365,167 | 2019-03-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202016505A TW202016505A (zh) | 2020-05-01 |
TWI834744B true TWI834744B (zh) | 2024-03-11 |
Family
ID=70327544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW108138813A TWI834744B (zh) | 2018-10-29 | 2019-10-28 | 使用具有不同視野的相機進行差異估測的電子裝置及方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11055866B2 (zh) |
KR (1) | KR102644273B1 (zh) |
CN (1) | CN111105450A (zh) |
TW (1) | TWI834744B (zh) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108234851B (zh) | 2013-06-13 | 2019-08-16 | 核心光电有限公司 | 双孔径变焦数字摄影机 |
CN108388005A (zh) | 2013-07-04 | 2018-08-10 | 核心光电有限公司 | 小型长焦透镜套件 |
CN109120823B (zh) | 2013-08-01 | 2020-07-14 | 核心光电有限公司 | 具有自动聚焦的纤薄多孔径成像系统及其使用方法 |
US9392188B2 (en) | 2014-08-10 | 2016-07-12 | Corephotonics Ltd. | Zoom dual-aperture camera with folded lens |
CN112394467B (zh) | 2015-04-16 | 2023-06-09 | 核心光电有限公司 | 紧凑型折叠式相机中的自动对焦和光学图像稳定 |
CN112672024B (zh) | 2015-08-13 | 2022-08-02 | 核心光电有限公司 | 视频支持和切换/无切换动态控制的双孔径变焦摄影机 |
EP3758356B1 (en) | 2016-05-30 | 2021-10-20 | Corephotonics Ltd. | Actuator |
KR20240051317A (ko) | 2016-07-07 | 2024-04-19 | 코어포토닉스 리미티드 | 폴디드 옵틱용 선형 볼 가이드 보이스 코일 모터 |
US11531209B2 (en) | 2016-12-28 | 2022-12-20 | Corephotonics Ltd. | Folded camera structure with an extended light-folding-element scanning range |
CN113805405B (zh) | 2017-01-12 | 2023-05-23 | 核心光电有限公司 | 紧凑型折叠式摄影机及其组装方法 |
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
EP4250695A3 (en) | 2017-11-23 | 2023-11-22 | Corephotonics Ltd. | Compact folded camera structure |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
KR102128223B1 (ko) | 2018-02-05 | 2020-06-30 | 코어포토닉스 리미티드 | 폴디드 카메라에 대한 감소된 높이 페널티 |
KR102299752B1 (ko) | 2018-04-23 | 2021-09-08 | 코어포토닉스 리미티드 | 연장된 2 자유도 회전 범위를 갖는 광학 경로 폴딩 요소 |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
WO2020039302A1 (en) | 2018-08-22 | 2020-02-27 | Corephotonics Ltd. | Two-state zoom folded camera |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11205093B2 (en) | 2018-10-11 | 2021-12-21 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
KR101995344B1 (ko) * | 2019-01-22 | 2019-07-02 | 김흥수 | 사각지역이 없는 듀얼 깊이 카메라 모듈 |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US10839543B2 (en) * | 2019-02-26 | 2020-11-17 | Baidu Usa Llc | Systems and methods for depth estimation using convolutional spatial propagation networks |
US11120280B2 (en) * | 2019-11-15 | 2021-09-14 | Argo AI, LLC | Geometry-aware instance segmentation in stereo image capture processes |
US11949976B2 (en) | 2019-12-09 | 2024-04-02 | Corephotonics Ltd. | Systems and methods for obtaining a smart panoramic image |
CN110992271B (zh) * | 2020-03-04 | 2020-07-07 | 腾讯科技(深圳)有限公司 | 图像处理方法、路径规划方法、装置、设备及存储介质 |
US11127148B1 (en) * | 2020-05-12 | 2021-09-21 | Microsoft Technology Licensing, Llc | Parallax correction for partially overlapping stereo depth images |
WO2021234515A1 (en) * | 2020-05-17 | 2021-11-25 | Corephotonics Ltd. | Image stitching in the presence of a full field of view reference image |
TWI772806B (zh) * | 2020-05-22 | 2022-08-01 | 國立陽明交通大學 | 場景理解系統及方法 |
WO2021245488A1 (en) | 2020-05-30 | 2021-12-09 | Corephotonics Ltd. | Systems and methods for obtaining a super macro image |
US11637977B2 (en) | 2020-07-15 | 2023-04-25 | Corephotonics Ltd. | Image sensors and sensing methods to obtain time-of-flight and phase detection information |
EP4045960A4 (en) | 2020-07-15 | 2022-12-14 | Corephotonics Ltd. | CORRECTING THE ABERRATION OF VIEWPOINTS IN A FOLDED SCANNING CAMERA |
CN112233150A (zh) * | 2020-09-09 | 2021-01-15 | 北京迈格威科技有限公司 | 图像处理和虚化方法、装置、电子设备及存储介质 |
CN112950698B (zh) * | 2021-03-18 | 2024-03-26 | 北京拙河科技有限公司 | 基于双目散焦图像的深度估计方法、装置、介质和设备 |
US11893668B2 (en) | 2021-03-31 | 2024-02-06 | Leica Camera Ag | Imaging system and method for generating a final digital image via applying a profile to image information |
CN112857756B (zh) * | 2021-04-23 | 2021-08-06 | 广州市诺以德医疗科技发展有限公司 | 全息固定视差的立体视程度量化装置 |
KR20240025049A (ko) | 2021-06-08 | 2024-02-26 | 코어포토닉스 리미티드 | 슈퍼-매크로 이미지의 초점면을 틸팅하기 위한 시스템 및 카메라 |
CN113592751B (zh) * | 2021-06-24 | 2024-05-07 | 荣耀终端有限公司 | 图像处理方法、装置和电子设备 |
CN115714899A (zh) * | 2021-08-20 | 2023-02-24 | 北京小米移动软件有限公司 | 微距拍摄方法、装置、电子设备和存储介质 |
KR20230038120A (ko) | 2021-09-10 | 2023-03-17 | 에스케이하이닉스 주식회사 | 단일 카메라를 사용하는 깊이 추정 장치 및 깊이 추정 방법 |
US20230169671A1 (en) * | 2021-11-26 | 2023-06-01 | Electronics And Telecommunications Research Institute | Depth estimation method and apparatus using learning model |
WO2024107200A1 (en) * | 2022-11-18 | 2024-05-23 | Zeku, Inc. | Multi-sensor image processing on mobile devices and method of operating the same |
CN116503570B (zh) * | 2023-06-29 | 2023-11-24 | 聚时科技(深圳)有限公司 | 图像的三维重建方法及相关装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150055821A1 (en) * | 2013-08-22 | 2015-02-26 | Amazon Technologies, Inc. | Multi-tracker object tracking |
CN107820001A (zh) * | 2016-09-14 | 2018-03-20 | 豪威科技股份有限公司 | 使用基于特征的重影去除的阵列照相机图像组合 |
CN108307675A (zh) * | 2015-04-19 | 2018-07-20 | 快图凯曼有限公司 | 用于vr/ar应用中的深度增强的多基线相机阵列系统架构 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2009201637B2 (en) | 2009-04-24 | 2011-08-11 | Canon Kabushiki Kaisha | Processing multi-view digital images |
JP2012247364A (ja) | 2011-05-30 | 2012-12-13 | Panasonic Corp | ステレオカメラ装置、ステレオカメラシステム、プログラム |
US8605993B2 (en) * | 2011-11-21 | 2013-12-10 | Robo-team Ltd. | Methods and systems of merging depth data from a plurality of disparity maps |
US10848731B2 (en) * | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
US9117277B2 (en) | 2012-04-04 | 2015-08-25 | Canon Kabushiki Kaisha | Determining a depth map from images of a scene |
EP3869797B1 (en) * | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
US9426361B2 (en) * | 2013-11-26 | 2016-08-23 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
EP2887311B1 (en) | 2013-12-20 | 2016-09-14 | Thomson Licensing | Method and apparatus for performing depth estimation |
CN103810685B (zh) | 2014-02-25 | 2016-05-25 | 清华大学深圳研究生院 | 一种深度图的超分辨率处理方法 |
US20150334309A1 (en) * | 2014-05-16 | 2015-11-19 | Htc Corporation | Handheld electronic apparatus, image capturing apparatus and image capturing method thereof |
US9888229B2 (en) | 2014-06-23 | 2018-02-06 | Ricoh Company, Ltd. | Disparity estimation for multiview imaging systems |
US10074158B2 (en) | 2014-07-08 | 2018-09-11 | Qualcomm Incorporated | Systems and methods for stereo depth estimation using global minimization and depth interpolation |
US9712807B2 (en) | 2014-09-08 | 2017-07-18 | Intel Corporation | Disparity determination for images from an array of disparate image sensors |
WO2016079718A1 (en) | 2014-11-20 | 2016-05-26 | Mantisvision Ltd. | Methods circuits devices assemblies systems and functionally associated computer executable code for image acquisition with depth estimation |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
EP3284061B1 (en) | 2015-04-17 | 2021-11-10 | FotoNation Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
US10326981B2 (en) | 2015-05-15 | 2019-06-18 | Semyon Nisenzon | Generating 3D images using multi-resolution camera set |
KR102336447B1 (ko) * | 2015-07-07 | 2021-12-07 | 삼성전자주식회사 | 촬영 장치 및 그 동작 방법 |
CN106612387B (zh) | 2015-10-15 | 2019-05-21 | 杭州海康威视数字技术股份有限公司 | 一种组合深度图获得方法及深度相机 |
US10115032B2 (en) * | 2015-11-04 | 2018-10-30 | Nec Corporation | Universal correspondence network |
US9900584B2 (en) | 2016-04-27 | 2018-02-20 | Semyon Nisenzon | Depth map generation based on cluster hierarchy and multiple multiresolution camera clusters |
JP6929047B2 (ja) * | 2016-11-24 | 2021-09-01 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
WO2018136262A1 (en) * | 2017-01-20 | 2018-07-26 | Aquifi, Inc. | Systems and methods for defect detection |
US10671082B2 (en) * | 2017-07-03 | 2020-06-02 | Baidu Usa Llc | High resolution 3D point clouds generation based on CNN and CRF models |
US10297070B1 (en) * | 2018-10-16 | 2019-05-21 | Inception Institute of Artificial Intelligence, Ltd | 3D scene synthesis techniques using neural network architectures |
-
2019
- 2019-03-26 US US16/365,167 patent/US11055866B2/en active Active
- 2019-08-29 KR KR1020190106440A patent/KR102644273B1/ko active IP Right Grant
- 2019-10-28 TW TW108138813A patent/TWI834744B/zh active
- 2019-10-29 CN CN201911036156.4A patent/CN111105450A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150055821A1 (en) * | 2013-08-22 | 2015-02-26 | Amazon Technologies, Inc. | Multi-tracker object tracking |
CN108307675A (zh) * | 2015-04-19 | 2018-07-20 | 快图凯曼有限公司 | 用于vr/ar应用中的深度增强的多基线相机阵列系统架构 |
CN107820001A (zh) * | 2016-09-14 | 2018-03-20 | 豪威科技股份有限公司 | 使用基于特征的重影去除的阵列照相机图像组合 |
Non-Patent Citations (2)
Title |
---|
期刊 Eigen, D., & Fergus, R. Predicting Depth, Surface Normals and Semantic Labels with a Common Multi-scale Convolutional Architecture. IEEE International Conference on Computer Vision, 2380-7504, IEEE, 2015, 2650-2658. * |
期刊 Wan, D., & Zhou, J. Multiresolution and wide-scope depth estimation using a dual-PTZ-camera system. IEEE transactions on image processing, 18(3), IEEE Signal Processing Society, 2009, 677-682; * |
Also Published As
Publication number | Publication date |
---|---|
US20200134848A1 (en) | 2020-04-30 |
KR102644273B1 (ko) | 2024-03-06 |
US11055866B2 (en) | 2021-07-06 |
KR20200049502A (ko) | 2020-05-08 |
TW202016505A (zh) | 2020-05-01 |
CN111105450A (zh) | 2020-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI834744B (zh) | 使用具有不同視野的相機進行差異估測的電子裝置及方法 | |
TWI808987B (zh) | 將相機與陀螺儀融合在一起的五維視頻穩定化裝置及方法 | |
KR20190032061A (ko) | 이미지 보정을 수행하는 전자 장치 및 그 동작 방법 | |
CN111052727A (zh) | 用于根据使用图像获得的深度信息的属性结合图像存储深度信息的电子装置及其控制方法 | |
KR102524982B1 (ko) | 흐림 처리가 수행된 이미지에 노이즈 패턴을 반영하는 방법 및 장치 | |
EP3763119B1 (en) | Method for generating depth information and electronic device supporting the same | |
KR20190019605A (ko) | 심도 맵을 이용하여 이미지를 편집하기 위한 장치 및 그에 관한 방법 | |
US11270420B2 (en) | Method of correcting image on basis of category and recognition rate of object included in image and electronic device implementing same | |
CN112840644B (zh) | 利用相机或深度传感器中的至少一个获取深度信息的电子装置和方法 | |
TWI822987B (zh) | 用於確定影像的深度資訊的系統及方法 | |
KR102452575B1 (ko) | 광학식 이미지 안정화 움직임에 의한 이미지의 변화를 보상하기 위한 장치 및 방법 | |
KR102637901B1 (ko) | 전자 장치에 의한 돌리 줌 효과 제공 방법 및 상기 방법에서 사용되는 전자 장치 | |
KR20190019606A (ko) | 심도 맵을 이용하여 객체를 합성하기 위한 장치 및 그에 관한 방법 | |
KR20210092138A (ko) | 심층 신경망을 이용한 다중 프레임 이미지 및 비디오 처리를 위한 다중 프레임 상황별 어텐션을 위한 시스템 및 방법 | |
US11741671B2 (en) | Three-dimensional scene recreation using depth fusion | |
KR20190067438A (ko) | 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치 | |
US11297237B2 (en) | Electronic device for auto focusing function and operating method thereof | |
US11861859B2 (en) | System and method for disparity estimation based on cost-volume attention | |
CN114830176A (zh) | 用于深度神经网络特征匹配的非对称归一化相关层 |