TW202316239A - 具有應用程式產生的移動向量和深度之圖框外插 - Google Patents

具有應用程式產生的移動向量和深度之圖框外插 Download PDF

Info

Publication number
TW202316239A
TW202316239A TW111132755A TW111132755A TW202316239A TW 202316239 A TW202316239 A TW 202316239A TW 111132755 A TW111132755 A TW 111132755A TW 111132755 A TW111132755 A TW 111132755A TW 202316239 A TW202316239 A TW 202316239A
Authority
TW
Taiwan
Prior art keywords
frame
future
dimensional position
depth map
past
Prior art date
Application number
TW111132755A
Other languages
English (en)
Inventor
大衛 詹姆斯 伯雷
希安 魏
馬修 羅伯特 富爾格姆
尼爾 貝德克
張簡
Original Assignee
美商元平台技術有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/590,682 external-priority patent/US11783533B2/en
Application filed by 美商元平台技術有限公司 filed Critical 美商元平台技術有限公司
Publication of TW202316239A publication Critical patent/TW202316239A/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本發明提供一種方法,其包括接收對應於由一應用程式產生之一視訊流之一當前圖框的一所呈現影像、移動向量資料及一深度圖;使用該深度圖計算對應於展現於該所呈現影像中之一物件的該當前圖框之一當前三維位置;使用該移動向量資料及該深度圖計算對應於一過去圖框之該物件的一過去三維位置;基於該物件之該過去三維位置及該當前三維位置,而估計對應於一未來圖框的該物件之一未來三維位置;及藉由使用該物件之該未來三維位置而將展現於該所呈現影像中之該物件再投影至與該未來圖框相關聯之一未來視點,來產生對應於該未來圖框的一外插影像。

Description

具有應用程式產生的移動向量和深度之圖框外插
本發明大體上係關於人工實境系統,且詳言之,係關於外插圖框。
本申請案根據35 U.S.C. § 119(e)主張2021年10月11日申請之美國臨時專利申請案第63/254476號及2022年2月01日申請之美國非臨時專利申請案第17/590682號的權益,該些案以引用的方式併入本文中。
人工實境係在展現給使用者之前已以某一方式調整之實境形式,其可包括例如虛擬實境(virtual reality;VR)、擴增實境(augmented reality;AR)、混合實境(mixed reality;MR)、混雜實境或其某一組合及/或衍生物。人工實境內容可包括完全產生之內容,或與所捕獲之(例如,真實世界)內容組合之所產生內容。人工實境內容可包括視訊、音訊、觸覺反饋或其某一組合,且其中之任一者可在單一通道中或在多個通道中展現(諸如,對觀看者產生三維效應之立體聲視訊)。人工實境可與例如用於在人工實境中創建內容及/或用於人工實境中(例如,在人工實境中進行活動)之應用程式、產品、配件、服務或其某一組合相關聯。提供人工實境內容之人工實境系統可實施於各種平台上,包括連接至主機電腦系統之頭戴式顯示器(head-mounted display;HMD)、獨立式HMD、移動裝置或運算系統或能夠將人工實境內容提供至一或多個觀看者之任何其他硬體平台。
本文所描述之特定具體實例係關於用於藉由使用應用程式所產生之移動向量及深度圖,來產生高品質圖框外插及再投影之系統及方法。為了向使用者提供舒適人工實境體驗,需要以高圖框率呈現高解析度圖框。然而,歸因於硬體之運算能力限制,此對於移動HMD為巨大挑戰。用於人工實境系統之傳統時間扭曲(time warp)解決方案具有若干限制:解決方案僅校正旋轉但不校正平移移動,且不解決動畫快門。傳統時間扭曲解決方案簡單地旋轉二維RGB影像,以適應使用者之新視點。傳統圖框外插解決方案係基於較低品質移動向量,此係由於自二維影像估計移動向量。本文中揭示之新穎圖框外插解決方案可考慮平移移動以及旋轉移動。新穎圖框外插解決方案可利用由應用程式基於所呈現物件產生之移動向量及深度資訊。
在特定具體實例中,與穿戴式裝置相關聯之運算系統可接收對應於由應用程式產生之當前圖框的所呈現影像、移動向量資料及深度圖。移動向量資料及深度圖可基於由應用程式呈現之三維物件而產生。移動向量資料中之移動向量可為三維的。運算系統可處理接收到之移動向量資料及深度圖,使得擴展對應於所呈現影像之前景的區。運算系統可使用深度圖計算展現於對應於當前圖框之所呈現影像中之物件的當前三維位置。為了計算物件之當前三維位置,運算系統可自與當前圖框相關聯之當前視點將深度圖反向投影至三維空間上。當前視點可在呈現當前圖框之時間瞬間時與穿戴式裝置之位置及定向相關聯。運算系統可使用移動向量資料及深度圖計算對應於過去圖框之物件的過去三維位置。為了計算物件之過去三維位置,運算系統可藉由自深度圖減去移動向量來產生對應於過去圖框之經估計深度圖。運算系統可自與過去圖框相關聯之過去視點將經估計深度圖反向投影至三維空間上。運算系統可基於物件之過去三維位置及當前三維位置而估計對應於未來圖框之物件的未來三維位置。可基於物件以恆定速度自對應於過去圖框之時間瞬間移動至對應於未來圖框之時間瞬間的假設而進行估計物件的未來三維位置。運算系統可進行線性內插以估計物件之未來三維位置。在估計物件之未來三維位置之後,運算系統可藉由將物件之經估計未來三維位置投影至未來視點上來產生失真網格運算系統可藉由使用物件之未來三維位置將展現於所呈現影像中之物件再投影至與未來圖框相關聯之未來視點來產生對應於未來圖框的外插影像。為了產生外插影像,運算系統可將失真網格應用於所呈現影像。
本文中所揭示之具體實例僅為實例,且本發明之範圍不限於該些具體實例。特定具體實例可包括上文所揭示之具體實例的組件、元件、特徵、功能、操作或步驟中之全部、一些或無一者。根據本發明之具體實例尤其在針對一種方法、儲存媒體、系統及電腦程式產品之所附申請專利範圍中揭示,其中在一個請求項類別中提及之任何特徵(例如方法)亦可在另一請求項類別(例如系統)中主張。出於僅形式原因而選擇所附申請專利範圍中之依賴性或反向參考。然而,同樣可主張由對任何前述請求項之反向故意參考(特定言之在多個依賴性方面)產生的任何主題,以使得請求項及其特徵之任何組合經揭示且可無關於在所附申請專利範圍中選擇的依賴性而主張。可主張之主題不僅包括如所附申請專利範圍中闡述的特徵之組合而且包含請求項中特徵之任何其他組合,其中請求項中所提及之各特徵可組合於任何其他特徵或請求項中之其他特徵之組合。此外,本文中描述或描繪之具體實例及特徵中之任一者可在獨立請求項中、及/或在與本文中描述或描繪之任何具體實例或特徵或與所附申請專利範圍之特徵中之任一者的任何組合中主張。
1A說明實例人工實境系統100A。在特定具體實例中,人工實境系統100A可包含頭戴組104、控制器106及運算系統108。使用者102可配戴頭戴組104,該頭戴組可將視覺人工實境內容顯示給使用者102。頭戴組104可包括音訊裝置,其可將音訊人工實境內容提供至使用者102。頭戴組104可包括一或多個攝影機,其可捕獲環境之影像及視訊。頭戴組104可包括眼動追蹤系統以判定使用者102之輻輳距離。頭戴組104可包括麥克風以自使用者102捕獲語音輸入。頭戴組104可稱為頭戴式顯示器(HMD)。控制器106可包含軌跡墊及一或多個按鈕。控制器106可自使用者102接收輸入,且將輸入中繼至運算系統108。控制器106亦可將觸覺反饋提供至使用者102。運算系統108可經由纜線或無線連接而連接至頭戴組104及控制器106。運算系統108可控制頭戴組104及控制器106,以將人工實境內容提供至使用者102及自該使用者102接收輸入。運算系統108可為獨立式主機運算系統,與頭戴組104整合之機載運算系統、移動裝置,或能夠將人工實境內容提供至使用者102及自該使用者接收輸入之任何其他硬體平台。
1B說明實例擴增實境系統100B。擴增實境系統100B可包括頭戴式顯示器(HMD)110(例如眼鏡),其包含框架112、一或多個顯示器114及運算系統108。顯示器114可為透明或半透明的,允許穿戴HMD 110之使用者透過顯示器114看到真實世界,且同時將視覺人工實境內容顯示至使用者。HMD 110可包括可將音訊人工實境內容提供至使用者之音訊裝置。HMD 110可包括一或多個攝影機,其可捕獲環境之影像及視訊。HMD 110可包括眼動追蹤系統以追蹤穿戴HMD 110之使用者的輻輳移動。HMD 110可包括麥克風以自使用者捕獲語音輸入。擴增實境系統100B可進一步包括控制器,其包含軌跡墊及一或多個按鈕。控制器可自使用者接收輸入,且將輸入中繼至運算系統108。控制器亦可將觸覺反饋提供至使用者。運算系統108可經由電纜或無線連接而連接至HMD 110及控制器。運算系統108可控制HMD 110及控制器,以將擴增實境內容提供至使用者且自使用者接收輸入。運算系統108可為獨立式主機電腦裝置,與HMD 110整合之機載電腦裝置、移動裝置,或能夠將人工實境內容提供至使用者及自該使用者接收輸入之任何其他硬體平台。
2說明使用應用程式所產生之移動向量及深度資訊進行之圖框外插及再投影之實例概述。在圖2中所說明之實例中,應用程式210以每秒36個圖框(frames per second;FPS)呈現視訊圖框的影像。因此,應用程式210針對圖框N及N+2呈現影像211。應用程式亦產生對應於各影像211之移動向量及深度資訊213。藉由使用本文中所提議之圖框外插解決方案,運算系統108之作業系統220以72 FPS將圖框展現至使用者。作業系統220將被應用程式210呈現、針對圖框N及圖框N+2 221之影像211,展現至與運算系統108相關聯的顯示器。基於所呈現影像211、及隨著所呈現影像211產生之移動向量及深度資訊213,作業系統220產生針對圖框N+1及N+3之影像223。作業系統220將針對圖框N+1及N+3之所產生影像223展現至顯示器。儘管使用移動向量及深度資訊213進行高品質圖框外插可為重要的,但由取樣一半引起之延遲常常可對使用者體驗施加顯著影響。當延遲保持較高時,使用者可在旋轉頭戴組104時經歷顯著拉黑(black pulling)或在移動其控制器時經歷顯著滯後。本文中提議之數個技術以減小潛在延遲:(1)作業系統220可延遲圖框之開始,以減小在應用程式210結束呈現影像時之時間瞬間與影像在顯示器上消耗之時間瞬間之間的間隔。(2)作業系統220可再提取頭戴組104及控制器106之姿勢,以填充呈現影像與將所呈現影像展現至顯示器之間的時間間隙。(3)作業系統220可在進行時間扭曲之前立刻再取樣攝影機姿態,且基於自攝影機旋轉及攝影機平移兩者考慮而再投影像素。此技術稱作位置時間扭曲(positional time warp;PTW)。應用程式所產生之深度圖可用於該PTW。在特定具體實例中,在不使用圖框外插之情況下,具有PTW之頭部姿態延遲可甚至低於等效全圖框速率應用中之頭部姿態延遲。在特定具體實例中,特別負責圖框外插之運行時間系統可替代作業系統220起作用。儘管本發明描述以特定速率進行圖框外插,但本發明涵蓋以任何適合速率進行圖框外插。
在特定具體實例中,與HMD 110相關聯之運算系統108之作業系統220,可接收對應於由應用程式210產生之當前圖框的所呈現影像、移動向量資料及深度圖。在特定具體實例中,運算系統108可包含特別負責圖框外插之運行時間系統。在此類情況下,運行時間系統可替換作業系統220以用於本文中所揭示之程序。不同於在基於二維影像之間的比較而估計移動向量之先前方法,移動向量資料及深度圖可基於由應用程式呈現之三維物件而產生。移動向量資料中之移動向量可為三維的。可使用移動模糊技術、時間抗頻疊技術或任何適合技術來產生移動向量資料。由於深度緩衝始終用於移動向量計算,因此用於產生深度圖之開銷可較小。在特定具體實例中,運算系統108之作業系統220可處理接收到之移動向量資料及深度圖,使得對應於所呈現影像之前景的區被擴展。儘管本發明描述以特定方式接收所呈現影像、移動向量資料及深度圖,但本發明涵蓋以任何適合方式接收所呈現影像、移動向量資料及深度圖。
在特定具體實例中,運算系統108之作業系統220可使用深度圖,計算展現於對應於當前圖框之所呈現影像中之物件的當前三維位置。為了計算物件之當前三維位置,運算系統108之作業系統220可將深度圖自與當前圖框相關聯之當前視點反向投影至三維空間上。當前視點可相關聯於在呈現當前圖框之時間瞬間時的穿戴式裝置之位置及定向。 3說明圖框外插之實例資料流。作為實例而非作為限制,圖3中所說明,運算系統108之作業系統220可存取UV深度圖311,該UV深度圖311相關聯於對應至圖框 N的所呈現影像。UV深度圖311可為深度資訊至二維螢幕位置之映射。在特定具體實例中,UV深度圖311可為UV座標上之二維圖。藉由進行將UV深度圖311自與圖框 N相關聯之視點反向投影至三維空間上,運算系統108之作業系統220可計算對應於圖框 N之所呈現影像中之物件的三維位置314。藉由將對應於圖框 N之視圖投影矩陣313之倒數應用於UV深度圖311,反向投影可被進行。儘管本發明描述以特定方式計算展現於所呈現影像中之物件的當前三維位置,但本發明涵蓋以任何適合方式計算展現於所呈現影像中之物件的當前三維位置。
在特定具體實例中,運算系統108之作業系統220可使用移動向量資料及深度圖,計算對應於過去圖框之物件的過去三維位置。為了計算物件之過去三維位置,運算系統108之作業系統220可藉由自深度圖減去移動向量來產生對應於過去圖框之經估計深度圖。運算系統108之作業系統220可將經估計深度圖自與過去圖框相關聯之過去視點反向投影至三維空間上。作為實例而非作為限制,繼續圖3中所說明之先前實例,藉由自對應於圖框 N之UV深度圖311減去對應於圖框 N之移動向量312,運算系統108之作業系統220可估計對應於圖框 N-1的深度圖321。藉由進行將對應於圖框 N-1之經估計UV深度圖321自與圖框 N-1相關聯之視點反向投影至三維空間上,運算系統108之作業系統220可計算對應於圖框 N-1之物件的三維位置324。藉由將對應於圖框N-1之視圖投影矩陣323的倒數應用於對應於圖框 N-1之經估計UV深度圖321,反向投影可被進行。儘管本發明描述以特定方式計算對應於過去圖框之物件的過去三維位置,但本發明涵蓋以任何適合方式計算對應於過去圖框之物件的過去三維位置。
在特定具體實例中,基於物件之過去三維位置及當前三維位置,運算系統108之作業系統220可估計對應於未來圖框之物件的未來三維位置。基於物件之過去三維位置及物件之當前三維位置而估計物件之未來三維位置,可稱作空間扭曲(Space Warp)。可基於物件以恆定速度自對應於過去圖框之時間瞬間移動至對應於未來圖框之時間瞬間的假設,而進行估計物件的未來三維位置。運算系統108之作業系統220可進行線性內插以估計物件之未來三維位置。作為實例而非作為限制,繼續圖3中所說之先前實例,基於對應於圖框 N之物件的經計算三維位置314、及對應於圖框 N-1之物件的經估計三維位置324,運算系統108之作業系統220可估計物件之三維位置334。儘管本發明描述以特定方式基於物件之過去三維位置及當前三維位置而估計對應於未來圖框之物件的未來三維位置,但本發明涵蓋以任何適合方式基於物件之過去三維位置及當前三維位置而估計對應於未來圖框之物件的未來三維位置。
4說明基於物件之過去位置及當前位置而對物件之未來位置的實例估計。在圖4中所說明之具體實例中,物件位於時間t1處之三維位置x1處,且位於時間t2處之三維位置x2處。運算系統108之作業系統220可藉由進行線性內插來估計時間t3處之三維位置x3,其中x3=Ler(x1, x2, (t3-t1)/(t2-t1))。儘管本發明描述以特定方式基於先前位置而進行線性內插以預測物件之三維位置,但本發明涵蓋以任何適合方式基於先前位置而進行線性內插以預測物件的三維位置。
在特定具體實例中,藉由將物件之經估計未來三維位置再投影至未來視點上,運算系統108之作業系統220可產生失真網格。作為實例而非作為限制,繼續圖3中所說之先前實例,藉由將對應於圖框 N+1之物件之經估計三維位置334再投影至對應於圖框 N+1之視點上,運算系統108之作業系統220可產生失真網格337。藉由把對應於圖框 N+1之視圖投影矩陣335應用物件之經估計三維位置334,再投影可被進行。可藉由再提取頭戴組104之姿態獲取視圖投影矩陣335。儘管本發明描述藉由以特定方式將物件之經估計未來三維位置再投影至未來視點上來產生失真網格,但本發明涵蓋藉由以任何適合方式將物件之經估計未來三維位置再投影至未來視點上來產生失真網格。
在特定具體實例中,藉由使用物件之未來三維位置而將展現於所呈現影像中之物件再投影至與未來圖框相關聯之未來視點,運算系統108之作業系統220可產生對應於未來圖框的外插影像。為了產生外插影像,運算系統108之作業系統220可將失真網格應用於所呈現影像。作為實例而非作為限制,繼續圖3中所說明之先前實例,藉由將失真網格337應用於對應於圖框 N之所呈現影像(圖中未示),運算系統108之作業系統220可產生對應於圖框 N+1之影像(圖中未示)。運算系統108之作業系統220可將對應於圖框N+1之所產生影像,展現給與頭戴組104相關聯的顯示器。儘管本發明描述以特定方式產生對應於未來圖框之外插影像,但本發明涵蓋以任何適合方式產生對應於未來圖框之外插影像。
5說明全圖框呈現應用程式與半圖框呈現應用程式之間的每圖框時間預算之實例比較。在圖5中,(a)說明以72 FPS呈現影像之應用程式,而(b)說明以36 FPS呈現影像之應用程式。對於(b)中之應用程式,可使用本文中所揭示之發明每秒外插額外36個圖框。對於(a)中之應用程式,每圖框總預算可為13.9ms,其可需要在應用程式210與作業系統220之間拆分。對於每個圖框,作業系統220可進行組成工作以將所呈現影像推送至後端中之螢幕上。由於應用程式210及作業系統220可共用同一圖形處理單元(Graphics Processing Unit;GPU),因此若作業系統220每vsync佔用1.3ms,則應用程式210可具有12.6ms以使用。同時,在應用程式以36 FPS呈現時,(b)中之應用程式可具有27.8ms每圖框。由於圖框外插,作業系統220可消耗更多時間用於vsync,例如如圖5中所說明之1.8ms。此外,(b)中之應用程式可耗費額外時間以用於產生移動向量,例如如圖5中所說明之2.5ms。(b)中之應用程式可具有21.7ms之GPU時間每圖框,其比(a)中之應用程式的預算大71%。
應用程式可需要呈現透明物件。舉例而言,應用程式可在向右移動之不透明物件之頂部上呈現向左移動的透明物件。對於含有兩個物件之像素,移動向量可為含糊的,此係由於像素在兩個方向上移動。然而,問題可能不太顯著。當透明表面遠離攝影機時,投影移動可在圖框之間為極小的。此外,對於粒子效應,極少移動抖動可能不明顯,透明度呈現之較大使用案例,此係由於該效應常常與快速動畫一起出現,諸如爆炸。利用圖框外插及再投影之有問題的情況可為近場快速移動物件是透明之情況。近場快速移動物件之實例會是控制器106。因此,與控制器106相關聯之物件及控制器106之任何子物件可需要為不透明的。
圖框外插及再投影可致使一定程度之影像失真,尤其在背景上。當背景具有豐富紋理圖案時,失真可能不明顯。然而,當物件在清晰背景上移動時,由圖框外插及再投影引起之失真可能對使用者為明顯的。需要進行特定考慮以使背景對圖框外插更友好。
當物件快速旋轉時,圖框外插及再投影可致使物件周圍之像素失真假影。設想立方體以約每秒100轉地旋轉。立方體之自圖框至下一圖框之定向可似乎或多或少為隨機的,此係由於可能不會準確地構造移動向量。為了減輕此問題,當應用程式在移動向量產生階段期間偵測到高速旋轉時,應用程式可停用與物件旋轉相關聯之移動向量的部分。
6說明用於基於應用程式所產生之移動向量及深度圖而外插圖框的實例方法600。方法可在步驟610處開始,其中運算系統108之作業系統可接收對應於由應用程式產生之當前圖框的所呈現影像、移動向量資料及深度圖。在步驟620處,運算系統108之作業系統可使用深度圖,計算對應於展現於所呈現影像中之物件的當前圖框之當前三維位置。在步驟630處,運算系統108之作業系統可使用移動向量資料及深度圖,計算對應於過去圖框之物件的過去三維位置。在步驟640,運算系統108之作業系統可基於物件之過去三維位置及當前三維位置,而估計對應於未來圖框之物件的未來三維位置。在步驟650處,運算系統108之作業系統可藉由使用物件之未來三維位置而將展現於所呈現影像中之物件再投影至與未來圖框相關聯之未來視點,來產生對應於未來圖框的外插影像。在適當的情況下,特定具體實例可重複圖6之方法之一或多個步驟。儘管本發明將圖6之方法的特定步驟描述及說明為按特定次序發生,但本發明涵蓋圖6之方法的任何適合步驟按任何適合次序發生。此外,儘管本發明描述及說明用於基於應用程式所產生之移動向量及深度圖而外插圖框之實例方法,該實例方法包括圖6之方法的特定步驟,但本發明涵蓋用於基於應用程式所產生之移動向量及深度圖而外插圖框之任何適合方法,該任何適合方法包括任何適合步驟,在適當的情況下,該些步驟可包括圖6之方法之步驟中之所有、一些或中無一者。此外,儘管本發明描述及說明實行圖6之方法的特定步驟的特定組件、裝置或系統,但本發明涵蓋實行圖6之方法的任何適合步驟之任何適合組件、裝置或系統之任何適合組合。
系統及方法
7說明實例電腦系統700。在特定具體實例中,一或多個電腦系統700進行本文所描述或說明之一或多種方法之一或多個步驟。在特定具體實例中,一或多個電腦系統700提供本文中描述或說明之功能。在特定具體實例中,在一或多個電腦系統700上運行之軟體,進行本文中描述或說明之一或多種方法之一或多個步驟、或提供本文中描述或說明的功能。特定具體實例包括一或多個電腦系統700之一或多個部分。在本文中,在適當的情況下,對電腦系統之參考可涵蓋運算系統,且反之亦然。此外,在適當的情況下,對電腦系統之參考可涵蓋一或多個電腦系統。
本發明涵蓋任何適合數目個電腦系統700。本發明涵蓋採取任何適合實體形式之電腦系統700。作為實例而非限制,電腦系統700可為嵌入式電腦系統、系統單晶片(system-on-chip;SOC)、單板電腦系統(single-board computer system;SBC)(諸如模組電腦(computer-on-module;COM)或模組系統(system-on-module;SOM))、桌上型電腦系統、膝上型電腦或筆記本電腦系統、互動式公共資訊查詢站、大型電腦、電腦系統之網格、移動電話、個人數位助理(personal digital assistant;PDA)、伺服器、平板電腦系統,或此等中之兩者或更多者之組合。在適當的情況下,電腦系統700可包括一或多個電腦系統700;為單式或分佈式;橫跨多個位置;橫跨多個機器;橫跨多個資料中心;或駐留於雲中,該雲可包括一或多個網路中之一或多個雲組件。在適當的情況下,一或多個電腦系統700可在無實質空間或時間限制之情況下,進行本文中描述或說明之一或多種方法之一或多個步驟。作為實例而非限制,一或多個電腦系統700可即時或以批量模式,進行本文中描述或說明之一或多種方法之一或多個步驟。在適當的情況下,一或多個電腦系統700可在不同時間或在不同位置,進行本文中描述或說明的一或多種方法之一或多個步驟。
在特定具體實例中,電腦系統700包括處理器702、記憶體704、儲存器706、輸入/輸出(input/output;I/O)介面708、通信介面710,及匯流排712。儘管本發明描述及示出具有在特定配置中之特定數目個特定組件的特定電腦系統,但本發明涵蓋在任何適合配置中之任何適合數目個任何適合組件之任何適合電腦系統。
在特定具體實例中,處理器702包括用於執行指令(諸如組成電腦程式之指令)之硬體。作為實例而非作為限制,為了執行指令,處理器702可自內部暫存器、內部快取記憶體、記憶體704或儲存器706取回(或提取)指令;對指令進行解碼並執行指令;且接著將一或多個結果寫入至內部暫存器、內部快取記憶體、記憶體704或儲存器706。在特定具體實例中,處理器702可包括用於資料、指令或位址之一或多個內部快取記憶體。在適當的情況下,本發明涵蓋包括任何適合數目個任何適合內部快取記憶體之處理器702。作為實例而非限制,處理器702可包括一或多個指令快取記憶體、一或多個資料快取記憶體及一或多個轉譯後備緩衝器(translation lookaside buffer;TLB)。指令快取記憶體中之指令,可為記憶體704或儲存器706中之指令的複本,且指令快取記憶體可加速藉由處理器702進行的對於彼等指令的取回。資料快取記憶體中之資料,可為記憶體704或儲存器706中供在處理器702處執行的指令操作之資料的複本;供在處理器702處執行之後續指令存取、或供寫入至記憶體704或儲存器706的在處理器702處執行的先前指令之結果;或其他適合資料。資料快取記憶體可加速藉由處理器702進行的讀取或寫入操作。TLB可加速用於處理器702之虛擬位址轉譯。在特定具體實例中,處理器702可包括用於資料、指令或位址之一或多個內部暫存器。在適當的情況下,本發明涵蓋包括任何適合數目個任何適合內部暫存器之處理器702。在適當的情況下,處理器702可包括一或多個算術邏輯單元(arithmetic logic unit;ALU);為多核處理器;或包括一或多個處理器702。儘管本發明描述及說明特定處理器,但本發明涵蓋任何適合處理器。
在特定具體實例中,記憶體704包括主記憶體,其用於儲存供處理器702執行之指令、或供處理器702操作所針對之資料。作為實例而非作為限制,電腦系統700可自儲存器706或另一來源(諸如另一電腦系統700),將指令載入至記憶體704。處理器702接著可自記憶體704將指令載入至內部暫存器或內部快取記憶體。為了執行指令,處理器702可自內部暫存器或內部快取記憶體取回指令並對其進行解碼。在指令執行期間或之後,處理器702可將一或多個結果(其可為中間或最終結果)寫入至內部暫存器或內部快取記憶體。處理器702接著可將彼等結果中之一或多者寫入至記憶體704。在特定具體實例中,處理器702僅僅執行一或多個內部暫存器或內部快取記憶體中或記憶體704(與儲存器706相對或在別處)中的指令,且僅僅對一或多個內部暫存器或內部快取記憶體中或記憶體704(與儲存器706相對或在別處)中之資料進行操作。一或多個記憶體匯流排(其可各自包括位址匯流排及資料匯流排)可將處理器702耦接至記憶體704。如下文所描述,匯流排712可包括一或多個記憶體匯流排。在特定具體實例中,一或多個記憶體管理單元(memory management unit;MMU)駐留在處理器702與記憶體704之間,且促進由處理器702請求之對記憶體704的存取。在特定具體實例中,記憶體704包括隨機存取記憶體(random access memory;RAM)。在適當的情況下,此RAM可為揮發性記憶體。在適當的情況下時,此RAM可為動態RAM(dynamic RAM;DRAM)或靜態RAM(static RAM;SRAM)。此外,在適當的情況下,此RAM可為單埠或多埠RAM。本發明涵蓋任何適合RAM。在適當的情況下,記憶體704可包括一或多個記憶體704。儘管本發明描述及說明特定記憶體,但本發明涵蓋任何適合記憶體。
在特定具體實例中,儲存器706包括用於資料或指令之大容量儲存器。作為實例而非限制,儲存器706可包括硬碟機(hard disk drive;HDD)、軟碟機、快閃記憶體、光學光碟、磁性光學光碟、磁帶或通用串列匯流排(Universal Serial Bus;USB)驅動器、或此等中之兩者或更多者的組合。在適當的情況下,儲存器706可包括可移除或不可移除(或固定)媒體。在適當的情況下,儲存器706可在電腦系統700內部或外部。在特定具體實例中,儲存器706為非揮發性固態記憶體。在特定具體實例中,儲存器706包括唯讀記憶體(read-only memory;ROM)。在適當的情況時,此ROM可為遮罩經程式化ROM、可程式化ROM(programmable ROM;PROM)、可抹除PROM(erasable PROM;EPROM)、電可抹除PROM(electrically erasable PROM;EEPROM)、電可改ROM(electrically alterable ROM;EAROM),或快閃記憶體或此等中之兩者或更多者的組合。本發明涵蓋採取任何適合實體形式的大容量儲存器706。在適當的情況下,儲存器706可包括促進處理器702與儲存器706之間的通信之一或多個儲存裝置控制單元。在適當的情況下,儲存器706可包括一或多個儲存器706。儘管本發明描述及說明特定儲存器,但本發明涵蓋任何適合儲存器。
在特定具體實例中,I/O介面708包括硬體、軟體或兩者,提供一或多個介面用於電腦系統700與一或多個I/O裝置之間的通信。在適當的情況下,電腦系統700可包括此等I/O裝置中之一或多者。此等I/O裝置中之一或多者可實現個人與電腦系統700之間的通信。作為實例而非作為限制,I/O裝置可包括鍵盤、小鍵盤、麥克風、監視器、滑鼠、印表機、掃描器、揚聲器、靜態攝影機、手寫筆、平板電腦、觸控螢幕、軌跡球、視訊攝影機,另一適合I/O裝置或此等中之兩者或更多者的組合。I/O裝置可包括一或多個感測器。本發明涵蓋任何適合I/O裝置及用於其之任何適合I/O介面708。在適當的情況下,I/O介面708可包括一或多個裝置或軟體驅動器,使得處理器702能夠驅動此等I/O裝置中之一或多者。在適當的情況下,I/O介面708可包括一或多個I/O介面708。儘管本發明描述及說明特定I/O介面,但本發明涵蓋任何適合I/O介面。
在特定具體實例中,通信介面710包括硬體、軟體或兩者,提供一或多個介面用於電腦系統700與一或多個其他電腦系統700或一或多個網路之間的通信(諸如基於封包之通信)。作為實例而非限制,通信介面710可包括用於與乙太網或其他基於有線之網路通信的網路介面控制器(network interface controller;NIC),或用於與無線網路(諸如WI-FI網路)通信的無線NIC(wireless NIC;WNIC)或無線配接器。本發明涵蓋任何適合網路及用於其之任何適合通信介面710。作為實例而非限制,電腦系統700可與特用網路、個人區域網路(personal area network ;PAN)、區域網路(local area network;LAN)、廣域網路(wide area network;WAN)、都會區域網路(metropolitan area network;MAN)或網際網路之一或多個部分或此等中之兩者或更多者的組合通信。此等網路中之一或多者的一或多個部分可為有線或無線的。作為實例,電腦系統700可與無線PAN(wireless PAN;WPAN)(諸如藍芽WPAN)、WI-FI網路、WI-MAX網路、蜂巢式電話網路(諸如全球移動通信系統(Global System for Mobile Communication;GSM)網路),或其他適合無線網路或此等中之兩者或更多者的組合通信。在適當的情況下,電腦系統700可包括用於此等網路中之任一者的任何適合通信介面710。在適當的情況下,通信介面710可包括一或多個通信介面710。儘管本發明描述及說明特定通信介面,但本發明涵蓋任何適合通信介面。
在特定具體實例中,匯流排712包括將電腦系統700之組件彼此耦接的硬體、軟體,或兩者。作為實例而非限制,匯流排712可包括加速圖形埠(Accelerated Graphics Port;AGP)或其他圖形匯流排、增強行業標準架構(Enhanced Industry Standard Architecture;EISA)匯流排、前側匯流排(front-side bus;FSB)、超傳輸(HYPERTRANSPORT;HT)互連、工業標準架構(Industry Standard Architecture;ISA)匯流排、INFINIBAND互連、低針腳數(low-pin-count;LPC)匯流排、記憶體匯流排、微型頻道架構(Micro Channel Architecture;MCA)匯流排、周邊組件互連(Peripheral Component Interconnect;PCI)匯流排、PCI高速(PCI-Express;PCIe)匯流排、串列進階附接技術(serial advanced technology attachment;SATA)匯流排、視訊電子標準協會局部(Video Electronics Standards Association local;VLB)匯流排,或另一適合匯流排或此等匯流排中之兩者或更多者的組合。在適當的情況下,匯流排712可包括一或多個匯流排712。儘管本發明描述及說明特定匯流排,但本發明涵蓋任何適合匯流排或互連件。
本文中,電腦可讀取非暫時性儲存媒體或媒體可包括一或多個基於半導體或其他積體電路(integrated circuit;IC)(諸如場可程式化閘極陣列(field-programmable gate array;FPGA)或特殊應用IC(application-specific IC;ASIC))、硬碟機(HDD)、混合式硬碟機(hybrid hard drive;HHD)、光學光碟、光學光碟機(optical disc drives;ODD)、磁性光學光碟、磁性光學驅動器、軟碟、軟碟機(floppy disk drive;FDD)、磁帶、固態磁碟機(solid-state drive;SSD)、RAM驅動機、安全數位卡或驅動器、任何其他適合電腦可讀取非暫時性儲存媒體,或此等中之兩者或更多者的任何適合組合。在適當的情況下,電腦可讀取非暫時性儲存媒體可為揮發性、非揮發性或揮發性與非揮發性之組合。
其他
在本文中,除非另外明確指示或上下文另外指示,否則「或」為包括性且並非排他性的。因此,除非另外明確指示或上下文另外指示,否則本文中「A或B」意謂「A、B或兩者」。此外,除非另外明確指示或上下文另外指示,否則「及」為聯合及各自兩者。因此,除非另外明確指示或上下文另外指示,否則本文中「A及B」意謂「A及B,聯合地或各自地」。
本發明之範圍涵蓋所屬技術領域中具有通常知識者將瞭解的本文中描述或說明之實例具體實例的全部改變、取代、變化、更改及修改。本發明之範疇不限於本文中所描述或說明的實例具體實例。此外,儘管本發明將本文各別具體實例描述及說明為包括特定組件、元件、特徵、功能、操作或步驟,但此等具體實例中之任一者可包括所屬技術領域中具有通常知識者將瞭解的本文中任何位置描述或說明的組件、元件、特徵、功能、操作或步驟中之任一者的任何組合或排列。此外,所附申請專利範圍中對經調適以、經配置以、能夠、經組態以、經啟用以、經操作以或可操作以進行特定功能的設備或系統或設備或系統之組件的參考涵蓋只要彼設備、系統或組件因此經調適、經配置、能夠、經組態、經啟用、經操作或可操作,彼設備、系統、組件(不管其或彼特定功能)便經激活、接通或解鎖。另外,儘管本發明將特定具體實例描述或說明為提供特定優點,但特定具體實例可提供此等優點中之無一者、一些或全部。
100A:人工實境系統 100B:實例擴增實境系統 102:使用者 104:頭戴組 106:控制器 108:運算系統 110:頭戴式顯示器 112:框架 114:顯示器 210:應用程式 211:影像 213:移動向量及深度資訊 220:作業系統 221:影像 223:影像 311:UV深度圖 312:移動向量 313:視圖投影矩陣 314:三維位置 321:深度圖 323:視圖投影矩陣 324:三維位置 334:經估計三維位置 335:視圖投影矩陣 337:失真網格 600:方法 610:步驟 620:步驟 630:步驟 640:步驟 650:步驟 700:電腦系統 702:處理器 704:記憶體 706:儲存器 708:輸入/輸出介面 710:通信介面 712:匯流排
[圖1A]說明實例人工實境系統。
[圖1B]說明實例擴增實境系統。
[圖2]說明使用應用程式所產生之移動向量及深度資訊進行之圖框外插及再投影之實例概述。
[圖3]說明圖框外插之實例資料流。
[圖4]說明基於物件之過去位置及當前位置而對物件之未來位置的實例估計。
[圖5]說明全圖框呈現應用程式與半圖框呈現應用程式之間的每圖框時間預算之實例比較。
[圖6]說明用於基於應用程式所產生之移動向量及深度圖而外插圖框的實例方法。
[圖7]說明實例電腦系統。
600:方法
610:步驟
620:步驟
630:步驟
640:步驟
650:步驟

Claims (20)

  1. 一種方法,其包含藉由與一穿戴式裝置相關聯之一運算系統: 接收對應於一視訊流之一當前圖框的一所呈現影像、移動向量資料及一深度圖,該視訊流係由一應用程式產生的; 針對展現於該所呈現影像中之一物件,使用該深度圖計算對應於該當前圖框之該物件的一當前三維位置; 使用該移動向量資料及該深度圖,計算對應於一過去圖框之該物件的一過去三維位置; 基於該物件之該過去三維位置及該當前三維位置,估計對應於一未來圖框之該物件的一未來三維位置;及 藉由使用該物件之該未來三維位置而將展現於該所呈現影像中之該物件再投影至與該未來圖框相關聯之一未來視點,來產生對應於該未來圖框的一外插影像。
  2. 如請求項1之方法,其中該移動向量資料及該深度圖係基於由該應用程式呈現之三維物件而產生。
  3. 如請求項2之方法,其中該移動向量資料中之移動向量為三維的。
  4. 如請求項1之方法,其進一步包含處理該接收到之移動向量資料及該深度圖,使得對應於該所呈現影像之前景的區被擴展。
  5. 如請求項1之方法,其中計算該物件之該當前三維位置,包含將該深度圖自與該當前圖框相關聯之一當前視點反向投影至一三維空間上。
  6. 如請求項5之方法,其中該當前視點相關聯於在該當前圖框被呈現之一時間瞬間時的該穿戴式裝置之一位置及一定向。
  7. 如請求項1之方法,其中計算該物件之該過去三維位置包含: 藉由自該深度圖減去該移動向量,產生對應於該過去圖框之一經估計深度圖;及 將該經估計深度圖自與該過去圖框相關聯之一過去視點反向投影至一三維空間上。
  8. 如請求項1之方法,其中估計該物件的該未來三維位置係基於一假設而進行,該假設係該物件以一恆定速度自對應於該過去圖框之一時間瞬間移動至對應於該未來圖框之一時間瞬間的。
  9. 如請求項8之方法,其進一步包含藉由將該物件之該經估計未來三維位置投影至該未來視點上,來產生一失真網格。
  10. 如請求項9之方法,其中產生對應於該未來圖框之該外插影像包含將該失真網格應用於該所呈現影像。
  11. 一或多個電腦可讀取非暫時性儲存媒體,其包含當經執行時可操作以進行以下操作的軟體: 接收對應於一視訊流的一當前圖框之一所呈現影像、移動向量資料及一深度圖,該視訊流係由一應用程式產生的; 針對展現於該所呈現影像中之一物件,使用該深度圖計算對應於該當前圖框之該物件的一當前三維位置; 使用該移動向量資料及該深度圖計算,對應於一過去圖框之該物件的一過去三維位置; 基於該物件之該過去三維位置及該當前三維位置,估計對應於一未來圖框之該物件的一未來三維位置;及 藉由使用該物件之該未來三維位置而將展現於該所呈現影像中之該物件再投影至與該未來圖框相關聯之一未來視點,來產生對應於該未來圖框的一外插影像。
  12. 如請求項11之媒體,其中該移動向量資料及該深度圖係基於由該應用程式呈現之三維物件而產生。
  13. 如請求項12之媒體,其中該移動向量資料中之移動向量為三維的。
  14. 如請求項11之媒體,其中該軟體在執行時可進一步操作以處理該接收到之移動向量資料及該深度圖,使得對應於該所呈現影像之前景的區被擴展。
  15. 如請求項11之媒體,其中計算該物件之該當前三維位置,包含將該深度圖自與該當前圖框相關聯之一當前視點反向投影至一三維空間上。
  16. 如請求項15之媒體,其中該當前視點相關聯於在該當前圖框被呈現之一時間瞬間時的該穿戴式裝置之一位置及一定向。
  17. 如請求項11之方法,其中計算該物件之該過去三維位置包含: 藉由自該深度圖減去該移動向量,產生對應於該過去圖框之一經估計深度圖;及 將該經估計深度圖自與該過去圖框相關聯之一過去視點反向投影至一三維空間上。
  18. 如請求項11之媒體,其中估計該物件的該未來三維位置係基於一假設而進行,該假設係該物件以一恆定速度自對應於該過去圖框之一時間瞬間移動至對應於該未來圖框之一時間瞬間的。
  19. 如請求項18之媒體,其中該軟體在執行時可進一步操作以:藉由將該物件之該經估計未來三維位置投影至該未來視點上,來產生一失真網格。
  20. 一種系統,其包含:一或多個處理器;及一非暫時性記憶體,其耦接至該些處理器,該非暫時性記憶體包含可由該些處理器執行之指令,該些處理器在執行該些指令時可操作以進行以下操作: 接收對應於一視訊流的一當前圖框之一所呈現影像、移動向量資料及一深度圖,該視訊流係由一應用程式產生的; 針對展現於該所呈現影像中之一物件,使用該深度圖計算對應於該當前圖框之該物件的一當前三維位置; 使用該移動向量資料及該深度圖,計算對應於一過去圖框之該物件的一過去三維位置; 基於該物件之該過去三維位置及該當前三維位置,而估計對應於一未來圖框之該物件的一未來三維位置;及 藉由使用該物件之該未來三維位置而將展現於該所呈現影像中之該物件再投影至與該未來圖框相關聯之一未來視點,來產生對應於該未來圖框的一外插影像。
TW111132755A 2021-10-11 2022-08-30 具有應用程式產生的移動向量和深度之圖框外插 TW202316239A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163254476P 2021-10-11 2021-10-11
US63/254,476 2021-10-11
US17/590,682 US11783533B2 (en) 2021-10-11 2022-02-01 Frame extrapolation with application generated motion vector and depth
US17/590,682 2022-02-01

Publications (1)

Publication Number Publication Date
TW202316239A true TW202316239A (zh) 2023-04-16

Family

ID=83996916

Family Applications (1)

Application Number Title Priority Date Filing Date
TW111132755A TW202316239A (zh) 2021-10-11 2022-08-30 具有應用程式產生的移動向量和深度之圖框外插

Country Status (2)

Country Link
TW (1) TW202316239A (zh)
WO (1) WO2023064090A1 (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
US7015926B2 (en) * 2004-06-28 2006-03-21 Microsoft Corporation System and process for generating a two-layer, 3D representation of a scene
US10136119B2 (en) * 2013-01-10 2018-11-20 Qualcomm Incoporated View synthesis in 3D video
US11270492B2 (en) * 2019-06-25 2022-03-08 Arm Limited Graphics processing systems
US11417065B2 (en) * 2019-10-29 2022-08-16 Magic Leap, Inc. Methods and systems for reprojection in augmented-reality displays

Also Published As

Publication number Publication date
WO2023064090A1 (en) 2023-04-20

Similar Documents

Publication Publication Date Title
US11719933B2 (en) Hand-locked rendering of virtual objects in artificial reality
US11170577B2 (en) Generating and modifying representations of objects in an augmented-reality or virtual-reality scene
US20230039100A1 (en) Multi-layer reprojection techniques for augmented reality
US20150084949A1 (en) Stereoscopic rendering using vertix shader instancing
JP2024502772A (ja) 合成イメージの生成
US11468629B2 (en) Methods and apparatus for handling occlusions in split rendering
JP2024502273A (ja) 時間的中心窩レンダリング
US20230136662A1 (en) Parallax Asynchronous Spacewarp for Multiple Frame Extrapolation
US20230128288A1 (en) Compositor layer extrapolation
US11715272B2 (en) 3D reconstruction of a moving object
US11783533B2 (en) Frame extrapolation with application generated motion vector and depth
US11615594B2 (en) Systems and methods for reconstruction of dense depth maps
TW202316239A (zh) 具有應用程式產生的移動向量和深度之圖框外插
US11423616B1 (en) Systems and methods for rendering avatar with high resolution geometry
US11640699B2 (en) Temporal approximation of trilinear filtering
US11423520B2 (en) Distortion-corrected rasterization
US20240249478A1 (en) Gaze-based super-resolution for extended reality devices
WO2024155967A1 (en) Gaze-based super-resolution for extended reality devices
TW202314646A (zh) 數位服裝產生