TW202123694A - 3d顯示設備、3d圖像顯示方法 - Google Patents
3d顯示設備、3d圖像顯示方法 Download PDFInfo
- Publication number
- TW202123694A TW202123694A TW109142887A TW109142887A TW202123694A TW 202123694 A TW202123694 A TW 202123694A TW 109142887 A TW109142887 A TW 109142887A TW 109142887 A TW109142887 A TW 109142887A TW 202123694 A TW202123694 A TW 202123694A
- Authority
- TW
- Taiwan
- Prior art keywords
- user
- eye
- image
- pixels
- display
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Liquid Crystal (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本發明涉及3D顯示技術領域,公開一種3D顯示設備,包括:多視點3D顯示屏,包括多個複合像素,多個複合像素中的每個複合像素包括多個複合子像素,多個複合子像素中的每個複合子像素包括對應於3D顯示設備的多個視點的多個子像素;視角確定裝置,被配置為確定用戶的用戶視角;3D處理裝置,被配置為基於用戶視角,依據3D模型的景深資訊渲染多個複合子像素中的相應子像素。該設備可以解決3D顯示失真的問題。本發明還公開一種3D圖像顯示方法、電腦可讀儲存介質、電腦程式產品。
Description
本發明涉及3D顯示技術領域,例如涉及3D顯示設備、3D圖像顯示方法。
3D顯示技術因為能向用戶呈現栩栩如生的視覺體驗而成為影像技術中的研究熱點。
在實現本發明實施例的過程中,發現相關技術中至少存在如下問題:各個位置的用戶看到的都是相同的3D圖像,只有一定範圍內的用戶會產生真實感受,範圍外的其它用戶會感覺到顯示失真。
本背景技術僅為了便於瞭解本領域的相關技術,並不視作對現有技術的承認。
為了對披露的實施例的一些方面有基本的理解,下面給出了簡單的概括。該概括不是泛泛評述,也不是要確定關鍵/重要組成元素或描繪這些實施例的保護範圍,而是作為後面的詳細說明的序言。
本發明實施例提供了一種3D顯示設備、3D圖像顯示方法、電腦可讀儲存介質、電腦程式產品,以解決3D顯示失真的技術問題。
在一些實施例中,提供了一種3D顯示設備,包括:多視點3D顯示屏,包括多個複合像素,多個複合像素中的每個複合像素包括多個複合子像素,多個複合子像素中的每個複合子像素包括對應於3D顯示設備的多個視點的多個子像素;視角確定裝置,被配置為確定用戶的用戶視角;3D處理裝置,被配置為基於用戶視角,依據3D模型的景深資訊渲染多個複合子像素中的相應子像素。
在一些實施例中,3D處理裝置被配置為基於用戶視角,由景深資訊生成3D圖像,並依據3D圖像渲染相應子像素。
在一些實施例中,3D顯示設備還包括:眼部定位裝置,被配置為確定用戶的眼部空間位置;3D處理裝置被配置為基於眼部空間位置確定用戶的眼部所在視點,並基於3D圖像渲染與眼部所在視點相應的子像素。
在一些實施例中,眼部定位裝置包括:眼部定位器,被配置為拍攝用戶的用戶圖像;眼部定位影像處理器,被配置為基於用戶圖像確定眼部空間位置;和眼部定位資料介面,被配置為傳輸表明眼部空間位置的眼部空間位置資訊。
在一些實施例中,眼部定位器包括:第一攝像頭,被配置為拍攝第一圖像;和第二攝像頭,被配置為拍攝第二圖像;其中,眼部定位影像處理器被配置為基於第一圖像和第二圖像中的至少一副圖像識別眼部的存在且基於識別到的眼部確定眼部空間位置。
在一些實施例中,眼部定位器包括:攝像頭,被配置為拍攝圖像;和深度檢測器,被配置為獲取用戶的眼部深度資訊;其中,眼部定位影像處理器被配置為基於圖像識別眼部的存在且基於識別到的眼部位置和眼部深度資訊確定眼部空間位置。
在一些實施例中,用戶視角為用戶與多視點3D顯示屏的顯示平面之間的夾角。
在一些實施例中,用戶視角為用戶視線與多視點3D顯示屏的顯示平面之間的夾角,其中用戶視線為用戶雙眼連線的中點與多視點3D顯示屏的中心的連線。
在一些實施例中,用戶視角為:用戶視線與顯示平面的橫向、豎向和深度方向中至少之一的夾角;或用戶視線與用戶視線在顯示平面內的投影之間的夾角。
在一些實施例中,3D顯示設備還包括:3D信號介面,被配置為接收3D模型。
在一些實施例中,提供了一種3D圖像顯示方法,包括:確定用戶的用戶視角;和基於用戶視角,依據3D模型的景深資訊渲染多視點3D顯示屏中的複合像素的複合子像素中的相應子像素。
在一些實施例中,基於用戶視角,依據3D模型的景深資訊渲染多視點3D顯示屏中的複合像素的複合子像素中的相應子像素包括:基於用戶視角,由景深資訊生成3D圖像,並依據3D圖像渲染相應子像素。
在一些實施例中,3D圖像顯示方法還包括:確定用戶的眼部空間位置;基於眼部空間位置確定用戶的眼部所在視點;和基於3D圖像渲染與眼部所在視點相應的子像素。
在一些實施例中,確定用戶的眼部空間位置包括:拍攝用戶的用戶圖像;基於用戶圖像確定眼部空間位置;和傳輸表明眼部空間位置的眼部空間位置資訊。
在一些實施例中,拍攝用戶的用戶圖像並基於用戶圖像確定眼部空間位置包括:拍攝第一圖像;拍攝第二圖像;基於第一圖像和第二圖像中的至少一幅圖像識別眼部的存在;和基於識別到的眼部確定眼部空間位置。
在一些實施例中,拍攝用戶的用戶圖像並基於用戶圖像確定眼部空間位置包括:拍攝圖像;獲取用戶的眼部深度資訊;基於圖像識別眼部的存在;和基於識別到的眼部位置和眼部深度資訊共同確定眼部空間位置。
在一些實施例中,用戶視角為用戶與多視點3D顯示屏的顯示平面之間的夾角。
在一些實施例中,用戶視角為用戶視線與多視點3D顯示屏的顯示平面之間的夾角,其中用戶視線為用戶雙眼連線的中點與多視點3D顯示屏的中心的連線。
在一些實施例中,用戶視角為:用戶視線與顯示平面的橫向、豎向和深度方向中至少之一的夾角;或用戶視線與用戶視線在顯示平面內的投影之間的夾角。
在一些實施例中,3D圖像顯示方法還包括:接收3D模型。
在一些實施例中,提供了一種3D顯示設備,包括:處理器;和儲存有程式指令的記憶體;處理器被配置為在執行程式指令時,執行如上所述的方法。
本發明實施例提供的電腦可讀儲存介質,儲存有電腦可執行指令,上述電腦可執行指令設置為執行上述的3D圖像顯示方法。
本發明實施例提供的電腦程式產品,包括儲存在電腦可讀儲存介質上的電腦程式,上述電腦程式包括程式指令,當該程式指令被電腦執行時,使上述電腦執行上述的3D圖像顯示方法。
本發明實施例提供的3D顯示設備、3D圖像顯示方法,以及電腦可讀儲存介質、電腦程式產品,可以實現以下技術效果:
向用戶提供基於視角的隨動3D顯示效果。不同角度的用戶能觀看到不同的3D顯示畫面,顯示效果逼真。不同角度的顯示效果還能隨用戶的視角變化而隨動調整。以向用戶呈現良好的視覺效果。
以上的總體描述和下文中的描述僅是示例性和解釋性的,不用於限制本發明。
為了能夠更加詳盡地瞭解本發明實施例的特點與技術內容,下面結合圖式對本發明實施例的實現進行詳細闡述,所附圖式僅供參考說明之用,並非用來限定本發明實施例。
根據本發明的實施例提供了一種3D顯示設備,包括多視點3D顯示屏(例如:多視點裸眼3D顯示屏)、配置為確定用戶的用戶視角的視角確定裝置、配置為基於用戶視角並依據3D模型或3D視頻的景深資訊渲染多視點3D顯示屏所包含的複合像素中的複合子像素中的相應子像素的3D處理裝置。
在一些實施例中,3D處理裝置基於用戶視角並依據3D模型或3D視頻的景深資訊生成3D圖像,例如生成對應於用戶視角的3D圖像。用戶視角與生成的3D圖像的對應關係,類似於用戶從不同角度看向真實存在的場景會看到對應於該角度的場景表現。對於不同的用戶視角,由3D模型或3D視頻的景深資訊生成的3D圖像有可能不同。由此,生成了基於用戶視角而隨動的3D圖像,各個視角下的用戶所看到的3D圖像是不同的,從而借助多視點3D顯示屏能夠使用戶感受到猶如觀看真實物體般的感覺,改進顯示效果並改善用戶體驗。
圖1A示出了根據本發明實施例的3D顯示設備100的示意圖。如圖1A所示,3D顯示設備100包括多視點3D顯示屏110、3D處理裝置130、眼部定位裝置150、視角確定裝置160、3D信號介面140和處理器120。
在一些實施例中,多視點3D顯示屏110可包括顯示面板和覆蓋顯示面板的光柵(未示出)。顯示面板可以包括m列n行(m×n)個複合像素400並因此限定出m×n的顯示解析度。m×n的顯示解析度例如可以為全高清(FHD)以上的解析度,包括但不限於:1920×1080、1920×1200、2048×1280、2560×1440、3840×2160等。每個複合像素包括多個複合子像素,每個複合子像素包括對應於i個視點的i個同色子像素,其中i≥3。
圖1A示意性地示出了m×n個複合像素中的一個複合像素400,包括由i=6個紅色子像素R構成的紅色複合子像素410、由i=6個綠色子像素G構成的綠色複合子像素420和由i=6個藍色子像素B構成的藍色複合子像素430。3D顯示設備100相應具有i=6個視點(V1-V6)。在其他實施例中可以想到i為大於或小於6的其他值,如10、30、50、100等。
在一些實施例中,每個複合像素呈正方形。每個複合像素中的多個複合子像素可以彼此平行佈置。每個複合子像素中的i個子像素可以成行佈置。
在一些實施例中,3D處理裝置為FPGA或ASIC晶片或FPGA或ASIC晶片組。在一些實施例中,3D顯示設備100也可設置有一個以上3D處理裝置130,它們並行、串列或串並行結合地處理對3D顯示屏110的各複合像素的各複合子像素的子像素的渲染。本領域技術人員將明白,一個以上3D處理裝置可以有其他的方式分配且並行處理3D顯示屏110的多行多列複合像素或複合子像素,這落入本發明實施例的範圍內。如圖1A所示的實施例,3D處理裝置130還可以選擇性地包括緩存器131,以便緩存所接收到的3D視頻的圖像。
在一些實施例中,處理器被包括在電腦或智慧終端機中,這樣的智慧終端機例如為移動終端。或者,處理器可以作為電腦或智慧終端機的處理器單元。但是可以想到,在一些實施例中,處理器120可以設置在3D顯示設備100的外部,例如3D顯示設備100可以為帶有3D處理裝置的多視點3D顯示器,例如非智慧的3D電視。
在一些實施例中,3D顯示設備內部包括處理器。基於此,3D信號介面140為連接處理器120與3D處理裝置130的內部介面。這樣的3D顯示設備100例如可以是移動終端,3D信號介面140可以為MIPI、mini-MIPI介面、LVDS介面、min-LVDS介面或Display Port介面。
如圖1A所示,3D顯示設備100的處理器120還可包括暫存器121。暫存器121可配置為暫存指令、數據和地址。在一些實施例中,暫存器121可被配置為接收有關多視點3D顯示屏110的顯示要求的資訊。在一些實施例中,3D顯示設備100還可以包括編解碼器,配置為對壓縮的3D視頻信號解壓縮和編解碼並將解壓縮的3D視頻信號經3D信號介面140發送至3D處理裝置130。
在一些實施例中,3D顯示設備100可以包括配置為獲取/確定眼部定位資料的眼部定位裝置。例如圖1B所示的實施例中,3D顯示設備100包括通信連接至3D處理裝置130的眼部定位裝置150,由此3D處理裝置130可以直接接收眼部定位資料。在一些實施例中,眼部定位裝置150可同時連接處理器120和3D處理裝置130,使得一方面3D處理裝置130可以直接從眼部定位裝置150獲取眼部定位資料,另一方面眼部定位裝置150從處理器120獲取的其他資訊可以被3D處理裝置130處理。
在一些實施例中,眼部定位資料包括表明用戶的眼部空間位置的眼部空間位置資訊,眼部空間位置資訊可以三維座標形式表現,例如包括用戶的眼部/臉部與多視點3D顯示屏或眼部定位裝置之間的間距資訊(也就是用戶的眼部/臉部的深度資訊)、觀看的眼部/臉部在多視點3D顯示屏或眼部定位裝置的橫向上的位置資訊、用戶的眼部/臉部在多視點3D顯示屏或眼部定位裝置的豎向上的位置資訊。眼部空間位置也可以用包含間距資訊、橫向位置資訊和豎向位置資訊中的任意兩個資訊的二維座標形式表現。眼部定位資料還可以包括用戶的眼部(例如雙眼)所在的視點(視點位置)、用戶視角等。
在一些實施例中,眼部定位裝置包括配置為拍攝用戶圖像(例如用戶臉部圖像)的眼部定位器、配置為基於所拍攝的用戶圖像確定眼部空間位置的眼部定位影像處理器和配置為傳輸眼部空間位置資訊的眼部定位資料介面,眼部空間位置資訊表明眼部空間位置。
在一些實施例中,眼部定位器包括配置為拍攝第一圖像的第一攝像頭和配置為拍攝第二圖像的第二攝像頭,而眼部定位影像處理器配置為基於第一圖像和第二圖像中的至少一副圖像識別眼部的存在且基於識別到的眼部確定眼部空間位置。
圖2示出了眼部定位裝置中的眼部定位器配置有兩個攝像頭的示例。如圖所示,眼部定位裝置150包括眼部定位器159、眼部定位影像處理器152和眼部定位資料介面153。眼部定位器159包括例如為黑白攝像頭的第一攝像頭151a和例如為黑白攝像頭的第二攝像頭151b。第一攝像頭151a配置為拍攝例如為黑白圖像的第一圖像,第二攝像頭151b配置為拍攝例如為黑白圖像的第二圖像。眼部定位裝置150可以前置於3D顯示設備100中,例如前置於多視點3D顯示屏110中。第一攝像頭151a和第二攝像頭151b的拍攝物件可以是用戶臉部。在一些實施例中,第一攝像頭151a和第二攝像頭151b中的至少一個可以是彩色攝像頭,並且配置為拍攝彩色圖像。
在一些實施例中,眼部定位裝置150的眼部定位資料介面153通信連接至3D顯示設備100的3D處理裝置130,由此3D處理裝置130可以直接接收眼部定位資料。在另一些實施例中,眼部定位裝置150的眼部定位影像處理器152可通信連接至或集成至處理器120,由此眼部定位資料可以從處理器120通過眼部定位資料介面153被傳輸至3D處理裝置130。
可選地,眼部定位器159還設置有紅外發射裝置154。在第一攝像頭或第二攝像頭工作時,紅外發射裝置154配置為選擇性地發射紅外光,以在環境光線不足時、例如在夜間拍攝時起到補光作用,從而在環境光線弱的條件下也可以拍攝能識別出用戶臉部及眼部的第一圖像和第二圖像。
在一些實施例中,顯示設備可以配置為在第一攝像頭或第二攝像頭工作時,基於接收到的光線感應信號,例如檢測到光線感應信號低於預定閾值時,控制紅外發射裝置開啟或調節其大小。在一些實施例中,光線感應信號是由處理終端或顯示設備集成的環境光感測器接收的。上述針對紅外發射裝置的操作也可以由眼部定位裝置或集成有眼部定位裝置的處理終端來完成。
可選地,紅外發射裝置154配置為發射波長大於或等於1.5微米的紅外光,亦即長波紅外光。與短波紅外光相比,長波紅外光穿透皮膚的能力較弱,因此對眼部的傷害較小。
拍攝到的第一圖像和第二圖像被傳輸至眼部定位影像處理器152。眼部定位影像處理器152可以配置為具有視覺識別功能(如臉部識別功能),並且可以配置為基於第一圖像和第二圖像中的至少一幅圖像識別出眼部以及基於識別出的眼部確定眼部空間位置。識別眼部可以是先基於第一圖像和第二圖像中的至少一幅圖像識別出臉部,再經由識別的臉部來識別眼部。
在一些實施例中,眼部定位影像處理器152可以基於眼部空間位置確定用戶眼部所處的視點。在另一些實施例中,由3D處理裝置130基於獲取的眼部空間位置來確定用戶眼部所處的視點。
在一些實施例中,第一攝像頭和第二攝像頭可以是相同的攝像頭,例如相同的黑白攝像頭,或相同的彩色攝像頭。在另一些實施例中,第一攝像頭和第二攝像頭可以是不同的攝像頭,例如不同的黑白攝像頭,或不同的彩色攝像頭。在第一攝像頭和第二攝像頭是不同攝像頭的情況下,為了確定眼部的空間位置,可以對第一圖像和第二圖像進行校準或矯正。
在一些實施例中,第一攝像頭和第二攝像頭中至少一個攝像頭是廣角的攝像頭。
圖3示意性地示出了利用兩個攝像頭確定眼部的空間位置的幾何關係模型。在圖3所示實施例中,第一攝像頭和第二攝像頭是相同的攝像頭,因此具有相同的焦距f。第一攝像頭151a的光軸Za與第二攝像頭151b的光軸Zb平行,而第一攝像頭151a的焦平面401a和第二攝像頭151b的焦平面401b處於同一平面內並且垂直於兩個攝像頭的光軸。基於上述設置,兩個攝像頭的鏡頭中心Oa和Ob的連線平行於兩個攝像頭的焦平面。在圖3所示實施例中,以兩個攝像頭的鏡頭中心Oa到Ob的連線方向作為X軸方向並且以兩個攝像頭的光軸方向為Z軸方向示出XZ平面的幾何關係模型。在一些實施例中,X軸方向也是水平方向,Y軸方向也是豎直方向,Z軸方向是垂直於XY平面的方向(也可稱為深度方向)。
在圖3所示實施例中,以第一攝像頭151a的鏡頭中心Oa為其原點,以第二攝像頭151b的鏡頭中心Ob為其原點。R和L分別表示用戶的右眼和左眼,XRa和XRb分別為用戶右眼R在兩個攝像頭的焦平面401a和401b內成像的X軸座標,XLa和XLb分別為用戶左眼L在兩個攝像頭的焦平面401a和401b內成像的X軸座標。此外,兩個攝像頭的間距T以及它們的焦距f也是已知的。根據相似三角形的幾何關係可得出右眼R和左眼L與如上設置的兩個攝像頭所在平面的間距DR和DL分別為:
並且可得出用戶雙眼連線與如上設置的兩個攝像頭所在平面的傾斜角度α以及用戶雙眼間距或瞳距P分別為:
在圖3所示實施例中,用戶雙眼連線(或用戶臉部)與如上設置的兩個攝像頭所在平面相互傾斜並且傾斜角度為α。當用戶臉部與如上設置的兩個攝像頭所在平面相互平行時(亦即當用戶平視兩個攝像頭時),傾斜角度α為零。
在一些實施例中,3D顯示設備100可以是電腦或智慧終端機、如移動終端。但是可以想到,在一些實施例中,3D顯示設備100也可以是非智慧的顯示終端、如非智慧的3D電視。在一些實施例中,包括兩個攝像頭151a、151b的眼部定位裝置150前置於多視點3D顯示屏中,或者說與多視點3D顯示屏的顯示平面基本位於在同一平面內。因此,在圖3所示實施例中示例性得出的用戶的右眼R和左眼L與如上設置的兩個攝像頭所在平面的間距DR和DL即為用戶的右眼R和左眼L相對於多視點3D顯示屏的間距(或者說是用戶的右眼和左眼的深度),而用戶臉部與如上設置的兩個攝像頭所在平面的傾斜角度α即為用戶臉部相對於多視點3D顯示屏的傾斜角度。
在一些實施例中,眼部定位資料介面153配置為傳輸用戶雙眼相對於眼部定位裝置150或多視點3D顯示屏110的傾斜角度或平行度。這可有利於更精確地呈現3D圖像。
在一些實施例中,如上示例性得出的眼部空間位置資訊DR、DL、α和P通過眼部定位資料介面153傳輸至3D處理裝置130。3D處理裝置130基於接收到的眼部空間位置資訊確定用戶眼部所在的視點。在一些實施例中,3D處理裝置130可預先儲存有眼部空間位置與3D顯示設備的視點之間的對應關係表。在獲得眼部空間位置資訊後,基於對應關係表即可確定用戶眼部所處的視點。或者,對應關係表也可以是3D處理裝置從其他帶有儲存功能的元器件(例如處理器)接收/讀取的。
在一些實施例中,如上示例性得出的眼部空間位置資訊DR、DL、α和P也可被直接傳輸至3D顯示設備100的處理器,而3D處理裝置130通過眼部定位資料介面153從處理器接收/讀取眼部空間位置資訊。
在一些實施例中,第一攝像頭151a配置為拍攝包括按照時間前後排列的多幅第一圖像的第一圖像序列,而第二攝像頭151b配置為拍攝包括按照時間前後排列的多幅第二圖像的第二圖像序列。眼部定位影像處理器152可以包括同步器155。同步器155配置為確定第一圖像序列和第二圖像序列中時間同步的第一圖像和第二圖像。被確定為時間同步的第一圖像和第二圖像用於眼部的識別以及眼部空間位置的確定。
在一些實施例中,眼部定位影像處理器152包括緩存器156和比較器157。緩存器156配置為緩存第一圖像序列和第二圖像序列。比較器157配置為比較第一圖像序列和第二圖像序列中的多幅第一圖像和第二圖像。通過比較可以判斷眼部的空間位置是否變化,也可以判斷眼部是否還處於觀看範圍內等。判斷眼部是否還處於觀看範圍內也可以是由3D處理裝置來執行的。
在一些實施例中,眼部定位影像處理器152配置為在第一圖像序列和第二圖像序列中的當前第一圖像和第二圖像中未識別到眼部的存在且在之前或之後的第一圖像和第二圖像中識別到眼部的存在時,基於之前或之後的第一圖像和第二圖像確定的眼部空間位置資訊作為當前的眼部空間位置資訊。這種情況可能出現在例如用戶短暫轉動頭部時。在這種情況下,有可能短暫地無法識別到用戶的臉部及眼部。
在一些實施例中,也可以對基於上述之前和之後的能識別出臉部及眼部的第一圖像和第二圖像所確定的眼部空間位置資訊取平均值、進行資料擬合、進行插值或以其他方法處理,並且將得到的結果作為當前的眼部空間位置資訊。
在一些實施例中,第一攝像頭和第二攝像頭配置為以24幀/秒或以上的頻率拍攝第一圖像序列和第二圖像序列,例如以30幀/秒的頻率拍攝,或者例如以60幀/秒的頻率拍攝。
在一些實施例中,第一攝像頭和第二攝像頭配置為以與3D顯示設備的多視點3D顯示屏刷新頻率相同的頻率進行拍攝。
在一些實施例中,眼部定位器包括配置為拍攝至少一幅圖像的至少一個攝像頭和配置為獲取用戶的眼部深度資訊的深度檢測器,而眼部定位影像處理器配置為基於所拍攝的至少一幅圖像識別眼部的存在,並基於識別到的眼部和眼部深度資訊確定眼部空間位置。
圖4示出了眼部定位裝置中的眼部定位器配置有單個攝像頭和深度檢測器的示例。如圖所示,眼部定位裝置150包括眼部定位器159、眼部定位影像處理器152和眼部定位資料介面153。眼部定位器159包括例如為黑白攝像頭的攝像頭151和深度檢測器158。攝像頭151被配置為拍攝例如為黑白圖像的至少一幅圖像,而深度檢測器158配置為獲取用戶的眼部深度資訊。眼部定位裝置150可以前置於3D顯示設備100中,例如前置於多視點3D顯示屏110中。攝像頭151的拍攝物件是用戶臉部,基於拍攝到的圖像識別出臉部或眼部。深度檢測器獲取眼部深度資訊,也可以獲取臉部深度資訊,並基於臉部深度資訊獲取眼部深度資訊。在一些實施例中,攝像頭151可以用彩色攝像頭,並且配置為拍攝彩色圖像。在一些實施例中,也可以採用兩個或兩個以上攝像頭151與深度檢測器158配合確定眼部空間位置。
在一些實施例中,眼部定位裝置150的眼部定位資料介面153通信連接至3D顯示設備100的3D處理裝置130,由此3D處理裝置130可以直接接收眼部定位資料。在另一些實施例中,眼部定位影像處理器152可通信連接至或集成至3D顯示設備100的處理器120,由此眼部定位資料可以從處理器120通過眼部定位資料介面153被傳輸至3D處理裝置130。
可選地,眼部定位器159還設置有紅外發射裝置154。在攝像頭151工作時,紅外發射裝置154配置為選擇性地發射紅外光,以在環境光線不足時、例如在夜間拍攝時起到補光作用,從而在環境光線弱的條件下也可以拍攝能識別出用戶臉部及眼部的圖像。
在一些實施例中,顯示設備可以配置為在攝像頭工作時,基於接收到的光線感應信號,例如檢測到光線感應信號低於預定閾值時,控制紅外發射裝置開啟或調節其大小。在一些實施例中,光線感應信號是由處理終端或顯示設備集成的環境光感測器接收的。上述針對紅外發射裝置的操作也可以由眼部定位裝置或集成有眼部定位裝置的處理終端來完成。
可選地,紅外發射裝置154配置為發射波長大於或等於1.5微米的紅外光,亦即長波紅外光。與短波紅外光相比,長波紅外光穿透皮膚的能力較弱,因此對眼部的傷害較小。
拍攝到的圖像被傳輸至眼部定位影像處理器152。眼部定位影像處理器可以配置為具有視覺識別功能(例如臉部識別功能),並且可以配置為基於所拍攝的圖像識別出臉部以及基於識別出的眼部位置和用戶的眼部深度資訊確定眼部的空間位置,並基於眼部的空間位置確定用戶眼部所處的視點。在另一些實施例中,由3D處理裝置基於獲取的眼部空間位置確定用戶眼部所處的視點。在一些實施例中,攝像頭是廣角的攝像頭。在一些實施例中,深度檢測器158構造為結構光攝像頭或TOF攝像頭。
圖5示意性地示出了利用攝像頭和深度檢測器確定眼部的空間位置的幾何關係模型。在圖5所示實施例中,攝像頭具有焦距f、光軸Z和焦平面FP,R和L分別表示用戶的右眼和左眼,XR和XL分別為用戶右眼R和左眼L在攝像頭151的焦平面FP內成像的X軸座標。
作為解釋而非限制性地,通過攝像頭151拍攝的包含了用戶左眼和右眼的圖像,可得知左眼和右眼在攝像頭151的焦平面FP內成像的X軸(水平方向)座標和Y軸(豎直方向)座標。如圖5所示,以攝像頭151的鏡頭中心O為原點,X軸和與X軸垂直的Y軸(未示出)形成攝像頭平面MCP,其與焦平面FP平行。攝像頭151的光軸方向Z也是深度方向。也就是說,在圖5所示的XZ平面內,左眼和右眼在焦平面FP內成像的X軸座標XR、XL是已知的。此外,攝像頭151的焦距f是已知的。在這種情況下,可算出左眼和右眼與攝像頭鏡頭中心O的連線在XZ平面內的投影相對於X軸的傾斜角βR和βL。同理,在(未示出的)YZ平面內,左眼和右眼在焦平面FP內成像的Y軸座標是已知的,再結合已知的焦距f,可算出左眼和右眼與攝像頭鏡頭中心O的連線在YZ平面內的投影相對於攝像頭平面MCP 的Y軸的傾斜角。
作為解釋而非限制性地,通過攝像頭151拍攝的包含了用戶左眼和右眼的圖像以及深度檢測器158獲取的左眼和右眼的深度資訊,可得知左眼和右眼在攝像頭151的座標系內的空間座標(X,Y,Z),其中,Z軸座標即為深度資訊。據此,如圖5所示,可算出左眼和右眼的連線在XZ平面內的投影與X軸的夾角α。同理,在(未示出的)YZ平面內,可算出左眼和右眼的連線在YZ平面內的投影與Y軸的夾角。
如圖5所示,在已知攝像頭151的焦距f、雙眼在焦平面FP內的X軸座標XR、XL的情況下,可以得出用戶的右眼R和左眼L與鏡頭中心O的連線在XZ平面內的投影相對於X軸的傾斜角βR和βL分別為:
在此基礎上,通過深度檢測器158獲得的右眼R和左眼L的深度資訊,可得知用戶右眼R和左眼L相對於攝像頭平面MCP/多視點3D顯示屏的顯示平面的距離DR和DL。據此,可以得出用戶雙眼連線在XZ平面內的投影與X軸的夾角α以及瞳距P分別為:
上述計算方法和數學表示僅是示意性的,本領域技術人員可以想到其他計算方法和數學表示,以得到所需的眼部的空間位置。本領域技術人員也可以想到,必要時將攝像頭的座標系與顯示設備或多視點3D顯示屏的座標系進行變換。
在一些實施例中,當距離DR和DL不等並且夾角α不為零時,可認為用戶以一定傾角面對多視點3D顯示屏的顯示平面。當距離DR和DL相等並且視角α為零時,可認為用戶平視多視點3D顯示屏的顯示平面。在另一些實施例中,可以針對夾角α設定閾值,在夾角α不超過閾值的情況下,可以認為用戶平視多視點3D顯示屏的顯示平面。
在一些實施例中,基於識別出的眼部或者說確定的眼部空間位置,能夠得到用戶視角,並基於用戶視角來從3D模型或包括景深資訊的3D視頻生成與用戶視角相對應的3D圖像,從而依據3D圖像所顯示的3D效果對於用戶來說是隨動的,使用戶獲得彷如在對應角度觀看真實物體或場景的感受。
在一些實施例中,用戶視角是用戶相對於攝像頭的夾角。
在一些實施例中,用戶視角可以是用戶的眼部(單眼)與攝像頭的鏡頭中心O的連線相對於攝像頭座標系的夾角。在一些實施例中,夾角例如為連線與攝像頭座標系中的X軸(橫向)的夾角θX、或者連線與攝像頭座標系中的Y軸(豎向)的夾角θY、或者以θ(X,Y)表示。在一些實施例中,夾角例如為連線在攝像頭座標系的XY平面內的投影與連線的夾角。在一些實施例中,夾角例如為連線在攝像頭座標系的XY平面內的投影與X軸的夾角θX、或者連線在攝像頭座標系的XY平面內的投影與Y軸的夾角θY、或者以θ(X,Y)表示。
在一些實施例中,用戶視角可以是用戶的雙眼連線中點與攝像頭的鏡頭中心O的連線(即用戶視線)相對於攝像頭座標系的夾角。在一些實施例中,夾角例如為用戶視線與攝像頭座標系中的X軸(橫向)的夾角θX、或者用戶視線與攝像頭座標系中的Y軸(豎向)的夾角θY、或者以θ(X,Y)表示。在一些實施例中,夾角例如為用戶視線在攝像頭座標系的XY平面內的投影與連線的夾角。在一些實施例中,夾角例如為用戶視線在攝像頭座標系的XY平面內的投影與X軸(橫向)的夾角θX、或者用戶視線在攝像頭座標系的XY平面內的投影與Y軸(豎向)的夾角θY、或者以θ(X,Y)表示。
在一些實施例中,用戶視角可以是用戶的雙眼連線相對於攝像頭座標系的夾角。在一些實施例中,夾角例如為雙眼連線與攝像頭座標系中的X軸的夾角θX、或者雙眼連線與攝像頭座標系中的Y軸的夾角θY、或者以θ(X,Y)表示。在一些實施例中,夾角例如為雙眼連線在攝像頭座標系的XY平面內的投影與連線的夾角。在一些實施例中,夾角例如為雙眼連線在攝像頭座標系的XY平面內的投影與X軸的夾角θX、或者雙眼連線在攝像頭座標系的XY平面內的投影與Y軸的夾角θY、或者以θ(X,Y)表示。
在一些實施例中,用戶視角可以是用戶的臉部所在平面相對於攝像頭座標系的夾角。在一些實施例中,夾角例如為臉部所在平面與攝像頭座標系中的XY平面的夾角。其中,臉部所在平面可通過提取多個臉部特徵確定,臉部特徵例如可以是前額、眼部、耳部、嘴角、下巴等。
在一些實施例中,用戶視角可以是用戶相對於多視點3D顯示屏或多視點3D顯示屏的顯示平面的夾角。在本文中定義多視點3D顯示屏或顯示平面的座標系,其中,以多視點3D顯示屏的中心或顯示平面的中心o為原點,以水平方向(橫向)直線為x軸,以豎直方向直線為y軸,以垂直於xy平面的直線為z軸(深度方向)。
在一些實施例中,用戶視角可以是用戶的眼部(單眼)與多視點3D顯示屏或顯示平面的中心o的連線相對於多視點3D顯示屏或顯示平面的座標系的夾角。在一些實施例中,夾角例如為連線與座標系中的x軸的夾角θx、或者連線與座標系中的y軸的夾角θy、或者以θ(x,y)表示。在一些實施例中,夾角例如為連線在座標系的xy平面內的投影與連線的夾角。在一些實施例中,夾角例如為連線在座標系的xy平面內的投影與x軸的夾角θx、或者連線在座標系的xy平面內的投影與y軸的夾角θy、或者以θ(x,y)表示。
在一些實施例中,用戶視角可以是用戶的雙眼連線中點與多視點3D顯示屏或顯示平面的中心o的連線(即用戶視線)相對於多視點3D顯示屏或顯示平面的座標系的夾角。在一些實施例中,如圖6所示,夾角例如為用戶視線與座標系中的x軸的夾角θx、或者用戶視線與座標系中的y軸的夾角θy、或者以θ(x,y)表示,圖中R表示用戶右眼,L表示用戶左眼。在一些實施例中,如圖7所示,夾角例如為用戶視線在座標系的xy平面內的投影k與用戶視線的夾角θk。在一些實施例中,夾角例如為用戶視線在座標系的xy平面內的投影與X軸的夾角θx、或者用戶視線在座標系的xy平面內的投影與y軸的夾角θy、或者以θ(x,y)表示。
在一些實施例中,用戶視角可以是用戶的雙眼連線相對於多視點3D顯示屏或顯示平面的座標系的夾角。在一些實施例中,夾角例如為連線與座標系中的x軸的夾角θx、或者連線與座標系中的y軸的夾角θy、或者以θ(x,y)表示。在一些實施例中,夾角例如為連線在座標系的xy平面內的投影與連線的夾角。在一些實施例中,夾角例如為連線在座標系的xy平面內的投影與x軸的夾角θx、或者連線在攝像頭座標系的xy平面內的投影與y軸的夾角θy、或者以θ(x,y)表示。
在一些實施例中,用戶視角可以是用戶的臉部所在平面相對於多視點3D顯示屏或顯示平面的座標系的夾角。在一些實施例中,夾角例如為臉部所在平面與座標系中的xy平面的夾角。其中,臉部所在平面可通過提取多個臉部特徵確定,臉部特徵例如可以是前額、眼部、耳部、嘴角、下巴等。
在一些實施例中,攝像頭前置於多視點3D顯示屏上。在這種情況下,可以將攝像頭座標系視作多視點3D顯示屏或顯示平面的座標系。
為確定用戶視角,3D顯示設備可設有視角確定裝置。視角確定裝置可以是軟體,例如計算模組、程式指令等,也可以是硬體。視角確定裝置可以集成在3D處理裝置中,也可以集成在眼部定位裝置中,也可以向3D處理裝置發送用戶視角資料。
在圖1A所示出的實施例中,視角確定裝置160與3D處理裝置130通信連接。3D處理裝置可以接收用戶視角資料,並基於用戶視角資料生成對應於用戶視角的3D圖像以及基於眼部定位資料所確定的用戶眼部(例如雙眼)所處視點根據生成的3D圖像渲染複合子像素中與視點相關的子像素。在一些實施例中,如圖1B所示,3D處理裝置可接收由眼部定位裝置150確定的眼部空間位置資訊和由視角確定裝置160確定的用戶視角資料。在一些實施例中,如圖1C所示,視角確定裝置160可以集成在眼部定位裝置150中,例如集成在眼部定位影像處理器152中,眼部定位裝置150與3D處理裝置通信連接,向3D處理裝置發送包括了用戶視角資料、眼部空間位置資訊的眼部定位資料。在另一些實施例中,視角確定裝置可以集成在3D處理裝置中,由3D處理裝置接收眼部空間位置資訊並基於眼部空間位置資訊確定用戶視角資料。在一些實施例中,眼部定位裝置分別與3D處理裝置和視角確定裝置通信連接,並向兩者發送眼部空間位置資訊,由視角確定裝置基於眼部空間位置資訊確定用戶視角資料並發送至3D處理裝置。
3D處理裝置接收或確定用戶視角資料後,可以基於用戶視角資料隨動地從所接收的3D模型或包括景深資訊的3D視頻生成與該視角相符合的3D圖像,從而能夠向處於不同用戶視角的用戶呈現具有不同景深資訊和渲染圖像的3D圖像,使用戶獲得與從不同角度觀察真實物體相似的視覺感受。
圖8示意性地示出了對於不同的用戶視角基於同一3D模型生成的不同的3D圖像。如圖8所示,3D處理裝置接收到具有景深資訊的3D模型600,還接收到或確認了多個不同的用戶視角。針對各個用戶視角,3D處理裝置由3D模型600生成了不同的3D圖像601和602。圖中R表示用戶右眼,L表示用戶左眼。依據由不同用戶視角所對應的景深資訊生成的不同的3D圖像601、602來分別渲染相應視點所對應的子像素,其中相應視點是指由眼部定位資料確定的用戶雙眼所處的視點。對於用戶來說,獲得的3D顯示效果是根據不同的用戶視角隨動的。依據用戶視角的改變,這種隨動效果例如可以是在水平方向上隨動,或者是在豎直方向上隨動,或者是在深度方向上隨動,或者是在水平、豎直、深度方向的分量隨動。
多個不同的用戶視角可以是基於多個用戶生成的,也可以是基於同一用戶的運動或動作所生成的。
在一些實施例中,用戶視角是即時檢測並確定的。在一些實施例中,即時檢測並確定用戶視角的變化,在用戶視角的變化小於預定閾值時,基於變化前的用戶視角生成3D圖像。這種情況可能發生在用戶暫時小幅度或小範圍內晃動頭部或作出姿態調整時,例如在固定的座位上進行姿態調整。此時仍舊以發生變化前的用戶視角作為當前用戶視角並生成與當前用戶視角所對應的景深資訊相應的3D圖像。
在一些實施例中,基於識別出的眼部或者確定的眼部空間位置可以確定用戶眼部所在的視點。眼部空間位置資訊與視點的對應關係可以對應關係表的形式儲存在處理器中,並由3D處理裝置接收。或者,眼部空間位置資訊與視點的對應關係可以對應關係表的形式儲存在3D處理裝置中。
下面描述根據本發明的實施例的3D顯示設備的顯示。如上所述,3D顯示設備可以具有多個視點。用戶的眼部在各視點位置(空間位置)處可看到多視點3D顯示屏中各複合像素的複合子像素中相應的子像素的顯示。用戶的雙眼在不同的視點位置看到的兩個不同畫面形成視差,在大腦中合成3D畫面。
在一些實施例中,基於生成的3D圖像和確定的用戶眼部的視點,3D處理裝置可以渲染各複合子像素中的相應子像素。視點與子像素的對應關係可以對應表的形式儲存在處理器中,並由3D處理裝置接收。或者,視點與子像素的對應關係可以對應表的形式儲存在3D處理裝置中。
在一些實施例中,基於生成的3D圖像,由處理器或3D處理裝置生成並列的兩幅圖像,例如左眼視差圖像和右眼視差圖像。在一些實施例中,將生成的3D圖像作為並列的兩幅圖像中的一幅,例如作為左眼視差圖像和右眼視差圖像中的一幅,並基於3D圖像生成並列的兩幅圖像中的另一幅,例如生成左眼視差圖像和右眼視差圖像中的另一幅。3D處理裝置基於兩幅圖像中的一幅,依據確定的用戶雙眼的視點位置中的一隻眼的視點位置,渲染各複合子像素中的至少一個子像素;並基於兩幅圖像中的另一幅,依據確定的用戶雙眼的視點位置中的另一眼的視點位置,渲染各複合子像素中的至少另一個子像素。
下面結合圖9A至圖9E所示實施例詳細描述依據視點對子像素的渲染。在所示出的實施例中,3D顯示設備具有8個視點V1-V8。3D顯示設備的多視點3D顯示屏中的每個複合像素500由三個複合子像素510、520和530構成。每個複合子像素由對應於8個視點的8個同色子像素構成。如圖所示,複合子像素510是由8個紅色子像素R構成的紅色複合子像素,複合子像素520是由8個綠色子像素G構成的綠色複合子像素,複合子像素530是由8個藍色子像素B構成的藍色複合子像素。多個複合像素在多視點3D顯示屏中以陣列形式佈置。為清楚起見,圖中僅示出了多視點3D顯示屏中的一個複合像素500。其他複合像素的構造和子像素的渲染可以參照對所示出的複合像素的描述。
在一些實施例中,當基於眼部空間位置資訊確定用戶的雙眼各對應一個視點時,依據由3D模型或3D視頻的景深資訊所生成的對應於用戶視角的3D圖像,3D處理裝置可以渲染複合子像素中的相應子像素。
參考圖9A,在所示實施例中,用戶的左眼處於視點V2,右眼處於視點V5,基於3D圖像生成對應於這兩個視點V2和V5的左右眼視差圖像,並渲染複合子像素510、520、530各自與這兩個視點V2和V5相對應的子像素。
在一些實施例中,當基於眼部空間位置資訊確定用戶的雙眼各對應一個視點時,依據由3D模型或3D視頻的景深資訊所生成的對應於用戶視角的3D圖像,3D處理裝置可以渲染複合子像素中與這兩個視點相對應的子像素,並渲染這兩個視點各自的相鄰視點所對應的子像素。
參考圖9B,在所示實施例中,用戶的左眼處於視點V2,右眼處於視點V6,基於3D圖像生成對應於這兩個視點V2和V6的左右眼視差圖像,並渲染複合子像素510、520、530各自與這兩個視點V2和V6相對應的子像素,同時還渲染視點V2和V6各自兩側相鄰的視點所對應的子像素。在一些實施例中,也可以同時渲染視點V2和V6各自單側相鄰的視點所對應的子像素。
在一些實施例中,當基於眼部空間位置資訊確定用戶的雙眼各自位於兩個視點之間時,依據由3D模型或3D視頻的景深資訊所生成的對應於用戶視角的3D圖像,3D處理裝置可以渲染複合子像素中與這四個視點相對應的子像素。
參考圖9C,在所示實施例中,用戶的左眼處於視點V2和V3之間,右眼處於視點V5和V6之間,基於3D圖像生成對應於視點V2、V3和V5、V6的左右眼視差圖像,並渲染複合子像素510、520、530各自與視點V2、V3和V5、V6相對應的子像素。
在一些實施例中,當基於眼部空間位置資訊確定用戶雙眼中至少一隻眼部對應的視點位置發生了變化時,依據由3D模型或3D視頻的景深資訊所生成的對應於用戶視角的3D圖像,3D處理裝置可以從渲染複合子像素中與變化前的視點位置對應的子像素切換為渲染複合子像素中與變化後的視點位置對應的子像素。
參考圖9D,用戶的左眼從視點V1移動至視點V3,右眼從視點V5移動至視點V7,複合子像素510、520、530各自被渲染的子像素相應進行調整,以適應變化的視點位置。
在一些實施例中,當基於眼部空間位置資訊確定有一個以上用戶時,依據由3D模型或3D視頻的景深資訊所生成的對應於每個用戶視角的3D圖像,3D處理裝置可以渲染複合子像素中與每個用戶的眼部所在視點對應的子像素。
參考圖9E,面向3D顯示設備有兩個用戶,第一個用戶的雙眼分別處於視點V2和V4,第二個用戶的雙眼分別處於視點V5和視點V7。依據3D模型或3D視頻的景深資訊生成分別對應於第一個用戶視角的第一3D圖像和對應於第二個用戶視角的第二3D圖像,並基於第一3D圖像生成對應於視點V2和V4的左右眼視差圖像,基於第二3D圖像生成對應於視點V5和V7的左右眼視差圖像。3D處理裝置渲染複合子像素510、520、530各自對應於視點V2和V4、V5和V7的子像素。
在一些實施例中,3D顯示設備的子像素與視點的對應關係存在理論對應關係。這種理論對應關係可以是在3D顯示設備從流水線上生產出來時統一設定或調製的,還可以對應關係表的形式儲存在3D顯示設備中,例如儲存在處理器中或3D處理裝置中。由於光柵的安裝、材質或對位等原因,在實際使用3D顯示設備時,可能會出現在空間中的視點位置所觀看到的子像素與理論子像素不對應的問題。這對於3D圖像的正確顯示造成了影響。對3D顯示設備實際使用過程中存在的子像素與視點的對應關係進行校準或校正,對於3D顯示設備是有利的。在本發明所提供的實施例中,這種在3D顯示設備的實際使用過程中存在的視點與子像素的對應關係被稱為“校正對應關係”。“校正對應關係”相較於“理論對應關係”可能存在偏差,也有可能是一致的。
獲得“校正對應關係”的過程也就是找到視點與子像素在實際顯示過程中的對應關係的過程。在一些實施例中,為了確定多視點3D顯示屏中各複合像素的複合子像素中的子像素與視點的校正對應關係,可將多視點3D顯示屏或顯示面板分為多個校正區域,分別對每個校正區域中的子像素與視點的校正對應關係進行確定,然後將各區域內的校正對應關係資料按區儲存起來,例如以對應關係表的形式儲存在處理器或3D處理裝置中。
在一些實施例中,每個校正區域中的至少一個子像素與視點的校正對應關係是通過檢測得出的,每個校正區域中其他子像素與視點的校正對應關係是參考被檢測出來的校正對應關係通過數學計算推算或估算出的。數學計算方法包括:線性差值、線性外推、非線性差值、非線性外推、泰勒級數近似、參考座標系線性變化、參考座標系非線性變化、指數模型和三角變換等。
在一些實施例中,多視點3D顯示屏定義有多個校正區域,所有校正區域聯合起來的面積範圍是多視點3D顯示屏的面積的90%至100%。在一些實施例中,多個校正區域在多視點3D顯示屏中呈陣列形式排布。在一些實施例中,每個校正區域可由包含三個複合子像素的一個複合像素來定義。在一些實施例中,每個校正區域可由兩個或兩個以上的複合像素來定義。在一些實施例中,每個校正區域可由兩個或兩個以上的複合子像素來定義。在一些實施例中,每個校正區域可由不屬於同一個複合像素的兩個或兩個以上複合子像素來定義。
在一些實施例中,一個校正區域內的子像素與視點的校正對應關係相較於理論對應關係的偏差與另一個校正區域內的子像素與視點的校正對應關係相較於理論對應關係的偏差相比,可以是一致或基本一致的,也可以是不一致的。
根據本發明的實施例提供了3D圖像顯示的方法,用於上述的3D顯示設備。如圖10所示,3D圖像的顯示方法包括:
S10,確定用戶的用戶視角;和
S20,基於用戶視角,依據3D模型的景深資訊渲染多視點3D顯示屏中的複合像素的複合子像素中的相應子像素。
在一些實施例中,也可以依據3D視頻的景深資訊渲染多視點3D顯示屏中的複合像素的複合子像素中的相應子像素。
在一些實施例中, 3D圖像的顯示方法包括:
S100,確定用戶的用戶視角;
S200,確定用戶眼部所處的視點;
S300,接收3D模型或包括景深資訊的3D視頻;
S400,基於確定的用戶視角,依據3D模型或包括景深資訊的3D視頻生成3D圖像;和
S500,基於確定的用戶眼部所處視點,依據生成的3D圖像渲染多視點3D顯示屏中的複合像素的複合子像素中的相應子像素,其中相應子像素是指複合子像素中與所確定的用戶所處視點相對應的子像素。
在一些實施例中,確定用戶視角包括:即時檢測用戶視角。
在一些實施例中,基於確定的用戶視角,依據3D模型或3D視頻的景深資訊生成3D圖像包括:確定即時檢測的用戶視角的變化;和在用戶視角的變化小於預定閾值時,基於變化前的用戶視角生成3D圖像。
本發明實施例提供了一種3D顯示設備300,參考圖11,3D顯示設備300包括處理器320和記憶體310。在一些實施例中,電子設備300還可以包括通信介面340和匯流排330。其中,處理器320、通信介面340和記憶體310通過匯流排330完成相互間的通信。通信介面340可配置為傳輸資訊。處理器320可以調用記憶體310中的邏輯指令,以執行上述實施例的在3D顯示設備中基於用戶視角隨動地顯示3D畫面的方法。
此外,上述的記憶體310中的邏輯指令可以通過軟體功能單元的形式實現並作為獨立的產品銷售或使用時,可以儲存在一個電腦可讀取儲存介質中。
記憶體310作為一種電腦可讀儲存介質,可用於儲存軟體程式、電腦可執行程式,如本發明實施例中的方法對應的程式指令/模組。處理器320通過運行儲存在記憶體310中的程式指令/模組,從而執行功能應用以及資料處理,即實現上述方法實施例中的在電子設備中切換顯示3D圖像和2D圖像的方法。
記憶體310可包括儲存程式區和儲存資料區,其中,儲存程式區可儲存作業系統、至少一個功能所需的應用程式;儲存資料區可儲存根據終端設備的使用所創建的資料等。此外,記憶體310可以包括高速隨機存取記憶體,還可以包括非易失性記憶體。
本發明實施例提供的電腦可讀儲存介質,儲存有電腦可執行指令,上述電腦可執行指令設置為執行上述的3D圖像顯示方法。
本發明實施例提供的電腦程式產品,包括儲存在電腦可讀儲存介質上的電腦程式,上述電腦程式包括程式指令,當該程式指令被電腦執行時,使上述電腦執行上述的3D圖像顯示方法。
本發明實施例的技術方案可以以軟體產品的形式體現出來,該電腦軟體產品儲存在一個儲存介質中,包括一個或多個指令用以使得一台電腦設備(可以是個人電腦,伺服器,或者網路設備等)執行本發明實施例的方法的全部或部分步驟。而前述的儲存介質可以是非暫態儲存介質,包括:U盤、移動硬碟、唯讀記憶體、隨機存取記憶體、磁碟或者光碟等多種可以儲存程式碼的介質,也可以是暫態儲存介質。
以上描述和圖式充分地示出了本發明的實施例,以使本領域技術人員能夠實踐它們。其他實施例可以包括結構的、邏輯的、電氣的、過程的以及其他的改變。實施例僅代表可能的變化。除非明確要求,否則單獨的部件和功能是可選的,並且操作的順序可以變化。一些實施例的部分和特徵可以被包括在或替換其他實施例的部分和特徵。本發明實施例的範圍包括申請專利範圍的整個範圍,以及申請專利範圍的所有可獲得的等同物。而且,本發明中使用的用詞僅用於描述實施例並且不用於限制申請專利範圍。另外,當用於本發明中時,術語“包括”等指陳述的特徵、整體、步驟、操作、元素或元件中至少一項的存在,但不排除一個或一個以上其它特徵、整體、步驟、操作、元素、元件或這些的分組的存在或添加。本文中,每個實施例重點說明的可以是與其他實施例的不同之處,各個實施例之間相同相似部分可以互相參見。對於實施例公開的方法、產品等而言,如果其與實施例公開的方法部分相對應,那麼相關之處可以參見方法部分的描述。
本領域技術人員可以意識到,結合本文中所公開的實施例描述的各示例的單元及演算法步驟,能夠以電子硬體、或者電腦軟體和電子硬體的結合來實現。這些功能究竟以硬體還是軟體方式來執行,可以取決於技術方案的特定應用和設計約束條件。本領域技術人員可以對每個特定的應用來使用不同方法以實現所描述的功能,但是這種實現不應認為超出本發明實施例的範圍。本領域技術人員可以清楚地瞭解到,為描述的方便和簡潔,上述描述的系統、裝置和單元的具體工作過程,可以參考前述方法實施例中的對應過程,在此不再贅述。
本文所披露的實施例中,所揭露的方法、產品(包括但不限於裝置、設備等),可以通過其它的方式實現。例如,以上所描述的裝置實施例僅僅是示意性的,例如,單元的劃分,可以僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式,例如多個單元或元件可以結合或者可以集成到另一個系統,或一些特徵可以忽略,或不執行。另外,所顯示或討論的相互之間的耦合或直接耦合或通信連接可以是通過一些介面,裝置或單元的間接耦合或通信連接,可以是電性,機械或其它的形式。作為分離部件說明的單元可以是或者也可以不是物理上分開的,作為單元顯示的部件可以是或者也可以不是物理單元,即可以位於一個地方,或者也可以分佈到多個網路單元上。可以根據實際的需要選擇其中的部分或者全部單元來實現本實施例。另外,在本發明實施例中的各功能單元可以集成在一個處理單元中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元集成在一個單元中。
圖式中的流程圖和框圖顯示了根據本發明實施例的系統、方法和電腦程式產品的可能實現的體系架構、功能和操作。在這點上,流程圖或框圖中的每個方框可以代表一個模組、程式段或代碼的一部分,上述模組、程式段或代碼的一部分包含一個或多個用於實現規定的邏輯功能的可執行指令。在有些作為替換的實現中,方框中所標注的功能也可以以不同於圖式中所標注的順序發生。例如,兩個連續的方框實際上可以基本並行地執行,它們有時也可以按相反的循序執行,這可以依所涉及的功能而定。在圖式中的流程圖和框圖所對應的描述中,不同的方框所對應的操作或步驟也可以以不同於描述中所披露的順序發生,有時不同的操作或步驟之間不存在特定的順序。例如,兩個連續的操作或步驟實際上可以基本並行地執行,它們有時也可以按相反的循序執行,這可以依所涉及的功能而定。框圖和/或流程圖中的每個方框、以及框圖和/或流程圖中的方框的組合,可以用執行規定的功能或動作的專用的基於硬體的系統來實現,或者可以用專用硬體與電腦指令的組合來實現。
100:3D顯示設備
110:多視點3D顯示屏
120:處理器
121:暫存器
130:3D處理裝置
131:緩存器
140:3D信號介面
150:眼部定位裝置
151:攝像頭
151a:第一攝像頭
151b:第二攝像頭
152:眼部定位影像處理器
153:眼部定位資料介面
154:紅外發射裝置
155:同步器
156:緩存器
157:比較器
158:深度檢測器
159:眼部定位器
160:視角確定裝置
300:3D顯示設備
310:記憶體
320:處理器
330:匯流排
340:通信介面
400:複合像素
410:紅色複合子像素
420:綠色複合子像素
430:藍色複合子像素
500:複合像素
510:紅色複合子像素
520:綠色複合子像素
530:藍色複合子像素
f:焦距
Za:第一攝像頭的光軸
Zb:第二攝像頭的光軸
401a:第一攝像頭的焦平面
401b:第二攝像頭的焦平面
Oa:第一攝像頭的鏡頭中心
Ob:第二攝像頭的鏡頭中心
XRa:用戶右眼在第一攝像頭的焦平面內成像的X軸座標
XRb:用戶右眼在第二攝像頭的焦平面內成像的X軸座標
XLa:用戶左眼在第一攝像頭的焦平面內成像的X軸座標
XLb:用戶左眼在第二攝像頭的焦平面內成像的X軸座標
T:第一攝像頭和第二攝像頭的間距
DR:右眼與第一攝像頭和第二攝像頭所在平面的間距
DL:左眼與第一攝像頭和第二攝像頭所在平面的間距
α:用戶雙眼連線與第一攝像頭和第二攝像頭所在平面的傾斜角度
P:用戶雙眼間距或瞳距
Z:光軸
FP:焦平面
XR:用戶右眼在攝像頭的焦平面內成像的X軸座標
XL:用戶左眼在攝像頭的焦平面內成像的X軸座標
O:鏡頭中心
MCP:攝像頭平面
βR:左眼與鏡頭中心的連線在XZ平面內的投影相對於X軸的傾斜角
βL:右眼與鏡頭中心的連線在XZ平面內的投影相對於X軸的傾斜角
α:用戶雙眼連線在XZ平面內的投影與X軸的夾角
P:用戶雙眼的瞳距
一個或多個實施例通過與之對應的圖式進行示例性說明,這些示例性說明和圖式並不構成對實施例的限定,圖式中具有相同參考數位標號的元件示為類似的元件,圖式不構成比例限制,並且其中:
圖1A至圖1C是根據本發明實施例的3D顯示設備的示意圖;
圖2是根據本發明實施例的眼部定位裝置的示意圖;
圖3是根據本發明實施例的利用兩個攝像頭確定眼部空間位置的幾何關係模型;
圖4是根據本發明另一實施例的眼部定位裝置的示意圖;
圖5是根據本發明實施例的利用攝像頭和深度檢測器確定眼部空間位置的幾何關係模型;
圖6是根據本發明實施例的用戶視角的示意圖;
圖7是根據本發明另一實施例的用戶視角的示意圖;
圖8是根據本發明實施例的生成對應於不同用戶視角的3D圖像的示意圖;
圖9A至圖9E是根據本發明實施例的視點與子像素的對應關係示意圖;
圖10是根據本發明實施例的3D顯示設備的顯示方法流程圖;和
圖11是根據本發明實施例的3D顯示設備的示意圖。
100:3D顯示設備
110:多視點3D顯示屏
120:處理器
121:暫存器
130:3D處理裝置
131:緩存器
140:3D信號介面
160:視角確定裝置
400:複合像素
410:紅色複合子像素
420:綠色複合子像素
430:藍色複合子像素
Claims (23)
- 一種3D顯示設備,包括: 多視點3D顯示屏,包括多個複合像素,所述多個複合像素中的每個複合像素包括多個複合子像素,所述多個複合子像素中的每個複合子像素包括對應於所述3D顯示設備的多個視點的多個子像素; 視角確定裝置,被配置為確定用戶的用戶視角; 3D處理裝置,被配置為基於所述用戶視角,依據3D模型的景深資訊渲染所述多個複合子像素中的相應子像素。
- 如請求項1所述的3D顯示設備,其中,所述3D處理裝置被配置為基於所述用戶視角,由所述景深資訊生成3D圖像,並依據所述3D圖像渲染所述相應子像素。
- 如請求項2所述的3D顯示設備,還包括: 眼部定位裝置,被配置為確定用戶的眼部空間位置; 所述3D處理裝置被配置為基於所述眼部空間位置確定所述用戶的眼部所在視點,並基於所述3D圖像渲染與所述眼部所在視點相應的子像素。
- 如請求項3所述的3D顯示設備,其中,所述眼部定位裝置包括: 眼部定位器,被配置為拍攝所述用戶的用戶圖像; 眼部定位影像處理器,被配置為基於所述用戶圖像確定所述眼部空間位置;和 眼部定位資料介面,被配置為傳輸表明所述眼部空間位置的眼部空間位置資訊。
- 如請求項4所述的3D顯示設備,其中,所述眼部定位器包括: 第一攝像頭,被配置為拍攝第一圖像;和 第二攝像頭,被配置為拍攝第二圖像; 其中,所述眼部定位影像處理器被配置為基於所述第一圖像和所述第二圖像中的至少一副圖像識別眼部的存在且基於識別到的眼部確定所述眼部空間位置。
- 如請求項4所述的3D顯示設備,其中,所述眼部定位器包括: 攝像頭,被配置為拍攝圖像;和 深度檢測器,被配置為獲取用戶的眼部深度資訊; 其中,所述眼部定位影像處理器被配置為基於所述圖像識別眼部的存在且基於識別到的眼部位置和所述眼部深度資訊確定所述眼部空間位置。
- 如請求項1至6中任一項所述的3D顯示設備,其中,所述用戶視角為所述用戶與所述多視點3D顯示屏的顯示平面之間的夾角。
- 如請求項7所述的3D顯示設備,其中,所述用戶視角為用戶視線與所述多視點3D顯示屏的顯示平面之間的夾角,其中所述用戶視線為用戶雙眼連線的中點與所述多視點3D顯示屏的中心的連線。
- 如請求項8所述的3D顯示設備,其中,所述用戶視角為: 所述用戶視線與所述顯示平面的橫向、豎向和深度方向中至少之一的夾角;或 所述用戶視線與所述用戶視線在所述顯示平面內的投影之間的夾角。
- 如請求項1至6中任一項所述的3D顯示設備,還包括:3D信號介面,被配置為接收所述3D模型。
- 一種3D圖像顯示方法,包括: 確定用戶的用戶視角;和 基於所述用戶視角,依據3D模型的景深資訊渲染多視點3D顯示屏中的複合像素的複合子像素中的相應子像素。
- 如請求項11所述的3D圖像顯示方法,其中,基於所述用戶視角,依據3D模型的景深資訊渲染多視點3D顯示屏中的複合像素的複合子像素中的相應子像素包括: 基於所述用戶視角,由所述景深資訊生成3D圖像,並依據所述3D圖像渲染所述相應子像素。
- 如請求項12所述的3D圖像顯示方法,還包括: 確定用戶的眼部空間位置; 基於所述眼部空間位置確定所述用戶的眼部所在視點;和 基於所述3D圖像渲染與所述眼部所在視點相應的子像素。
- 如請求項13所述的3D圖像顯示方法,其中,確定用戶的眼部空間位置包括: 拍攝所述用戶的用戶圖像; 基於所述用戶圖像確定所述眼部空間位置;和 傳輸表明所述眼部空間位置的眼部空間位置資訊。
- 如請求項14所述的3D圖像顯示方法,其中,拍攝所述用戶的用戶圖像並基於所述用戶圖像確定所述眼部空間位置包括: 拍攝第一圖像; 拍攝第二圖像; 基於所述第一圖像和所述第二圖像中的至少一幅圖像識別眼部的存在;和 基於識別到的眼部確定所述眼部空間位置。
- 如請求項14所述的3D圖像顯示方法,其中,拍攝所述用戶的用戶圖像並基於所述用戶圖像確定所述眼部空間位置包括: 拍攝圖像; 獲取用戶的眼部深度資訊; 基於所述圖像識別眼部的存在;和 基於識別到的眼部位置和所述眼部深度資訊共同確定所述眼部空間位置。
- 如請求項11至16中任一項所述的3D圖像顯示方法,其中,所述用戶視角為所述用戶與所述多視點3D顯示屏的顯示平面之間的夾角。
- 如請求項17所述的3D圖像顯示方法,其中,所述用戶視角為用戶視線與所述多視點3D顯示屏的顯示平面之間的夾角,其中所述用戶視線為用戶雙眼連線的中點與所述多視點3D顯示屏的中心的連線。
- 如請求項18所述的3D圖像顯示方法,其中,所述用戶視角為: 所述用戶視線與所述顯示平面的橫向、豎向和深度方向中至少之一的夾角;或 所述用戶視線與所述用戶視線在所述顯示平面內的投影之間的夾角。
- 如請求項11至16中任一項所述的3D圖像顯示方法,還包括: 接收3D模型。
- 一種3D顯示設備,包括: 處理器;和 儲存有程式指令的記憶體; 所述處理器被配置為在執行所述程式指令時,執行如請求項11至20中任一項所述的3D圖像顯示方法。
- 一種電腦可讀儲存介質,儲存有電腦可執行指令,所述電腦可執行指令設置為執行如請求項11至20中任一項所述的3D圖像顯示方法。
- 一種電腦程式產品,包括儲存在電腦可讀儲存介質上的電腦程式,所述電腦程式包括程式指令,當該程式指令被電腦執行時,使所述電腦執行如請求項11至20中任一項所述的3D圖像顯示方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911231149.XA CN112929636A (zh) | 2019-12-05 | 2019-12-05 | 3d显示设备、3d图像显示方法 |
CN201911231149.X | 2019-12-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202123694A true TW202123694A (zh) | 2021-06-16 |
TWI788739B TWI788739B (zh) | 2023-01-01 |
Family
ID=76160804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109142887A TWI788739B (zh) | 2019-12-05 | 2020-12-04 | 3d顯示設備、3d圖像顯示方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230007228A1 (zh) |
EP (1) | EP4068768A4 (zh) |
CN (1) | CN112929636A (zh) |
TW (1) | TWI788739B (zh) |
WO (1) | WO2021110038A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114079765B (zh) * | 2021-11-17 | 2024-05-28 | 京东方科技集团股份有限公司 | 图像显示方法、装置及系统 |
CN114040184A (zh) * | 2021-11-26 | 2022-02-11 | 京东方科技集团股份有限公司 | 图像显示方法、系统、存储介质及计算机程序产品 |
CN115278201A (zh) * | 2022-07-29 | 2022-11-01 | 北京芯海视界三维科技有限公司 | 处理装置及显示器件 |
CN115278200A (zh) * | 2022-07-29 | 2022-11-01 | 北京芯海视界三维科技有限公司 | 处理装置及显示器件 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030063383A1 (en) * | 2000-02-03 | 2003-04-03 | Costales Bryan L. | Software out-of-focus 3D method, system, and apparatus |
CN101002253A (zh) * | 2004-06-01 | 2007-07-18 | 迈克尔·A.·韦塞利 | 水平透视模拟器 |
EP1759379A2 (en) * | 2004-06-01 | 2007-03-07 | Michael A. Vesely | Horizontal perspective display |
KR101629479B1 (ko) * | 2009-11-04 | 2016-06-10 | 삼성전자주식회사 | 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법 |
KR101694821B1 (ko) * | 2010-01-28 | 2017-01-11 | 삼성전자주식회사 | 다시점 비디오스트림에 대한 링크 정보를 이용하는 디지털 데이터스트림 전송 방법와 그 장치, 및 링크 정보를 이용하는 디지털 데이터스트림 전송 방법과 그 장치 |
CN102693065A (zh) * | 2011-03-24 | 2012-09-26 | 介面光电股份有限公司 | 立体影像视觉效果处理方法 |
KR102192986B1 (ko) * | 2014-05-23 | 2020-12-18 | 삼성전자주식회사 | 영상 디스플레이 장치 및 영상 디스플레이 방법 |
CN105323573B (zh) * | 2014-07-16 | 2019-02-05 | 北京三星通信技术研究有限公司 | 三维图像显示装置和方法 |
KR101975246B1 (ko) * | 2014-10-10 | 2019-05-07 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 그 제어 방법 |
KR102415502B1 (ko) * | 2015-08-07 | 2022-07-01 | 삼성전자주식회사 | 복수의 사용자를 위한 라이트 필드 렌더링 방법 및 장치 |
EP3261328B1 (en) * | 2016-06-03 | 2021-10-13 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and computer-readable storage medium |
CN207320118U (zh) * | 2017-08-31 | 2018-05-04 | 昆山国显光电有限公司 | 像素结构、掩膜版及显示装置 |
CN109993823B (zh) * | 2019-04-11 | 2022-11-25 | 腾讯科技(深圳)有限公司 | 阴影渲染方法、装置、终端及存储介质 |
KR20210030072A (ko) * | 2019-09-09 | 2021-03-17 | 삼성전자주식회사 | 홀로그래픽 투사 방식을 이용한 다중 영상 디스플레이 장치 |
CN211128024U (zh) * | 2019-12-05 | 2020-07-28 | 北京芯海视界三维科技有限公司 | 3d显示设备 |
-
2019
- 2019-12-05 CN CN201911231149.XA patent/CN112929636A/zh active Pending
-
2020
- 2020-12-02 EP EP20895613.6A patent/EP4068768A4/en active Pending
- 2020-12-02 WO PCT/CN2020/133332 patent/WO2021110038A1/zh unknown
- 2020-12-02 US US17/781,058 patent/US20230007228A1/en active Pending
- 2020-12-04 TW TW109142887A patent/TWI788739B/zh active
Also Published As
Publication number | Publication date |
---|---|
EP4068768A1 (en) | 2022-10-05 |
US20230007228A1 (en) | 2023-01-05 |
TWI788739B (zh) | 2023-01-01 |
WO2021110038A1 (zh) | 2021-06-10 |
EP4068768A4 (en) | 2023-08-02 |
CN112929636A (zh) | 2021-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021110038A1 (zh) | 3d显示设备、3d图像显示方法 | |
CN211128024U (zh) | 3d显示设备 | |
WO2021110035A1 (zh) | 眼部定位装置、方法及3d显示设备、方法和终端 | |
US9549174B1 (en) | Head tracked stereoscopic display system that uses light field type data | |
CN101636747A (zh) | 二维/三维数字信息获取和显示设备 | |
CN108093244B (zh) | 一种远程随动立体视觉系统 | |
JP2010250452A (ja) | 任意視点画像合成装置 | |
Thatte et al. | Depth augmented stereo panorama for cinematic virtual reality with head-motion parallax | |
US11961250B2 (en) | Light-field image generation system, image display system, shape information acquisition server, image generation server, display device, light-field image generation method, and image display method | |
CN108885342A (zh) | 用于低延迟渲染的宽基线立体 | |
WO2018032841A1 (zh) | 绘制三维图像的方法及其设备、系统 | |
CN104599317A (zh) | 一种实现3d扫描建模功能的移动终端及方法 | |
CN107545537A (zh) | 一种从稠密点云生成3d全景图片的方法 | |
CN110969706B (zh) | 增强现实设备及其图像处理方法、系统以及存储介质 | |
WO2018000892A1 (zh) | 一种全景立体影像的成像方法、装置及系统 | |
US20170257614A1 (en) | Three-dimensional auto-focusing display method and system thereof | |
CN112929638B (zh) | 眼部定位方法、装置及多视点裸眼3d显示方法、设备 | |
JP2023551864A (ja) | 自動立体テレプレゼンスシステムのための3次元(3d)顔特徴追跡 | |
JPH08201941A (ja) | 3次元画像形成方法 | |
CN114513646A (zh) | 一种三维虚拟场景中全景视频的生成方法及设备 | |
CN214756700U (zh) | 3d显示设备 | |
Kang Wei et al. | Three-dimensional scene navigation through anaglyphic panorama visualization | |
JP6378794B1 (ja) | 画像処理装置、画像処理プログラム、及び、画像処理方法 | |
JP2024062935A (ja) | 立体視表示コンテンツを生成する方法および装置 | |
KR20180092187A (ko) | 증강 현실 제공 시스템 |