TWI782361B - 3d顯示裝置、方法及終端 - Google Patents
3d顯示裝置、方法及終端 Download PDFInfo
- Publication number
- TWI782361B TWI782361B TW109142825A TW109142825A TWI782361B TW I782361 B TWI782361 B TW I782361B TW 109142825 A TW109142825 A TW 109142825A TW 109142825 A TW109142825 A TW 109142825A TW I782361 B TWI782361 B TW I782361B
- Authority
- TW
- Taiwan
- Prior art keywords
- sub
- pixels
- viewpoint
- user
- eyes
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/324—Colour aspects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Liquid Crystal (AREA)
Abstract
本申請涉及3D顯示技術,揭露一種3D顯示裝置,包括:多視點3D顯示螢幕,包括多個複合像素,多個複合像素中的每個複合像素包括多個複合子像素,多個複合子像素中的每個複合子像素由對應於多個視點的多個子像素構成;眼部定位裝置,被配置為獲取用戶眼部的空間位置;3D處理裝置,被配置為由用戶眼部的空間位置確定視點,並基於接收到的3D訊號渲染多個複合子像素中與視點對應的子像素。上述3D顯示裝置能提高3D顯示的靈活性。本申請還揭露一種3D顯示方法和3D顯示終端、電腦可讀儲存媒體、電腦程式產品。
Description
本申請要求在2019年12月05日提交中國智慧財產權局、申請號為201911231290.X、發明名稱為「3D顯示裝置、方法及終端」的中國專利申請的優先權,其全部內容透過引用結合在本申請中。本申請涉及3D顯示技術,例如涉及3D顯示裝置、3D顯示方法及3D顯示終端。
目前,在進行3D顯示時,通常向預設的固定顯示方向顯示待顯示內容,導致顯示方式單一、靈活性低,影響顯示效果。
為了對揭露的實施例的一些方面有基本的理解,下面給出了實施例的概括,其不是要確定關鍵/重要組成元素或描繪發明的保護範圍,而是作為後面的詳細說明的序言。
本申請的實施例意圖提供3D顯示裝置、3D顯示方法和3D顯示終端、電腦可讀儲存媒體、電腦程式產品,以提高3D顯示的靈活性。
在一個方案中,提供一種3D顯示裝置,包括:多視點3D顯示螢幕,包括多個複合像素,多個複合像素中的每個複合像素包括多個複合子像素,多個複合子像素中的每個複合子像素由對應於多個視點的多個子像素構成;眼部定位裝置,被配置為獲取用戶眼部的空間位置;3D處理裝置,被配置為由用戶眼部的空間位置確定視點,並基於接收到的3D訊號渲染多個複合子像素中與視點對應的子像素。
在本揭露實施例中,透過利用眼部定位裝置即時獲取眼部定位資料,能夠根據觀看情況即時調整3D顯示,從而實現靈活度高的3D顯示,為用戶提供良好的觀看體驗。而且,以複合像素的方式定義多視點3D顯示螢幕的顯示解析度,因此在傳輸和顯示時均以由複合像素定義的顯示解析度為考量因素,這能夠有效實現傳輸和渲染計算量的減少,且仍具有良好的顯示效果。這能實現高品質的3D顯示。
在一些實施例中,眼部定位裝置被配置為獲取至少一個用戶的眼部的空間位置。
在一些實施例中,3D處理裝置被配置為,回應於至少一個用戶中每個用戶的雙眼之一位於單個視點或雙眼分別位於單個視點,渲染多個複合子像素中與單個視點對應的子像素。
在本實施例中,實現針對用戶的雙眼各自所在的視點位置呈現精確的顯示。
在一些實施例中,3D處理裝置還被配置為:渲染與單個視點對應的子像素相鄰的至少一個子像素。
在本實施例中,透過額外地渲染與眼部所在的單個視點對應的子像素的相鄰的一個或兩個子像素增強顯示亮度,從而使顯示效果適應強光環境;也可能的是,根據眼部定位資料計算出用戶的偏移或移動趨勢,據此渲染用戶有可能移動到的視點位置對應的子像素,從而主動地、或者說動態地適應觀看情況,以獲得良好的觀看體驗。
在一些實施例中,3D處理裝置被配置為,回應於至少一個用戶中每個用戶的雙眼之一位於兩個視點之間或雙眼分別位於兩個視點之間,渲染多個複合子像素中與兩個視點對應的子像素。
在本實施例中,能夠實現的是,即使在用戶的眼部橫跨視點的情況下,也能實現清晰的顯示效果;也可能的是,根據眼部定位資料計算出用戶的偏移或移動趨勢,據此渲染用戶有可能移動到的視點位置對應的子像素,或者據此渲染在用戶移動過程中經過的視點位置對應的子像素,從而主動地、或者說動態地適應觀看情況,以獲得良好的觀看體驗。
在一些實施例中,3D顯示裝置還包括臉部檢測裝置,被配置為檢測至少一個用戶的臉部資訊。
在本揭露實施例中,透過檢測用戶的臉部資訊,可以識別出用戶的身份。這例如在如下情況中是有利的,即,曾經對用戶的雙眼或臉部已進行過檢測,已知用戶的瞳距或其他生物特徵資訊,那麼雙眼所在的視點位置能夠利用已知資訊更快地計算出來,進一步提升臉部識別速度或眼部定位速度。
在一些實施例中,眼部定位裝置被配置為獲取至少兩個用戶的各自的雙眼的空間位置。
在本揭露實施例中,透過即時獲取至少兩個用戶各自的雙眼視點位置,能夠分別向至少兩個用戶提供精確的、客製化的、必要時有差異的3D顯示,使每個用戶都能獲得良好的觀看體驗。
在一些實施例中,3D處理裝置為FPGA或ASIC晶片或FPGA或ASIC晶片組。
在一些實施例中,多個複合子像素中的每個複合子像素包括按行排列或按列排列的多個子像素。
在另一方案中,提供了一種3D顯示方法,包括:獲取用戶眼部的空間位置;由用戶眼部的空間位置確定視點;基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與視點對應的子像素;其中,多視點3D顯示螢幕包括多個複合像素,多個複合像素中的每個複合像素包括多個複合子像素,多個複合子像素中的每個複合子像素由對應於多個視點的多個子像素構成。
在一些實施例中,獲取用戶眼部的空間位置和由用戶眼部的空間位置確定視點包括:獲取至少一個用戶的眼部的空間位置;由至少一個用戶的眼部的空間位置確定至少一個用戶中每個用戶的眼部所在的視點。
在一些實施例中,基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與視點對應的子像素包括:回應於至少一個用戶中每個用戶的雙眼之一位於單個視點或雙眼分別位於單個視點,渲染多個複合子像素中與單個視點對應的子像素。
在一些實施例中,基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與視點對應的子像素包括:回應於至少一個用戶中每個用戶的雙眼之一位於單個視點或雙眼分別位於單個視點,渲染多個複合子像素中與單個視點對應的子像素以及與單個視點對應的子像素相鄰的至少一個子像素。
在一些實施例中,基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與視點對應的子像素包括:回應於至少一個用戶中每個用戶的雙眼之一位於兩個視點之間或雙眼分別位於兩個視點之間,渲染多個複合子像素中與兩個視點對應的子像素。
在一些實施例中,3D顯示方法還包括:檢測至少一個用戶的臉部資訊。
在一些實施例中,檢測至少一個用戶的臉部資訊包括:檢測至少兩個用戶的臉部資訊。
在另一方案中,提供了3D顯示終端,包括處理器和儲存有程式指令的記憶體,還包括多視點3D顯示螢幕,多視點3D顯示螢幕包括多個複合像素,多個複合像素中的每個複合像素包括多個複合子像素,多個複合子像素中的每個複合子像素由對應於多個視點的多個子像素構成,處理器被配置為在執行程式指令時,執行如請求項10至16任一項的方法。
在一些實施例中,3D顯示終端為智慧電視、智慧蜂窩電話、平板電腦、個人電腦或可穿戴設備。
本揭露實施例提供的電腦可讀儲存媒體,儲存有電腦可執行指令,上述電腦可執行指令設置為執行上述的3D顯示方法。
本揭露實施例提供的電腦程式產品,包括儲存在電腦可讀儲存媒體上的電腦程式,上述電腦程式包括程式指令,當該程式指令被電腦執行時,使上述電腦執行上述的3D顯示方法。
本揭露實施例提供的3D顯示裝置、3D顯示方法及3D顯示終端、電腦可讀儲存媒體、電腦程式產品,可以實現以下技術效果:
提高3D顯示的靈活性。
以上的總體描述和下文中的描述僅是示例性和解釋性的,不用於限制本申請。
為了能夠更加詳盡地瞭解本揭露實施例的特點與技術內容,下面結合附圖對本揭露實施例的實現進行詳細闡述,所附附圖僅供參考說明之用,並非用來限定本揭露實施例。
在一個方案中,提供一種3D顯示裝置,包括:多視點3D顯示螢幕(例如:多視點裸眼3D顯示螢幕),包括m×n個複合像素;配置為接收3D訊號的圖像的視訊訊號介面;3D處理裝置;配置為即時獲取眼部定位資料的眼部定位裝置;其中,每個複合像素包括多個複合子像素,各複合子像素由對應於i個視點的i個同色子像素構成,其中i≥3;其中,3D處理裝置配置為,根據眼部定位資料,基於3D訊號的圖像渲染各複合子像素中由眼部定位資料確定的子像素。
在本揭露實施例中,透過利用眼部定位裝置即時獲取眼部定位資料,能夠根據觀看情況即時調整3D顯示,從而實現靈活度高的3D顯示,為用戶提供良好的觀看體驗。而且,以複合像素的方式定義多視點3D顯示螢幕的顯示解析度,因此在傳輸和顯示時均以由複合像素定義的顯示解析度為考量因素,這能夠有效實現傳輸和渲染計算量的減少,且仍具有良好的顯示效果。這能實現高品質的3D顯示。
在一些實施例中,眼部定位裝置配置為即時檢測至少一個用戶的眼部所在的視點位置。
在一些實施例中,3D處理裝置配置為,回應於每個用戶的雙眼之一位於單個視點中或雙眼分別位於單個視點中,渲染各複合子像素中與單個視點對應的子像素。
在本實施例中,實現針對用戶的雙眼各自所在的視點位置呈現精確的顯示。
在一些實施例中,3D處理裝置配置為還渲染與單個視點對應的子像素的相鄰的一個或兩個子像素。
在本實施例中,透過額外地渲染與眼部所在的單個視點對應的子像素的相鄰的一個或兩個子像素增強顯示亮度,從而使顯示效果適應強光環境;也可能的是,根據眼部定位資料計算出用戶的偏移或移動趨勢,據此渲染用戶有可能移動到的視點位置對應的子像素,從而主動地、或者說動態地適應觀看情況,以獲得良好的觀看體驗。
在一些實施例中,3D處理裝置配置為,回應於每個用戶的雙眼之一位於兩個視點之間(橫跨視點)或雙眼橫跨視點,渲染各複合子像素中與被橫跨的視點對應的子像素。
在本實施例中,能夠實現的是,即使在用戶的眼部橫跨視點的情況下,也能實現清晰的顯示效果;也可能的是,根據眼部定位資料計算出用戶的偏移或移動趨勢,據此渲染用戶有可能移動到的視點位置對應的子像素,或者據此渲染在用戶移動過程中經過的視點位置對應的子像素,從而主動地、或者說動態地適應觀看情況,以獲得良好的觀看體驗。
在一些實施例中,3D顯示裝置還包括配置為檢測至少一個用戶的臉部資訊的臉部檢測裝置。
在本揭露實施例中,透過檢測用戶的臉部資訊,可以識別出用戶的身份。這例如在如下情況中是有利的,即,曾經對用戶的雙眼或臉部已進行過檢測,已知用戶的瞳距或其他生物特徵資訊,那麼雙眼所在的視點位置能夠利用已知資訊更快地計算出來,進一步提升臉部識別速度或眼部定位速度。
在一些實施例中,眼部定位裝置配置為即時獲取至少兩個用戶各自的雙眼所在的視點位置。
在本揭露實施例中,透過即時獲取至少兩個用戶各自的雙眼視點位置,能夠分別向至少兩個用戶提供精確的、客製化的、必要時有差異的3D顯示,使每個用戶都能獲得良好的觀看體驗。
在一些實施例中,3D處理裝置為FPGA或ASIC晶片或FPGA或ASIC晶片組。
在一些實施例中,各複合子像素包括單行或單列的多個子像素。
在另一方案中,提供了一種用於多視點3D顯示螢幕的3D顯示方法,多視點3D顯示螢幕包括m×n個複合像素,每個複合像素包括多個複合子像素,各複合子像素由對應於i個視點的i個同色子像素構成,其中i≥3,3D顯示方法包括:傳輸3D訊號的圖像;即時獲取眼部定位資料;根據眼部定位資料,基於3D訊號的圖像渲染各複合子像素中由眼部定位資料確定的子像素。
在一些實施例中,即時獲取眼部定位資料包括:即時檢測至少一個用戶的雙眼所在的視點位置。
在一些實施例中,渲染步驟包括:回應於每個用戶的雙眼之一位於單個視點中或雙眼分別位於單個視點中,渲染各複合子像素中與單個視點對應的子像素。
在一些實施例中,渲染步驟包括:回應於每個用戶的雙眼之一位於單個視點中或雙眼分別位於單個視點中,渲染各複合子像素中與單個視點對應的子像素以及與單個視點對應的子像素相鄰的一個或兩個子像素。
在一些實施例中,渲染步驟包括:回應於每個用戶的雙眼之一橫跨視點或雙眼橫跨視點,渲染各複合子像素中與被橫跨的視點對應的子像素。
在一些實施例中,3D顯示方法還包括:檢測至少一個用戶的臉部資訊。
在一些實施例中,檢測至少一個用戶的臉部資訊包括檢測至少兩個用戶的臉部資訊。
第1A圖示出了根據本揭露實施例的3D顯示裝置的結構示意圖。參考第1A圖,提供了一種3D顯示裝置100,多視點3D顯示螢幕110、3D處理裝置130、配置為接收3D訊號的圖像的視訊訊號介面140和眼部定位裝置150。
多視點3D顯示螢幕110可包括顯示面板和覆蓋在顯示面板上的光柵(未標識)。在第1A圖所示的實施例中,多視點3D顯示螢幕110包括m×n個複合像素並因此限定出m×n的顯示解析度。如第1A圖所示,多視點3D顯示螢幕110包括m列n行個複合像素並因此限定出m×n的顯示解析度。
在一些實施例中,m×n的顯示解析度可以為全高清(FHD)以上的解析度,包括但不限於,1920×1080、1920×1200、2048×1280、2560×1440、3840×2160等。
在一些實施例中,3D處理裝置與多視點3D顯示螢幕通訊連接。
在一些實施例中,3D處理裝置與多視點3D顯示螢幕的驅動裝置通訊連接。
在一些實施例中,每個複合像素包括多個複合子像素,各複合子像素由對應於i個視點的i個同色子像素構成,i≥3。在第1A圖所示的實施例中,i=6,但可以想到i為其他數值。在所示的實施例中,多視點3D顯示螢幕可相應地具有i(i=6)個視點(V1-V6),但可以想到可以相應地具有更多或更少個視點。
結合參考第1A圖和第4A圖,在所示的實施例中,每個複合像素包括三個複合子像素,並且每個複合子像素由對應於6視點(i=6)的6個同色子像素構成。三個複合子像素分別對應於三種顏色,即紅(R)、綠(G)和藍(B)。
如第4A圖所示,複合像素400中的三個複合子像素410、420、430成單列佈置。各複合子像素410、420、430包括成單行佈置的子像素411、421、431。但可以想到,複合像素中的複合子像素不同排列方式或複合子像素中的子像素的不同排列形式。
如第4B圖所示,複合像素400中的三個複合子像素440、450、460成單行佈置。各複合子像素440、450、460包括成單列形式的子像素441、451、461。
在一些實施例中,例如第1A圖和第1B圖所示,3D顯示裝置100設置有單個3D處理裝置130。單個3D處理裝置130同時處理對3D顯示螢幕110的各複合像素的各複合子像素的渲染。
在另一些未示出的實施例中,3D顯示裝置100可設置有例如兩個、三個或更多個3D處理裝置130,它們並行、串列或串並行結合地處理對3D顯示螢幕110的各複合像素的各複合子像素的渲染。
本領域技術人員將明白,兩個、三個或更多個3D處理裝置可以有其他的方式分配且並行處理3D顯示螢幕110的多行多列複合像素或複合子像素,這落入本揭露實施例的範圍內。
在一些實施例中,3D處理裝置130還可以包括暫存器131,以便緩存所接收到的圖像。
在一些實施例中,3D處理裝置為FPGA或ASIC晶片或FPGA或ASIC晶片組。
繼續參考第1A圖,3D顯示裝置100還包括透過視訊訊號介面140通訊連接至3D處理裝置130的處理器101。在一些實施例中,處理器101被包括在電腦或智慧終端機、如移動終端中或作為其處理器單元。但是可以想到,在另一些實施例中,處理器101可以設置在3D顯示裝置的外部,例如3D顯示裝置可以為帶有3D處理裝置的多視點3D顯示器,例如非智慧的3D電視,例如設置在公共交通設施中的移動電視。
為簡單起見,在下文中,3D顯示裝置的示例性實施例內部包括處理器。進而,視訊訊號介面140構造為連接處理器101和3D處理裝置130的內部介面,參考第2圖和第3圖所示的以移動終端方式實施的3D顯示裝置200可更明確這種結構。在一些實施例中,作為3D顯示裝置200的內部介面的視訊訊號介面140可以為MIPI、mini-MIPI介面、LVDS介面、min-LVDS介面或Display Port介面。在一些實施例中,如第1A圖所示,3D顯示裝置100的處理器101還可包括寄存器122。寄存器122可用與暫存指令、數據和地址。
繼續參考第1A圖,3D顯示裝置100還包括配置為即時獲取眼部定位資料的眼部定位裝置150,從而3D處理裝置130可以根據眼部定位資料渲染複合像素(複合子像素)中的相應子像素。如第1A圖所示,眼部定位裝置150通訊連接至3D處理裝置130,由此3D處理裝置130可以直接接收眼部定位資料。在另一些實施例中,還設置有眼部定位資料介面(未示出),眼部定位裝置可以直接連接3D顯示裝置的處理器,3D處理裝置經由眼部定位資料介面從處理器獲得眼部定位資料。在另一些實施例中,眼部定位裝置可同時連接處理器和3D處理裝置,在這種情況下,一方面3D處理裝置可以直接從眼部定位裝置獲取眼部定位資料,另一方面可以使得眼部定位裝置獲取的其他資訊可以被處理器處理。
在第1A圖所示的實施例中,眼部定位裝置150配置為即時獲取眼部定位資料,3D處理裝置基於3D訊號的圖像渲染各複合子像素中由即時獲取的眼部定位資料確定的子像素。
示例性地而非限制性地,眼部定位裝置可以包括兩個黑白攝影機、眼部定位影像處理器和眼部定位資料介面。在這種情況下,透過兩個黑白攝影機能夠高速度地(即時地)拍攝用戶臉部圖像,透過眼部定位影像處理器能夠識別用戶的雙眼並計算雙眼分別所在的實際空間位置,透過眼部定位資料介面能夠傳輸得到的雙眼分別所在的實際空間位置。
在一些實施例中,3D處理裝置被配置為由眼部的空間位置確定視點。可選地,由眼部的空間位置確定視點也可由眼部定位裝置的眼部定位影像處理器實現。
第1B圖示出了根據本揭露實施例的3D顯示裝置的結構示意圖。參考第1B圖,在如第1A圖所提供的3D顯示裝置的基礎上,3D顯示裝置100還包括臉部檢測裝置158,臉部檢測裝置158具有視覺識別功能、例如臉部識別功能並且配置為檢測至少一個用戶的臉部資訊。臉部檢測裝置158可以連接至眼部定位裝置150,也可以連接至3D處理裝置130,以傳輸檢測到的臉部資訊。示例性地而非限制性地,臉部檢測裝置158可以作為獨立裝置設置,也可以集成在眼部定位裝置150內,也可以集成在3D顯示裝置100的處理器101內,也可以集成在3D顯示裝置中具有類似功能的其他部分內。
在一些實施例中,在一個以上用戶、例如兩個用戶的情況下,臉部檢測裝置檢測這兩個用戶的臉部資訊,並且眼部定位裝置即時獲取這兩個用戶各自的雙眼所在的視點位置。3D處理裝置根據兩個用戶各自的雙眼所在的視點位置,基於3D訊號的圖像渲染各複合子像素中的子像素。
在一些實施例中,在臉部檢測裝置和眼部定位裝置檢測到一個以上用戶、例如兩個用戶各自的雙眼所在的視點位置發生衝突時,這種情況例如為一個用戶的左眼和另一個用戶的右眼位於同一視點位置,透過多視點3D顯示螢幕向這些用戶呈現二維(2D)顯示。
在本揭露實施例中,多視點3D顯示螢幕110可以限定出6個視點V1-V6,用戶的眼睛在各視點(空間位置)可看到多視點3D顯示螢幕110的顯示面板中各複合像素的複合子像素中相應的子像素的顯示。用戶的雙眼在不同的視點看到的兩個不同畫面形成視差,在大腦中合成3D的畫面。
示例性地,3D處理裝置130透過作為內部介面的視訊訊號介面140從處理器101接收解壓縮的3D訊號的圖像。3D訊號的圖像可以為具有m×n(訊號)解析度的兩幅圖像或者為具有2m×n或m×2n(訊號)解析度的複合圖像。
在一些實施例中,兩幅圖像或複合圖像可以包括不同類型的圖像以及可以呈各種排列形式。示例性地,具有m×n(訊號)解析度的兩幅圖像可以呈並列格式或上下格式。這兩幅圖像可以分別為左眼視差圖像和右眼視差圖像,也可以分別為渲染色彩圖像和景深圖像。示例性地,具有2m×n或m×2n(訊號)解析度的複合圖像可以呈左右交織格式、上下交織格式或棋盤格式。複合圖像可以為交織的左眼和右眼視差複合圖像,也可以為交織的渲染色彩和景深複合圖像。
本領域技術人員將明白,上述圖像類型以及排列形式僅是示意性的,3D訊號的圖像可以包括其他類型的圖像以及可以呈其他排列形式,這落入本揭露實施例的範圍內。
示例性地而非限制地,3D處理裝置130透過視訊訊號介面140接收到3D訊號的具有m×n(訊號)解析度的兩幅圖像,亦即各圖像的(訊號)解析度m×n與多視點3D顯示螢幕110的按照視點劃分的複合像素所提供的顯示解析度m×n一致。
示例性地而非限制地,3D處理裝置130透過視訊訊號介面140接收到3D訊號的具有2m×n或m×2n(訊號)解析度的複合圖像,亦即複合圖像的(訊號)解析度的一半與多視點3D顯示螢幕110的按照視點劃分的複合像素所提供的顯示解析度m×n一致。
在這種情況下,一方面,由於視點資訊與傳輸過程無關,這能夠實現處理計算量小且解析度不受損失的3D顯示;另一方面,由於複合像素(複合子像素)對應於視點設置,顯示螢幕的渲染能夠以“點對點”的方式實現,大大降低了計算量。相比之下,常規的3D顯示器的圖像或影片的傳輸和顯示仍以2D顯示面板為基礎,不僅存在解析度下降和渲染計算量劇增的問題,還可能存在多次格式調整和圖像或影片顯示適配的問題。
在一些實施例中,處理器101的寄存器122可用於接收有關多視點3D顯示螢幕110的顯示要求的資訊,資訊典型地為與i個視點無關且與多視點3D顯示螢幕110的m×n顯示解析度相關的資訊,以便處理器101向多視點3D顯示螢幕110發送符合其顯示要求的3D訊號的圖像。資訊例如可以為用於初始建立影片傳輸發送的資料包。
因此,在傳輸3D訊號的圖像時,處理器101無需考慮與多視點3D顯示螢幕110的i個視點相關的資訊(i≥3)。而是,處理器101憑藉寄存器122接收到的與多視點3D顯示螢幕110的m×n解析度相關的資訊就能夠向多視點3D顯示螢幕110發送符合其要求的3D訊號的圖像。
在一些實施例中,3D顯示裝置100還可以包括轉碼器,配置為對壓縮的3D訊號解壓縮和編解碼並將解壓縮的3D訊號經視訊訊號介面140發送至3D處理裝置130。
在一些實施例中,3D顯示裝置100的處理器101從記憶體讀取或從3D顯示裝置100以外、例如透過外部介面接收3D訊號的圖像,然後經由視訊訊號介面140將讀取到的或接收到的3D訊號的圖像傳輸到3D處理裝置130。
在一些實施例中,3D顯示裝置100還包括格式調整器(未示出),其例如集成在處理器101中,構造為轉碼器或者作為GPU的一部分,用於預處理3D訊號的圖像,以使其包含的兩幅圖像具有m×n的(訊號)解析度或者使其包含的複合圖像具有2m×n或m×2n的(訊號)解析度。
在一些實施例中,3D處理裝置130配置為,回應於每個用戶的雙眼之一位於單個視點中或雙眼分別位於單個視點中,渲染各複合子像素中與單個視點對應的子像素。
參考第5A圖,在所示實施例中,用戶的右眼處於第2視點V2,左眼處於第5視點V5,基於3D訊號的圖像渲染複合子像素中與這兩個視點V2和V5相對應的子像素。用戶的雙眼在這兩個視點看到兩個不同畫面形成視差,在大腦中合成3D的畫面。
在一些實施例中,3D處理裝置130配置為,回應於每個用戶的雙眼之一位於單個視點中或雙眼分別位於單個視點中,渲染各複合子像素中與單個視點對應的子像素,還渲染與單個視點對應的子像素的相鄰的一個或兩個子像素。
參考第5B圖,在所示實施例中,用戶的右眼處於第2視點V2,左眼處於第5視點V5,基於3D訊號的圖像渲染複合子像素中與這兩個視點V2和V5相對應的子像素,還渲染與視點V2相鄰的視點V1相對應的子像素以及與視點V5相鄰的視點V4相對應的子像素。在另一些未示出的實施例中,也可渲染與這兩個視點V2和V5之一相鄰或與兩個視點分別相鄰的兩個視點對應的子像素。
在一些實施例中,多視點3D顯示螢幕可包括自發光顯示面板,例如為MICRO-LED顯示面板。在一些實施例中,自發光顯示面板、如MICRO-LED顯示面板配置為未被渲染的子像素不發光。對於多視點的超高清顯示器而言,這能夠極大降低顯示螢幕所耗的功率。
在一些實施例中,3D處理裝置130配置為,回應於每個用戶的雙眼之一橫跨視點或雙眼橫跨視點,渲染各複合子像素中與被橫跨的視點對應的子像素。
參考第5C圖,在所示實施例中,用戶的右眼橫跨兩個視點V1和V2,左眼處於第5視點V5,基於3D訊號的圖像渲染複合子像素中與被橫跨的兩個視點V1和V2對應的子像素,以及渲染與單個視點V5對應的子像素。從而位於視點V1、V2之間和V5的用戶的雙眼能看到不同角度的渲染畫面,產生視差,以形成3D顯示的3D效果。
在一些實施例中,3D處理裝置130配置為,回應於用戶的雙眼之一或兩者所在的視點位置發生移動,渲染各複合子像素中跟隨用戶的雙眼經移動的視點位置對應的子像素。
參考第5D圖,在所示實施例中,用戶的右眼從視點V1移動至視點V3,左眼從視點V4移動至視點V6,則複合子像素中被渲染的子像素對應的視點相應地從V1和V4變為V3和V6。從而處於運動狀態的用戶的眼部仍能即時看到不同角度的渲染畫面,產生視差,以形成3D顯示的3D效果。
在一些實施例中,3D處理裝置130配置為,回應於至少兩個用戶各自的雙眼所在視點位置,渲染各複合子像素中與至少兩個用戶各自的雙眼所在視點位置對應的子像素。
參考第5E圖,在所示實施例中,存在兩個用戶,用戶1的雙眼分別處於視點V1和V3,用戶2的雙眼分別處於視點V4和V6,則渲染各複合子像素中與這四個視點位置對應的子像素。從而每個用戶可以觀看對應自己觀察角度的渲染圖像,產生視差,以形成3D顯示的3D效果。
如前所述,本揭露實施例提供的3D顯示裝置可以是包含處理器的3D顯示裝置。在一些實施例中,3D顯示裝置可構造為智慧蜂窩電話、平板電腦、智慧電視、可穿戴設備、車載設備、筆記型電腦、超級行動個人電腦(UMPC)、Netbook、個人數位助理(PDA)等。
示例性的,第2圖示出了實施為移動終端、如智慧蜂窩電話或平板電腦的3D顯示裝置200的硬體結構示意圖。3D顯示裝置200可以包括處理器201、外部儲存介面202、(內部)記憶體203、通用序列匯流排(USB)介面204、充電管理模組205、電源管理模組206、電池207、移動通訊模組208、無線通訊模組210、天線209及211、音訊模組212、揚聲器213、受話器214、麥克風215、耳機介面216、按鍵217、馬達218、指示器219、用戶標識模組(SIM)卡介面220、攝影裝置221、多視點3D顯示螢幕110、3D處理裝置130、視訊訊號介面140、眼部定位裝置150、臉部檢測裝置158以及感測器模組230等。感測器模組230可以包括接近光感測器2301、環境光感測器2302、壓力感測器2303、氣壓感測器2304、磁感測器2305、重力感測器2306、陀螺儀感測器2307、加速度感測器2308、距離感測器2309、溫度感測器2310、指紋感測器2311、觸摸感測器2312、骨傳導感測器2313等。
可以理解的是,本揭露實施例示意的結構並不構成對3D顯示裝置200的具體限定。在另一些實施例中,3D顯示裝置200可以包括比圖示更多或更少的部件,或者組合某些部件,或者拆分某些部件,或者不同的部件佈置。圖示的部件可以以硬體,軟體或軟體和硬體的組合實現。
處理器201可以包括一個或一個以上處理單元,例如:處理器201可以包括應用處理器(AP)、調製解調處理器、基帶處理器、寄存器222、圖形處理器(GPU)223、圖像訊號處理器(ISP)、控制器、記憶體、轉碼器224、數位訊號處理器(DSP)、基帶處理器、神經網路處理器(NPU)等或它們的組合。其中,不同的處理單元可以是獨立的器件,也可以集成在一個或一個以上處理器中。
處理器201中還可以設置有快取記憶體器,配置為保存處理器201剛用過或迴圈使用的指令或資料。在處理器201要再次使用指令或資料時,可從記憶體中直接調用。
在一些實施例中,處理器201可以包括一個或一個以上介面。介面可以包括積體電路(I2C)介面、積體電路內置音訊(I2S)介面、脈衝碼調制(PCM)介面、通用非同步收發傳輸器(UART)介面、移動產業處理器介面(MIPI)、通用輸入輸出(GPIO)介面、用戶標識模組(SIM)介面、通用序列匯流排(USB)介面等。
I2C介面是一種雙向同步串列匯流排,包括一根串列資料線(SDA)和一根串列時鐘線(SCL)。在一些實施例中,處理器201可以包含多組I2C匯流排。處理器201可以透過不同的I2C匯流排界面分別通訊連接觸摸感測器2312、充電器、閃光燈、攝影裝置221、眼部定位裝置150、臉部檢測裝置158等。
在第2圖所示的實施例中,MIPI介面可以被配置為連接處理器201與多視點3D顯示螢幕110。此外,MIPI介面還可被配置為連接如攝影裝置221、眼部定位裝置150、臉部檢測裝置158等週邊器件。
可以理解的是,本揭露實施例示意的各模組間的介面連接關係,只是示意性說明,並不構成對3D顯示裝置200的結構限定。
3D顯示裝置200的無線通訊功能可以透過天線209及211、移動通訊模組208、無線通訊模組210、調製解調處理器或基帶處理器等實現。
天線209、211被配置為發射和接收電磁波訊號。3D顯示裝置200中的每個天線可被配置為覆蓋單個或多個通訊頻帶。不同的天線還可以複用,以提高天線的利用率。
移動通訊模組208可以提供應用在3D顯示裝置200上的包括2G/3G/4G/5G等無線通訊的解決方案。在一些實施例中,移動通訊模組208的至少部分功能模組可以被設置於處理器201中。在一些實施例中,移動通訊模組208的至少部分功能模組可以與處理器201的至少部分模組被設置在同一個器件中。
無線通訊模組210可以提供應用在3D顯示裝置200上的包括無線區域網路(WLAN)、藍牙(BT)、全球導航衛星系統(GNSS)、調頻(FM)、近距離無線通訊技術(NFC)、紅外技術(IR)等無線通訊的解決方案。無線通訊模組210可以是集成至少一個通訊處理模組的一個或一個以上器件。
在一些實施例中,3D顯示裝置200的天線209和移動通訊模組208耦合,天線211和無線通訊模組210耦合,使得3D顯示裝置200可以透過無線通訊技術與網路以及其他設備通訊。無線通訊技術可以包括全球移動通訊系統(GSM)、通用分組無線服務(GPRS)、分碼多址接入(CDMA)、寬頻分碼多址(WCDMA)、分時分碼多址(TD-SCDMA)、長期演進(LTE)、BT、GNSS、WLAN、NFC、FM、或IR技術等中至少一項。
在一些實施例中,配置為接收3D訊號的外部介面可以包括USB介面204、移動通訊模組208、無線通訊模組209或其組合。此外,還可以想到其他可行的配置為接收3D訊號的介面,例如上問題到的介面。
記憶體203可以配置為儲存電腦可執行程式碼,可執行程式碼包括指令。處理器201透過運行儲存在記憶體203的指令,從而執行3D顯示裝置200的各種功能應用以及資料處理。
外部記憶體介面202可以配置為連接外部儲存卡,例如Micro SD卡,實現擴展3D顯示裝置200的儲存能力。外部儲存卡透過外部記憶體介面202與處理器201通訊,實現資料儲存功能。
在一些實施例中,3D顯示裝置的記憶體可以包括(內部)記憶體203、外部記憶體介面202連接的外部儲存卡或其組合。在本揭露另一些實施例中,視訊訊號介面也可以採用上述實施例中不同的內部介面連接方式或其組合。
在本揭露的實施例中,攝影裝置221可以採集圖像或影片。
在一些實施例中,3D顯示裝置200透過視訊訊號介面140、3D處理裝置130、多視點3D顯示螢幕110,以及應用處理器等實現顯示功能。
在一些實施例中,3D顯示裝置200可包括GPU 223,例如配置為在處理器201內對3D影片圖像進行處理,也可以對2D影片圖像進行處理。
在一些實施例中,3D顯示裝置200還包括轉碼器224,配置為對數位視訊、例如對3D訊號壓縮或解壓縮。
在一些實施例中,視訊訊號介面140被配置為將經GPU或轉碼器224或兩者處理的3D訊號、例如解壓縮的3D訊號的圖像輸出至3D處理裝置130。
在一些實施例中,GPU或轉碼器224集成有格式調整器。
多視點3D顯示螢幕110被配置為顯示3D圖像或影片等。多視點3D顯示螢幕110包括顯示面板。顯示面板可以採用液晶顯示螢幕(LCD)、有機發光二極體(OLED)、有源矩陣有機發光二極體或主動矩陣有機發光二極體(AMOLED)、柔性發光二極體(FLED)、Mini-LED、Micro-LED、Micro-OLED、量子點發光二極體(QLED)等。
在一些實施例中,3D顯示裝置200還可包括配置為即時獲取眼部定位資料的眼部定位裝置150或眼部定位資料介面,從而3D處理裝置130可以基於眼部定位資料渲染複合像素(複合子像素)中的相應子像素。示例性地,眼部定位裝置150通訊連接至3D處理裝置130,也可以通訊連接至處理器201,例如旁路連接至處理器201。示例性地,眼部定位裝置150可同時連接處理器201和3D處理裝置130。
在一些實施例中,3D顯示裝置200還包括臉部檢測裝置158。臉部檢測裝置158具有視覺識別功能、例如臉部識別功能並且配置為檢測至少一個用戶的臉部資訊。臉部檢測裝置158可以連接至眼部定位裝置150,也可以連接至3D處理裝置130,以傳輸檢測到的臉部資訊。
3D顯示裝置200可以透過音訊模組212、揚聲器213、受話器214、麥克風215、耳機介面216,以及應用處理器等實現音訊功能。
按鍵217包括開機鍵、音量鍵等。按鍵217可以是機械按鍵。也可以是觸摸式按鍵。3D顯示裝置200可以接收按鍵輸入,產生與3D顯示裝置200的用戶設置以及功能控制有關的鍵訊號輸入。
馬達218可以產生振動提示。馬達218可以被配置為來電振動提示,也可以被配置為觸摸振動回饋。
SIM卡介面220被配置為連接SIM卡。在一些實施例中,3D顯示裝置200採用eSIM,即:嵌入式SIM卡。
環境光感測器2302被配置為感知周圍光線情況。例如,顯示螢幕的亮度可據此調節。示例性地,在用戶的雙眼分別位於單個視點中時,當環境光感測器2302檢測到外界環境亮度較高時,3D處理裝置130除了渲染各複合子像素中與單個視點對應的子像素,還渲染與單個視點對應的子像素的相鄰的一個或兩個子像素,以增強顯示亮度,適應強光環境。
壓力感測器2303被配置為感受壓力訊號,可以將壓力訊號轉換成電訊號。在一些實施例中,壓力感測器2303可以設置於多視點3D顯示螢幕110,這落入本揭露實施例的範圍內。
氣壓感測器2304被配置為測量氣壓。
磁感測器2305包括霍爾感測器。
重力感測器2306是將運動或重力轉換為電訊號的感測器,主要被配置為傾斜角、慣性力、衝擊及震動等參數的測量。
陀螺儀感測器2307可以被配置為確定3D顯示裝置200的運動姿態。
加速度感測器2308可檢測3D顯示裝置200在各個方向上(一般為三軸)加速度的大小。
距離感測器2309可被配置為測量距離
溫度感測器2310可被配置為檢測溫度。
指紋感測器2311被配置為採集指紋。
觸摸感測器2312可以設置於多視點3D顯示螢幕110中,由觸摸感測器2312與多視點3D顯示螢幕110組成觸控式螢幕,也稱「觸控屏」。
骨傳導感測器2313可以獲取振動訊號。
充電管理模組205被配置為從充電器接收充電輸入。其中,充電器可以是無線充電器,也可以是有線充電器。
電源管理模組206被配置為連接電池207,充電管理模組205與處理器201。
3D顯示裝置200的軟體系統可以採用分層架構、事件驅動架構、微核架構、微服務架構、或雲架構。本揭露所示的實施例以分層架構的安卓系統為例,示例性說明3D顯示裝置200的軟體結構。但可以想到,本揭露的實施例可以在不同的軟體系統、如作業系統中實施。
第3圖是本揭露實施例的3D顯示裝置200的軟體結構示意圖。分層架構將軟體分成若干個層。層與層之間透過軟體介面通訊。在一些實施例中,將安卓系統分為四層,從上至下分別為應用程式層310、框架層320、核心類庫和運行時(Runtime)330以及內核層340。
應用程式層310可以包括一系列應用套裝程式。如第3圖所示,應用套裝程式可以包括藍牙、WLAN、導航、音樂、相機、日曆、通話、影片、圖庫、地圖、簡訊等應用程式。例如可以在影片應用程式中實施3D影片顯示方法。
框架層320為應用程式層的應用程式提供應用程式設計介面(API)和程式設計框架。框架層包括一些預先定義的函數。 例如,在本揭露的一些實施例中,對所採集的3D影片圖像進行識別的函數或者演算法以及處理圖像的演算法等可以包括在框架層。
如第3圖所示,框架層320可以包括資源管理器、電話管理器、內容管理器、通知管理器、視窗管理器、視圖系統、安裝包管理器等。
安卓Runtime(運行時)包括核心庫和虛擬機器。安卓Runtime負責安卓系統的調度和管理。
核心庫包含兩部分:一部分是java語言要調用的功能函數,另一部分是安卓的核心庫。
應用程式層和框架層運行在虛擬機器中。虛擬機器將應用程式層和框架層的java檔執行為二進位檔案。虛擬機器被配置為執行物件生命週期的管理、堆疊管理、執行緒管理、安全和異常的管理,以及垃圾回收等功能。
核心類庫可以包括多個功能模組。例如:3D圖形處理庫(例如:OpenGL ES),表面管理器、影像處理庫、媒體庫、2D圖形引擎(例如:SGL)等。
內核層340是硬體和軟體之間的層。內核層至少包含攝影機驅動、音檔影片介面、通話介面、Wifi介面、感測器驅動、電源管理、GPS介面。
在此,以具有第2圖和第3圖所示結構的作為移動終端的3D顯示裝置為例,描述3D顯示裝置中的3D影片傳輸和顯示的實施例;但是,可以想到,在另一些實施例中可以包括更多或更少的特徵或對其中的特徵進行改變。
在一些實施例中,例如為移動終端、如智慧蜂窩電話或平板電腦的3D顯示裝置200例如借助作為外部介面的移動通訊模組208及天線209或者無線通訊模組210及天線211從網路、如蜂窩網路、WLAN網路、藍牙接收例如壓縮的3D訊號,壓縮的3D訊號例如經GPU 223進行影像處理、轉碼器224編解碼和解壓縮,然後例如經作為內部介面的視訊訊號介面140、如MIPI介面或mini-MIPI介面將解壓縮的3D訊號發送至3D處理裝置130,解壓縮的3D訊號的圖像包括本揭露實施例的兩幅圖像或複合圖像。進而,3D處理裝置130相應地渲染顯示螢幕的複合子像素中的子像素,由此實現3D影片播放。
在另一些實施例中,3D顯示裝置200讀取(內部)記憶體203或透過外部記憶體介面202讀取外部儲存卡中儲存的壓縮的3D訊號,並經相應的處理、傳輸和渲染來實現3D影片播放。
在一些實施例中,上文提到的3D影片的播放是在安卓系統應用程式層310中的影片應用程式中實施的。
本揭露實施例還提供一種用於多視點3D顯示螢幕的3D顯示方法,多視點3D顯示螢幕包括m×n個複合像素,每個複合像素包括多個複合子像素,各複合子像素由對應於i個視點的i個同色子像素構成,其中i≥3。
參考第6圖,在一些實施例中,3D顯示方法包括:
S601:獲取用戶雙眼的空間位置;
S602:由用戶雙眼的空間位置確定視點;
S603:基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與視點對應的子像素。
參考第7圖,在一些實施例中,3D顯示方法包括:
S701:獲取至少一個用戶的雙眼的空間位置;
S702:由至少一個用戶的雙眼的空間位置確定至少一個用戶中每個用戶的雙眼所在的視點;
S703:基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與視點對應的子像素。
參考第8圖,在一些實施例中,3D顯示方法包括:
S801:獲取至少一個用戶的雙眼的空間位置;
S802:由至少一個用戶的雙眼的空間位置確定至少一個用戶中每個用戶的雙眼所在的視點;
S803:回應於至少一個用戶中每個用戶的雙眼之一位於單個視點或雙眼分別位於單個視點,渲染多個複合子像素中與單個視點對應的子像素。
參考第9圖,在一些實施例中,3D顯示方法包括:
S901:獲取至少一個用戶的雙眼的空間位置;
S902:由至少一個用戶的雙眼的空間位置確定至少一個用戶中每個用戶的雙眼所在的視點;
S903:回應於至少一個用戶中每個用戶的雙眼之一位於單個視點或雙眼分別位於單個視點,渲染多個複合子像素中與單個視點對應的子像素以及與單個視點對應的子像素相鄰的至少一個子像素。
參考第10圖,在一些實施例中,3D顯示方法包括:
S1001:獲取至少一個用戶的雙眼的空間位置;
S1002:由至少一個用戶的雙眼的空間位置確定至少一個用戶中每個用戶的雙眼所在的視點;
S1003:回應於至少一個用戶中每個用戶的雙眼之一位於兩個視點之間或雙眼分別位於兩個視點之間,渲染多個複合子像素中與兩個視點對應的子像素。
參考第11圖,在一些實施例中,3D顯示方法包括:
S1101:檢測至少一個用戶的臉部資訊;
S1102:獲取至少一個用戶的雙眼的空間位置;
S1103:由至少一個用戶的雙眼的空間位置確定至少一個用戶中每個用戶的雙眼所在的視點;
S1104:基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與每個用戶的雙眼所在的視點對應的子像素。
參考第12圖,在一些實施例中,3D顯示方法包括:
S1201:檢測至少兩個用戶的臉部資訊;
S1202:獲取至少兩個用戶的雙眼的空間位置;
S1203:由至少兩個用戶的雙眼的空間位置確定至少兩個用戶中每個用戶的雙眼所在的視點;
S1204:基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與每個用戶的雙眼所在的視點對應的子像素。
本揭露實施例提供一種3D顯示終端1300,參考第13圖,3D顯示終端:
處理器1310和記憶體1311,還可以包括通訊介面1312和匯流排1313。其中,處理器1310、通訊介面1312、記憶體1311以透過匯流排1313完成相互間的通訊。通訊介面1313可以被配置為傳輸資訊。處理器1310可以調用記憶體1311中的邏輯指令,以執行上述實施例的3D顯示方法。
此外,上文提到的記憶體1311中的邏輯指令可以透過軟體功能單元的形式實現並作為獨立的產品銷售或使用時,可以儲存在一個電腦可讀取儲存媒體中。
記憶體1311作為一種電腦可讀儲存媒體,可被配置為儲存軟體程式、電腦可執行程式,如本揭露實施例中的方法對應的程式指令/模組。處理器1310透過運行儲存在記憶體1311中的程式指令/模組,從而執行功能應用以及資料處理,即實現上述方法實施例中的3D顯示方法。
記憶體1311可包括儲存程式區和儲存資料區,其中,儲存程式區可儲存作業系統、至少一個功能所需的應用程式;儲存資料區可儲存根據終端設備的使用所創建的資料等。此外,記憶體1311可以包括高速隨機存取記憶體,還可以包括非易失性記憶體。
本揭露實施例提供的電腦可讀儲存媒體,儲存有電腦可執行指令,上述電腦可執行指令設置為執行上述的3D顯示方法。
本揭露實施例提供的電腦程式產品,包括儲存在電腦可讀儲存媒體上的電腦程式,上述電腦程式包括程式指令,當該程式指令被電腦執行時,使上述電腦執行上述的3D顯示方法。
本揭露實施例的技術方案可以以軟體產品的形式體現出來,該電腦軟體產品儲存在一個儲存媒體中,包括一個或多個指令用以使得一台電腦設備(可以是個人電腦、伺服器、或者網路設備等)執行本揭露實施例的方法的全部或部分步驟。而前述的儲存媒體可以是非暫態儲存媒體,包括:USB隨身碟、行動硬碟、唯讀記憶體、隨機存取記憶體、磁碟或者光碟等多種可以儲存程式碼的媒體,也可以是暫態儲存媒體。
上述實施例闡明的系統、設備、裝置、模組或單元,可以由各種可能的實體來來實現。一種典型的實現實體為電腦或其處理器或其他部件。電腦例如可以為個人電腦、筆記型電腦、車載人機互動設備、蜂窩電話、相機電話、智慧型電話、個人數位助理、媒體播放機、導航設備、電子郵件設備、遊戲控制台、平板電腦、可穿戴設備、智慧電視、物聯網系統、智慧家居、工業電腦、單片機系統或者這些設備中的組合。在一個典型的配置中,電腦可包括一個或多個處理器(CPU)、輸入/輸出介面、網路介面和記憶體。記憶體可能包括電腦可讀媒體中的非永久性記憶體,隨機存取記憶體(RAM)和/或非易失性記憶體等形式,如唯讀記憶體(ROM)或快閃記憶體(flash RAM)。
在本申請的實施例的方法、程式、系統、設備、裝置等,可以在單個或多個連網的電腦中執行或實現,也可以在分散式運算環境中實踐。在本說明書實施例中,在這些分散式運算環境中,由透過通訊網路而被連接的遠端處理設備來執行任務。
本領域技術人員應明白,本說明書的實施例可提供為方法、系統、設備或電腦程式產品。因此,本說明書實施例可採用完全硬體實施例、完全軟體實施例或結合軟體和硬體方面的實施例的形式。
本領域技術人員可想到,上述實施例闡明的功能模組/單元或控制器以及相關方法步驟的實現,可以用軟體、硬體和軟/硬體結合的方式實現。例如,可以以純電腦可讀程式碼方式實現,也可以部分或全部透過將方法步驟進行邏輯程式設計來使得控制器以硬體來實現相同功能,包括但不限於邏輯門、開關、專用積體電路、可程式設計邏輯控制器(如FPGA)和嵌入微控制器。
在本申請的一些實施例中,以功能模組/單元的形式來描述裝置的部件。可以想到,多個功能模組/單元一個或多個“組合”功能模組/單元和/或一個或多個軟體和/或硬體中實現。也可以想到,單個功能模組/單元由多個子功能模組或子單元的組合和/或多個軟體和/或硬體實現。功能模組/單元的劃分,可以僅為一種邏輯功能劃分,在具體的實現方式中,多個模組/單元可以結合或者可以集成到另一個系統、設備。此外,本文提到的模組、單元、裝置、系統、設備及其部件的連接包括直接或間接的連接,涵蓋可行的電的、機械的、通訊的連接,尤其包括各種介面間的有線或無線連接,包括但不限於HDMI、雷達、USB、WiFi、蜂窩網路。
在本申請的實施例中,方法、程式的技術特徵、流程圖和/或方框圖可以應用到相應的裝置、設備、系統及其模組、單元、部件中。反過來,裝置、設備、系統及其模組、單元、部件的各實施例和特徵可以應用至根據本申請實施例的方法、程式中。例如,電腦程式指令可裝載到通用電腦、專用電腦、嵌入式處理機或其他可程式設計資料處理設備的處理器以產生一個機器,其具有實現在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中相應的功能或特徵。
根據本申請實施例的方法、程式可以以電腦程式指令或程式的方式儲存在能引導電腦或其他可程式設計資料處理設備以特定方式工作的電腦可讀的記憶體或媒體中。本申請實施例也涉及儲存有可實施本申請實施例的方法、程式、指令的可讀記憶體或媒體。
儲存媒體包括永久性和非永久性、可移動和非可移動的可以由任何方法或技術來實現資訊儲存的物品。資訊可以是電腦可讀指令、資料結構、程式的模組或其他資料。儲存媒體的例子包括,但不限於相變記憶體(PRAM)、靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)、其他類型的隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電可擦除可程式設計唯讀記憶體(EEPROM)、快閃記憶體或其他記憶體技術、唯讀光碟唯讀記憶體(CD-ROM)、數位多功能光碟(DVD)或其他光學儲存、磁盒式磁帶,磁帶磁磁片儲存或其他磁性存放裝置或任何其他非傳輸媒體,可被配置為儲存可以被計算設備訪問的資訊。
除非明確指出,根據本申請實施例記載的方法、程式的動作或步驟並不必須按照特定的順序來執行並且仍然可以實現期望的結果。在某些實施方式中,多工處理和並行處理也是可以的或者可能是有利的。
在本文中,各實施例的具體特徵、結構、材料或者特點可以在任一個或多個實施例或示例中以合適的方式結合。此外,在不相互矛盾的情況下,本領域的技術人員可以將本說明書中描述的不同實施例或示例以及不同實施例或示例的特徵進行結合和組合。
已參考上述實施例具體示出並描述了本申請的示例性系統、設備及方法,其僅為實施本系統、設備及方法的示例。本領域的技術人員可以理解的是可以在實施本系統、設備及/或方法時對這裡描述的系統、設備及方法的實施例做各種改變而不脫離界定在所附請求項中的本申請的精神及範圍。所附請求項意在界定本系統、設備及方法的範圍,故落入這些請求項中及與其等同的系統、設備及方法可被涵蓋。
100:3D顯示裝置
101:處理器
122:寄存器
110:多視點3D顯示螢幕
130:3D處理裝置
131:暫存器
140:視訊訊號介面
150:眼部定位裝置
158:臉部檢測裝置
200:3D顯示裝置
201:處理器
202:外部記憶體介面
203:記憶體
204:USB介面
205:充電管理模組
206:電源管理模組
207:電池
208:移動通訊模組
209:天線
210:無線通訊模組
211:天線
212:音訊模組
213:揚聲器
214:受話器
215:麥克風
216:耳機介面
217:按鍵
218:馬達
219:指示器
220:SIM卡介面
221:攝影裝置
222:寄存器
223:GPU
224:轉碼器
230:感測器模組
2301:接近光感測器
2302:環境光感測器
2303:壓力感測器
2304:氣壓感測器
2305:磁感測器
2306:重力感測器
2307:陀螺儀感測器
2308:加速度感測器
2309:距離感測器
2310:溫度感測器
2311:指紋感測器
2312:觸摸感測器
2313:骨傳導感測器
310:應用程式層
320:框架層
330:核心類庫和運行時(Runtime)
340:內核層
400:複合像素
410,420,430:成單列佈置的複合子像素
411,421,431:成單行佈置的子像素
440,450,460:成單行佈置的複合子像素
441,451,461:成單列佈置的子像素
V1~V6:視點S601~S603:步驟
S701~S703:步驟
S801~S803:步驟
S901~S903:步驟
S1001~S1003:步驟
S1101~S1104:步驟
S1201~S1204:步驟
1300:3D顯示終端
1310:處理器
1311:記憶體
1312:通訊介面
1313:匯流排
一個或多個實施例透過與之對應的附圖進行示例性說明,這些示例性說明和附圖並不構成對實施例的限定,附圖中具有相同參考數位標號的元件示為類似的元件,附圖不構成比例限制,並且其中:
第1A圖和第1B圖是根據本揭露實施例的3D顯示裝置的結構示意圖;
第2圖是根據本揭露實施例的3D顯示裝置的硬體結構示意圖;
第3圖是第2圖所示的3D顯示裝置的軟體結構示意圖;
第4A圖和第4B圖是根據本揭露實施例的複合像素的示意圖;
第5A圖和第5B圖根據本揭露實施例的回應於用戶的視點位置執行的渲染的示意圖,其中用戶的雙眼分別位於單個視點中;
第5C圖是根據本揭露實施例的回應於用戶的視點位置執行的渲染的示意圖,其中用戶的雙眼之一橫跨視點,另一個位於單個視點中;
第5D圖是根據本揭露實施例的回應於用戶的視點位置執行的渲染的示意圖,其中用戶的視點位置發生移動;
第5E圖是根據本揭露實施例的回應於用戶的視點位置執行的渲染的示意圖,其中有兩個用戶;
第6圖是根據本揭露實施例的3D顯示方法的步驟示意圖;
第7圖是根據本揭露實施例的3D顯示方法的步驟示意圖;
第8圖是根據本揭露實施例的3D顯示方法的步驟示意圖;
第9圖是根據本揭露實施例的3D顯示方法的步驟示意圖;
第10圖是根據本揭露實施例的3D顯示方法的步驟示意圖;
第11圖是根據本揭露實施例的3D顯示方法的步驟示意圖;
第12圖是根據本揭露實施例的3D顯示方法的步驟示意圖;
第13圖根據本揭露實施例的3D顯示終端的結構示意圖。
100:3D顯示裝置
101:處理器
122:寄存器
110:多視點3D顯示螢幕
130:3D處理裝置
131:暫存器
140:視訊訊號介面
150:眼部定位裝置
Claims (20)
- 一種3D顯示裝置,包括: 多視點3D顯示螢幕,包括多個複合像素,所述多個複合像素中的每個複合像素包括多個複合子像素,所述多個複合子像素中的每個複合子像素由對應於多個視點的多個子像素構成; 眼部定位裝置,被配置為獲取用戶眼部的空間位置; 3D處理裝置,被配置為由所述用戶眼部的空間位置確定視點,並基於接收到的3D訊號渲染所述多個複合子像素中與所述視點對應的子像素。
- 根據請求項1所述的3D顯示裝置,其中,所述眼部定位裝置被配置為獲取至少一個用戶的眼部的空間位置。
- 根據請求項2所述的3D顯示裝置,其中,所述3D處理裝置被配置為,回應於所述至少一個用戶中每個用戶的雙眼之一位於單個視點或雙眼分別位於單個視點,渲染所述多個複合子像素中與所述單個視點對應的子像素。
- 根據請求項3所述的3D顯示裝置,其中,所述3D處理裝置還被配置為: 渲染與所述單個視點對應的子像素相鄰的至少一個子像素。
- 根據請求項2所述的3D顯示裝置,其中,所述3D處理裝置被配置為,回應於所述至少一個用戶中每個用戶的雙眼之一位於兩個視點之間或雙眼分別位於兩個視點之間,渲染所述多個複合子像素中與所述兩個視點對應的子像素。
- 根據請求項2至5任一項所述的3D顯示裝置,還包括臉部檢測裝置,被配置為檢測所述至少一個用戶的臉部資訊。
- 根據請求項6所述的3D顯示裝置,其中,所述眼部定位裝置被配置為獲取至少兩個用戶的各自的雙眼的空間位置。
- 根據請求項1至5任一項所述的3D顯示裝置,其中,所述3D處理裝置為FPGA或ASIC晶片或FPGA或ASIC晶片組。
- 根據請求項1至5任一項所述的3D顯示裝置,其中,所述多個複合子像素中的每個複合子像素包括按行排列或按列排列的多個子像素。
- 一種3D顯示方法,包括: 獲取用戶眼部的空間位置; 由所述用戶眼部的空間位置確定視點; 基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與所述視點對應的子像素; 其中,所述多視點3D顯示螢幕包括多個複合像素,所述多個複合像素中的每個複合像素包括多個複合子像素,所述多個複合子像素中的每個複合子像素由對應於多個視點的多個子像素構成。
- 根據請求項10所述的方法,其中,獲取用戶眼部的空間位置和由所述用戶眼部的空間位置確定視點包括: 獲取至少一個用戶的眼部的空間位置; 由所述至少一個用戶的眼部的空間位置確定所述至少一個用戶中每個用戶的眼部所在的視點。
- 根據請求項11所述的方法,其中,基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與所述視點對應的子像素包括: 回應於所述至少一個用戶中每個用戶的雙眼之一位於單個視點或雙眼分別位於單個視點,渲染所述多個複合子像素中與所述單個視點對應的子像素。
- 根據請求項11所述的方法,其中,基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與所述視點對應的子像素包括: 回應於所述至少一個用戶中每個用戶的雙眼之一位於單個視點或雙眼分別位於單個視點,渲染所述多個複合子像素中與所述單個視點對應的子像素以及與所述單個視點對應的子像素相鄰的至少一個子像素。
- 根據請求項11所述的方法,其中,基於3D訊號渲染多視點3D顯示螢幕中的多個複合子像素中與所述視點對應的子像素包括: 回應於所述至少一個用戶中每個用戶的雙眼之一位於兩個視點之間或雙眼分別位於兩個視點之間,渲染所述多個複合子像素中與所述兩個視點對應的子像素。
- 根據請求項10至14任一項所述的方法,還包括: 檢測所述至少一個用戶的臉部資訊。
- 根據請求項15所述的方法,其中,檢測所述至少一個用戶的臉部資訊包括:檢測至少兩個用戶的臉部資訊。
- 一種3D顯示終端,包括處理器和儲存有程式指令的記憶體,還包括多視點3D顯示螢幕,所述多視點3D顯示螢幕包括多個複合像素,所述多個複合像素中的每個複合像素包括多個複合子像素,所述多個複合子像素中的每個複合子像素由對應於多個視點的多個子像素構成,所述處理器被配置為在執行所述程式指令時,執行如請求項10至16任一項所述的方法。
- 根據請求項17所述的3D顯示終端,其中,所述3D顯示終端為智慧電視、智慧蜂窩電話、平板電腦、個人電腦或可穿戴設備。
- 一種電腦可讀儲存媒體,儲存有電腦可執行指令,所述電腦可執行指令設置為執行如請求項10至16任一項所述的方法。
- 一種電腦程式產品,包括儲存在電腦可讀儲存媒體上的電腦程式,所述電腦程式包括程式指令,當該程式指令被電腦執行時,使所述電腦執行如請求項10至16任一項所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911231290.XA CN112929643B (zh) | 2019-12-05 | 2019-12-05 | 3d显示设备、方法及终端 |
CN201911231290.X | 2019-12-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202137758A TW202137758A (zh) | 2021-10-01 |
TWI782361B true TWI782361B (zh) | 2022-11-01 |
Family
ID=76160749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109142825A TWI782361B (zh) | 2019-12-05 | 2020-12-04 | 3d顯示裝置、方法及終端 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220408077A1 (zh) |
EP (1) | EP4068772A4 (zh) |
CN (1) | CN112929643B (zh) |
TW (1) | TWI782361B (zh) |
WO (1) | WO2021110033A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114079765B (zh) * | 2021-11-17 | 2024-05-28 | 京东方科技集团股份有限公司 | 图像显示方法、装置及系统 |
CN114581634A (zh) * | 2022-03-01 | 2022-06-03 | 江苏蓝创文化科技有限公司 | 透视点自动追踪可变的裸眼3d立体全息互动体验系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103988504A (zh) * | 2011-11-30 | 2014-08-13 | 三星电子株式会社 | 用于子像素渲染的图像处理设备和方法 |
CN104079919A (zh) * | 2009-11-04 | 2014-10-01 | 三星电子株式会社 | 使用主动亚像素渲染的高密度多视点图像显示系统及方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006229725A (ja) * | 2005-02-18 | 2006-08-31 | Konica Minolta Photo Imaging Inc | 画像生成システム及び画像生成方法 |
JP2007081562A (ja) * | 2005-09-12 | 2007-03-29 | Toshiba Corp | 立体画像表示装置、立体画像表示プログラムおよび立体画像表示方法 |
WO2009130542A1 (en) * | 2008-04-24 | 2009-10-29 | Nokia Corporation | Plug and play multiplexer for any stereoscopic viewing device |
CN101621706B (zh) * | 2009-07-21 | 2010-12-08 | 四川大学 | 一种减小柱面光栅自由立体显示器图像串扰的方法 |
JP2012108316A (ja) * | 2010-11-17 | 2012-06-07 | Sony Corp | 立体表示装置 |
US9363504B2 (en) * | 2011-06-23 | 2016-06-07 | Lg Electronics Inc. | Apparatus and method for displaying 3-dimensional image |
KR20130093369A (ko) * | 2012-02-14 | 2013-08-22 | 삼성디스플레이 주식회사 | 표시 장치 및 이를 이용한 입체 영상 표시 방법 |
US10102814B2 (en) * | 2012-10-01 | 2018-10-16 | Seereal Technologies S.A. | Controllable device for phase modulation of coherent light |
CN104536578B (zh) * | 2015-01-13 | 2018-02-16 | 京东方科技集团股份有限公司 | 裸眼3d显示装置的控制方法及装置、裸眼3d显示装置 |
KR101688400B1 (ko) * | 2015-06-04 | 2016-12-22 | 한국과학기술연구원 | 입체 영상 표시 장치 및 입체 영상 표시 장치의 설계 방법 |
CN105372823B (zh) * | 2015-12-08 | 2017-10-27 | 上海天马微电子有限公司 | 立体显示装置 |
EP3494695B1 (en) * | 2016-08-04 | 2023-09-27 | Dolby Laboratories Licensing Corporation | Single depth tracked accommodation-vergence solutions |
CN108307187B (zh) * | 2016-09-28 | 2024-01-12 | 擎中科技(上海)有限公司 | 裸眼3d显示设备及其显示方法 |
US10078228B2 (en) * | 2016-09-29 | 2018-09-18 | Jeremy Paul Willden | Three-dimensional imaging system |
KR102564479B1 (ko) * | 2016-11-22 | 2023-08-07 | 삼성전자주식회사 | 사용자의 눈을 위한 3d 렌더링 방법 및 장치 |
US20180357981A1 (en) * | 2017-06-13 | 2018-12-13 | Misapplied Sciences, Inc. | Coordinated multi-view display experiences |
KR102447101B1 (ko) * | 2017-09-12 | 2022-09-26 | 삼성전자주식회사 | 무안경 3d 디스플레이를 위한 영상 처리 방법 및 장치 |
KR102427854B1 (ko) * | 2017-09-25 | 2022-08-01 | 삼성전자주식회사 | 영상 렌더링 방법 및 장치 |
US11126027B2 (en) * | 2018-06-14 | 2021-09-21 | Boe Technology Group Co., Ltd. | Display apparatus and driving method thereof |
CN109104603B (zh) * | 2018-09-25 | 2020-11-03 | 张家港康得新光电材料有限公司 | 一种视点补偿方法、装置、电子设备和存储介质 |
-
2019
- 2019-12-05 CN CN201911231290.XA patent/CN112929643B/zh active Active
-
2020
- 2020-12-02 EP EP20896638.2A patent/EP4068772A4/en active Pending
- 2020-12-02 WO PCT/CN2020/133327 patent/WO2021110033A1/zh unknown
- 2020-12-02 US US17/779,648 patent/US20220408077A1/en active Pending
- 2020-12-04 TW TW109142825A patent/TWI782361B/zh active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104079919A (zh) * | 2009-11-04 | 2014-10-01 | 三星电子株式会社 | 使用主动亚像素渲染的高密度多视点图像显示系统及方法 |
CN103988504A (zh) * | 2011-11-30 | 2014-08-13 | 三星电子株式会社 | 用于子像素渲染的图像处理设备和方法 |
Also Published As
Publication number | Publication date |
---|---|
EP4068772A1 (en) | 2022-10-05 |
US20220408077A1 (en) | 2022-12-22 |
EP4068772A4 (en) | 2023-08-23 |
WO2021110033A1 (zh) | 2021-06-10 |
CN112929643A (zh) | 2021-06-08 |
CN112929643B (zh) | 2022-06-28 |
TW202137758A (zh) | 2021-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI818211B (zh) | 眼部定位裝置、方法及3d顯示裝置、方法 | |
TWI746302B (zh) | 多視點3d顯示屏、多視點3d顯示終端 | |
CN112929647A (zh) | 3d显示设备、方法和终端 | |
CN110557626B (zh) | 一种图像显示的方法及电子设备 | |
TWI782361B (zh) | 3d顯示裝置、方法及終端 | |
CN112584125A (zh) | 三维图像显示设备及其显示方法 | |
TWI790511B (zh) | 實現3d圖像顯示的方法、3d顯示設備 | |
CN211791829U (zh) | 3d显示设备 | |
CN211791828U (zh) | 3d显示设备 | |
CN211128026U (zh) | 多视点裸眼3d显示屏、多视点裸眼3d显示终端 | |
WO2021110026A1 (zh) | 实现3d图像显示的方法、3d显示设备 | |
WO2021110040A1 (zh) | 多视点3d显示屏、3d显示终端 | |
CN211930763U (zh) | 3d显示设备 | |
CN211528831U (zh) | 多视点裸眼3d显示屏、裸眼3d显示终端 | |
CN112929645A (zh) | 3d显示设备、系统和方法及3d视频数据通信方法 | |
TWI840636B (zh) | 實現3d圖像顯示的方法、3d顯示設備 | |
WO2021110037A1 (zh) | 实现3d图像显示的方法、3d显示设备 | |
CN112929641B (zh) | 3d图像显示方法、3d显示设备 | |
CN116841350A (zh) | 一种3d显示方法以及装置 |