TWI785430B - 3d顯示屏的顯示控制方法及多視點3d顯示器 - Google Patents
3d顯示屏的顯示控制方法及多視點3d顯示器 Download PDFInfo
- Publication number
- TWI785430B TWI785430B TW109142888A TW109142888A TWI785430B TW I785430 B TWI785430 B TW I785430B TW 109142888 A TW109142888 A TW 109142888A TW 109142888 A TW109142888 A TW 109142888A TW I785430 B TWI785430 B TW I785430B
- Authority
- TW
- Taiwan
- Prior art keywords
- user
- viewpoint
- facial image
- display
- features
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000004590 computer program Methods 0.000 claims abstract description 22
- 230000001815 facial effect Effects 0.000 claims description 199
- 239000002131 composite material Substances 0.000 claims description 112
- 238000012545 processing Methods 0.000 claims description 69
- 230000015654 memory Effects 0.000 claims description 25
- 210000001747 pupil Anatomy 0.000 claims description 23
- 230000001179 pupillary effect Effects 0.000 claims description 20
- 238000009877 rendering Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 238000012795 verification Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 239000013256 coordination polymer Substances 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
- H04N13/351—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N2013/40—Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
- H04N2013/405—Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Ophthalmology & Optometry (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本發明涉及3D影像領域,公開了多視點3D顯示屏的顯示控制方法,包括:獲取用戶的身份特徵;在身份特徵滿足條件的情況下,向用戶進行3D顯示。該方法能夠對用戶進行關於3D顯示的驗證,避免了3D顯示方式單一的問題,提高了3D顯示方式靈活性。本發明還公開一種多視點3D顯示器、電腦可讀儲存介質、電腦程式產品。
Description
本發明涉及3D顯示技術,例如涉及3D顯示屏的顯示控制方法、多視點3D顯示器。
目前,在進行3D顯示時,不同用戶均可觀看到3D顯示內容,導致3D顯示方式單一、靈活性低。
為了對披露的實施例的一些方面有基本的理解,下面給出了一些實施例的概述,其不是要確定關鍵/重要組成元素或描繪發明的保護範圍,而是作為後面的詳細說明的序言。
本發明實施例提供一種3D顯示屏的顯示控制方法、多視點3D顯示器、電腦可讀儲存介質、電腦程式產品,避免3D顯示方式單一的問題,提高3D顯示方式靈活性。
在一些實施例中,提供了一種多視點3D顯示屏的顯示控制方法,包括:獲取用戶的身份特徵;在身份特徵滿足條件的情況下,向用戶進行3D顯示。
在一些實施例中,多視點3D顯示屏包括多個複合像素,多個複合像素中的每個複合像素包括多個複合子像素,多個複合子像素中的每個複合子像素包括對應多視點3D顯示屏的多個視點的多個子像素;向用戶進行3D顯示包括:根據用戶的眼部所在視點,基於3D信號渲染多視點3D顯示屏中的多個複合子像素中的與視點相對應的子像素。
在一些實施例中,身份特徵滿足條件的情況包括:獲取用戶的面部圖像特徵,在用戶的面部圖像特徵與已授權面部圖像特徵相匹配時,確定身份特徵滿足條件;或者獲取用戶的面部圖像特徵和瞳距特徵,在用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且用戶的瞳距特徵與已授權瞳距特徵相匹配時,確定身份特徵滿足條件;或者獲取用戶的面部圖像特徵,在用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且面部圖像特徵與已授權面部圖像特徵相匹配的用戶的數量滿足預設數值條件時,確定身份特徵滿足條件;或者獲取用戶的面部圖像特徵和瞳距特徵,在用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且用戶的瞳距特徵與已授權瞳距特徵相匹配,且面部圖像特徵與已授權面部圖像特徵相匹配以及瞳距特徵與已授權瞳距特徵相匹配的用戶的數量滿足預設數值條件時,確定身份特徵滿足條件。
在一些實施例中,用戶的面部圖像特徵與已授權面部圖像特徵相匹配包括:獲取播放的3D圖像;根據3D圖像獲取已授權面部圖像特徵;將用戶的面部圖像特徵與已授權面部圖像特徵進行比較;在比較結果為用戶的面部圖像特徵與已授權面部圖像特徵一致時,確定用戶的面部圖像特徵與已授權面部圖像特徵相匹配。
在一些實施例中,顯示控制方法還包括:在身份特徵未滿足條件的情況下,停止向用戶進行3D顯示。
在一些實施例中,顯示控制方法還包括:採集用戶的面部圖像;基於面部圖像獲取用戶眼部所在視點;基於視點進行3D顯示。
在一些實施例中,顯示控制方法還包括:在身份特徵滿足條件的情況下,獲取用戶的眼部在臉部中所處的位置,根據用戶的面部圖像位置和眼部在臉部中所處的位置,獲取用戶的眼部所在視點;或者在身份特徵滿足條件的情況下,獲取用戶的雙眼與視點對應關係,根據用戶的雙眼之一所處的視點和雙眼與視點對應關係,獲取用戶的雙眼中的另一眼所處的視點。
在一些實施例中,顯示控制方法還包括:在身份特徵滿足條件的情況下,獲取用戶的眼部定位資料;基於眼部定位資料獲取用戶的眼部所在視點。
在一些實施例中,提供了一種多視點3D顯示器,包括:多視點3D顯示屏;3D處理裝置,被配置為獲取用戶的身份特徵,並在身份特徵滿足條件的情況下,觸發多視點3D顯示屏向用戶進行3D顯示。
在一些實施例中,多視點3D顯示屏包括多個複合像素,多個複合像素中的每個複合像素包括多個複合子像素,多個複合子像素中的每個複合子像素包括對應多視點3D顯示屏的多個視點的多個子像素;3D處理裝置被配置為根據用戶的眼部所在視點,基於3D信號渲染多視點3D顯示屏中的多個複合子像素中的與視點相對應的子像素。
在一些實施例中,3D處理裝置被配置為:獲取用戶的面部圖像特徵,在用戶的面部圖像特徵與已授權面部圖像特徵相匹配時,確定身份特徵滿足條件;或者獲取用戶的面部圖像特徵和瞳距特徵,在用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且用戶的瞳距特徵與已授權瞳距特徵相匹配時,確定身份特徵滿足條件;或者獲取用戶的面部圖像特徵,在用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且面部圖像特徵與已授權面部圖像特徵相匹配的用戶的數量滿足預設數值條件時,確定身份特徵滿足條件;或者獲取用戶的面部圖像特徵和瞳距特徵,在用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且用戶的瞳距特徵與已授權瞳距特徵相匹配,且面部圖像特徵與已授權面部圖像特徵相匹配以及瞳距特徵與已授權瞳距特徵相匹配的用戶的數量滿足預設數值條件時,確定身份特徵滿足條件。
在一些實施例中,3D處理裝置被配置為獲取播放的3D圖像,根據3D圖像獲取已授權面部圖像特徵,將用戶的面部圖像特徵與已授權面部圖像特徵進行比較,在比較結果為用戶的面部圖像特徵與已授權面部圖像特徵一致時確定用戶的面部圖像特徵與已授權面部圖像特徵相匹配。
在一些實施例中,3D處理裝置被配置為在身份特徵未滿足條件的情況下,根據用戶的眼部所在視點,控制多視點3D顯示屏停止顯示與眼部所在視點對應的視點圖像。
在一些實施例中,多視點3D顯示器還包括:圖像採集裝置,被配置為採集用戶的面部圖像;3D處理裝置被配置為基於面部圖像獲取用戶眼部所在視點,並基於視點觸發多視點3D顯示屏向用戶進行3D顯示。
在一些實施例中,3D處理裝置被配置為:在身份特徵滿足條件的情況下,獲取用戶的眼部在臉部中所處的位置,根據用戶的面部圖像位置和眼部在臉部中所處的位置,獲取用戶的眼部所在視點;或者在身份特徵滿足條件的情況下,獲取用戶的雙眼與視點對應關係,根據用戶的雙眼之一所處的視點和雙眼與視點對應關係,獲取用戶的雙眼中的另一眼所處的視點。
在一些實施例中,多視點3D顯示器還包括:眼部定位裝置,被配置為在身份特徵滿足條件的情況下,獲取用戶的眼部定位資料;3D處理裝置被配置為基於眼部定位資料獲取用戶的眼部所在視點。
在一些實施例中,提供了一種多視點3D顯示器,包括:處理器;和儲存有程式指令的記憶體;處理器被配置為在執行程式指令時,執行如上所述的方法。
本發明實施例提供的電腦可讀儲存介質,儲存有電腦可執行指令,上述電腦可執行指令設置為執行上述的顯示控制方法。
本發明實施例提供的電腦程式產品,包括儲存在電腦可讀儲存介質上的電腦程式,上述電腦程式包括程式指令,當該程式指令被電腦執行時,使上述電腦執行上述的顯示控制方法。
本發明中的多視點3D顯示控制技術,能夠進行關於3D顯示的用戶驗證,避免了3D顯示方式單一的問題,提高了3D顯示方式靈活性。
以上的總體描述和下文中的描述僅是示例性和解釋性的,不用於限制本發明。
為了能夠更加詳盡地瞭解本發明實施例的特點與技術內容,下面結合圖式對本發明實施例的實現進行詳細闡述,所附圖式僅供參考說明之用,並非用來限定本發明實施例。
在本發明的一些實施例中,如圖1A至圖1C所示,提供了一種多視點3D顯示屏100(例如:多視點裸眼3D顯示屏),包括顯示面板110和設置在顯示面板110上的光柵120,顯示面中板110上設有m×n個複合像素CP並因此限定出m×n的顯示解析度;複合像素CP包括多個複合子像素CSP,各複合子像素CSP由對應於i個視點的i個同色子像素P構成,i≥3。多視點3D顯示屏100能夠根據視點資訊渲染生成與視點資訊對應的圖像,渲染與視點資訊對應的複合像素CP中的多個子像素P,整體觀看效果上,顯示出與視點資訊對應的圖像。例如,用戶的左眼在視點3,右眼在視點6,對應的,多視點3D顯示屏100中的所有的複合像素CP中的對應視點3的子像素共同對應左眼圖像中的各個像素點進行渲染,對應視點6的子像素共同對應右眼圖像中的各個像素進行渲染,從而讓用戶觀看到3D的顯示效果。
本發明中的多視點3D顯示屏100中的光柵120將子像素P的光線投射到空間中的不同位置,眼部處於不同的空間位置能夠看到複合像素CP中不同的子像素P發出的光。
本發明的一些實施例中提供了一種多視點3D顯示屏的顯示控制方法,如圖2A所示,包括:
S10、獲取用戶的身份特徵。身份特徵包括可以表徵用戶唯一性的身體特徵,如面部特徵,指紋特徵,虹膜特徵,也包括人為設定的身份證號。
S20、在身份特徵滿足條件的情況下,向用戶進行3D顯示。確定身份特徵滿足預設條件,如身份特徵屬於預設的被授權用戶身份特徵集合,則控制多視點3D顯示屏進行3D顯示,具體地,根據用戶的眼部所在視點和接收到的3D視頻信號渲染多視點3D顯示屏的複合子像素中對視點資訊的子像素,即,根據用戶眼部所在視點資訊,基於3D信號動態渲染多視點3D顯示屏中的複合子像素中的子像素。
本發明的一些實施例中提供了一種多視點3D顯示控制方法,包括如下步驟:
根據用戶的面部圖像特徵,確定用戶滿足條件時,根據用戶的眼部所在視點資訊,控制3D顯示屏顯示與眼部所在視點資訊對應的視點圖像。
本發明實施例中的顯示控制方法,能夠利用圖像識別技術,通過識別用戶的面部特徵,確定用戶是否屬於授權用戶,從而,進行顯示控制,當確定為授權的用戶時,則獲取授權的用戶的眼部所在的視點位置資訊控制對應的視點的子像素P進行顯示,從而控制對應視點的圖像。例如,採集用戶的面部圖像特徵,將面部圖像特徵與儲存或者實時獲取到的授權用戶的面部圖像特徵進行匹配,當匹配通過時,確定用戶為授權的用戶,然後從面部圖像特徵中提取眼部所在位置,從而獲取眼部所在的視點資訊,從而控制多視點3D顯示屏100根據視點資訊進行顯示圖像。本發明的一些實施例中,可以通過從驗證的面部圖像特徵直接提取出眼部的空間位置,從而獲取到眼部所在的視點資訊。也可通過其他設備獲取到視點資訊,一般地,為了減少計算量,或者減少設備複雜度,可以直接採用攝像頭進行用戶的面部圖像採集,既可用於面部圖像特徵匹配,也可用於視點資訊的採集。在一些實施例中,還可初始時採用共用的方式進行初始視點資訊採集,後續採用視點定位設備進行視點定位。當然,在設備識別率達到要求的情況下,也可採用同一台或者同一套攝像頭設備進行視點初始識別和視點定位。
本發明實施例中的3D顯示屏為多視點3D顯示屏,可以為多個用戶提供3D顯示圖像,能夠滿足影院的觀看需求。
需要說明的是,上述的面部圖像特徵匹配的過程可以採用神經網絡模型的方式進行匹配,所用到的神經網絡模型除了可以輸出匹配結果還可輸出眼部所在的空間位置,這些可以通過模型訓練進行設置。
本發明實施例中的多視點3D顯示控制方法,可運用到公共影院,這時,不需要設置工作人員進行驗票,或者,本發明實施例中的多視點3D顯示屏可以設置在公眾場合,不需要進行監管,同樣可以實現被授權者才能進行觀看的目的。本發明能夠減少觀看影片中驗票、發放3D眼鏡、回收3D眼鏡的環節,解放了生產力。通過快速的臉部識別技術,能夠快速地進行驗票或者觀影驗證,增加了運行效率,改善了觀影的體驗,減少了驗票排隊的情形。
當然,本發明中的控制方法,也可運用到家庭影院。通過本發明中的技術,可以進行觀影的私密性設置,只能讓授權的用戶觀看到影片。
本發明實施例中的多視點3D顯示控制方法,還包括:確定用戶未滿足條件時,根據用戶的眼部所在視點資訊,控制3D顯示屏停止顯示與眼部所在視點資訊對應的視點圖像。通過實時的眼部所在視點資訊,控制對應的視點圖像停止顯示,保證了未授權的用戶不能觀看,可以避免未授權的用戶佔用視點的情況,由於授權用戶的眼部所在視點資訊大多是動態的,這時,需要動態的調整視點資訊,從而在動態的視點位置顯示圖像,及時地消除未授權用戶佔用的視點,能夠為授權的用戶提供更多的動態調整空間。
本發明實施例中的多視點3D顯示屏100所具有的視點常常也是有限的,在公共影院中,常常會設置在開放空間,例如,廣場,劇院門口等,用戶的數量常常是隨機地,在未管理狀態下,用戶的數量可能會超過多視點3D顯示屏100所具有的視點數,所以,一般一場影院會控制用戶的數量,如果先到的用戶未經驗證就能觀看,最終用戶的數量將超過視點數,使得後續到的授權用戶不能觀看,所以,及時地關閉未授權的用戶的視點圖像,解除視點佔用,使得真正授權的用戶能夠觀看,保證了觀影有序進行。
本發明實施例中的確定用戶是否滿足預設條件,可以直接通過臉部識別,也可根據其他條件共同設定,從而能夠滿足不同場景下的驗證,如圖2B所示,本發明實施例提供了一種多視點3D顯示控制方法,包括如下步驟:
S110、獲取用戶的面部圖像特徵,確定用戶的面部圖像特徵與已授權面部圖像特徵匹配時,則用戶滿足條件。通過臉部圖像特徵確定是否是已授權面部圖像特徵。
S120、確定用戶滿足條件時,根據用戶的眼部所在視點,控制多視點3D顯示屏顯示與眼部所在視點對應的視點圖像。即控制渲染複合像素中的對應視點的子像素點亮。
S130、確定用戶未滿足條件時,根據用戶的眼部所在視點,控制3D顯示屏停止顯示與眼部所在視點對應的視點圖像。
如圖2C所示,本發明實施例提供了一種多視點3D顯示控制方法,包括如下步驟:
S210、獲取用戶的面部圖像特徵,確定用戶的面部圖像特徵與已授權面部圖像特徵匹配時,且匹配的用戶數量滿足預設數值條件時,則用戶滿足條件。本實施例中,不僅考量的用戶是否符合授權的條件,還考量了需要當前授權的用戶能夠達到預設的數值時,進行播放,能夠保證播放效率,保證一次觀影的人數達標。
S220、確定用戶滿足條件時,根據用戶的眼部所在視點,控制多視點3D顯示屏顯示與眼部所在視點對應的視點圖像。
S230、確定用戶未滿足條件時,根據用戶的眼部所在視點,控制多視點3D顯示屏停止顯示與眼部所在視點對應的視點圖像。
如圖2D所示,本發明實施例提供了一種多視點3D顯示控制方法,包括如下步驟:
S310、獲取用戶的面部圖像特徵和瞳距特徵,確定用戶的面部圖像特徵與已授權面部圖像特徵匹配,且用戶的瞳距特徵與已授權瞳距特徵匹配時,則用戶滿足條件。本發明的實施例中,除了驗證面部圖像特徵,還可進一步驗證瞳距特徵,例如雙眼之間的間距,從而雙重保證匹配結果的精準性。
S320、確定用戶滿足條件時,根據用戶的眼部所在視點,控制多視點3D顯示屏顯示與眼部所在視點對應的視點圖像。
S330、確定用戶未滿足條件時,根據用戶的眼部所在視點,控制多視點3D顯示屏停止顯示與眼部所在視點對應的視點圖像。
如圖2E所示,本發明實施例提供了一種多視點3D顯示控制方法,包括如下步驟:
S410、獲取用戶的面部圖像特徵和瞳距特徵,確定用戶的面部圖像特徵與已授權面部圖像特徵匹配,用戶的瞳距特徵與已授權瞳距特徵匹配時,且匹配的用戶數量滿足預設數值條件時,則用戶滿足條件。通過三重匹配條件,保證觀影的效率。
S420、確定用戶滿足條件時,根據用戶的眼部所在視點,控制多視點3D顯示屏顯示與眼部所在視點對應的視點圖像。
S430、確定用戶未滿足條件時,根據用戶的眼部所在視點,控制多視點3D顯示屏停止顯示與眼部所在視點對應的視點圖像。
在上述涉及到需要確定授權的用戶數量是否滿足預設的條件的實施例中,還可設有分享觀影鏈接的步驟,授權的用戶在購票成功後,可以進行分享,使得更多的用戶參與到觀影的過程中,從而能使得滿足預設條件的等待時間更短。
需要說明的是,由於觀影者位置大多是動態變動的情形下,上述的面部識別過程,可以定時進行一次。但是眼部所在視點資訊需要實時的提取,才能保證觀看3D顯示的效果。
本發明實施例中的多視點3D顯示屏100還可設置有儲存空間位置與視點的關係,可以通過預先的測量獲取,也可通過初步計算後,採用實際校準之後獲取。
在本發明的一些實施例中,眼部所在視點資訊可以單獨採集,也可從面部圖像中實時提取出。即,本發明實施例中的多視點3D顯示控制方法還包括,實時採集用戶的面部圖像,從面部圖像中提取得到眼部所在視點資訊。通過神經網絡模型獲取到臉部圖像特徵,如獲取臉部矩形,從臉部矩形中提取雙眼的位置。
在本發明的一些實施例中,授權的用戶的臉部採集可以利用多視點3D顯示屏100進行採集,多視點3D顯示屏上可以設置有圖像採集裝置,當用戶在多視點3D顯示屏100選中待觀看的影視後,多視點3D顯示屏100根據選擇的影視視頻生成支付訂單,用戶可以通過第三方支付軟件掃碼支付訂單,也可將支付訂單同步到帳號對應的手機端,從手機端進行支付,支付成功後,多視點3D顯示屏100接受到訂單支付成功的消息後,跳轉到臉部採集界面,提示用戶進行臉部特徵採集,生成授權的面部圖特徵,這時多視點3D顯示屏100可以只記錄面部圖像特徵,也可記錄面部圖像特徵和從面部圖像特徵中提取到的雙眼特徵,例如記錄雙眼在臉部矩形中的位置,單眼在臉部矩形中的位置,單眼與單眼之間的相對位置。記錄的眼部相對臉部矩形的位置,在後續的視點定位過程中,能夠簡化視點定位的過程,或者能夠增加定位的精確度。介紹如下。
在本發明的一些實施例中,實時的眼部所在的視點資訊還可以利用預先儲存的眼部在臉部矩形中的位置和實時採集的臉部矩形位置來獲取到眼部所在的視點。確定用戶為授權用戶時,查詢獲取與用戶對應的眼部位於臉部位置資訊,根據用戶的面部圖像位置資訊和眼部位於臉部位置資訊獲取用戶的眼部所在視點資訊。圖像採集裝置採集到用戶的面部圖像後進行臉部驗證驗證,通過後,繼續採集視點資訊,從面部圖像中獲取到臉部矩形所在的空間位置,然後根據用戶對應的眼部位於臉部位置資訊,獲取到當前授權用戶的眼部所在空間位置,根據上述的空間位置與視點的對應關係獲取眼部所在的視點位置資訊,從而根據實時的視點位置資訊動態調整多視點3D顯示屏100中的複合像素CP中對應視點位置資訊的子像素點亮,實現根據實時的視點位置資訊動態顯示3D圖像。
在本發明的一些實施例中,為了克服視點採集過程中,只採集到單隻眼空間位置或者單隻眼的視點位,而暫時未能採集到另一隻眼的視點位置或者空間位置從而不能正常3D顯示的情況,本發明的一些實施例中,通過預先的儲存的單眼與單眼之間的相對位置,和識別到單眼空間位置或者視點位置,獲取另一隻眼的空間位置或者視點位置。確定用戶為授權用戶時,查詢獲取與用戶對應的左右眼與視點之間的關係資訊,或者左右眼之間的空間相對位置關係,根據用戶的左右眼之一所處的視點位置資訊和左右眼與視點之間的關係資訊或者左右眼之間的空間相對位置關係獲取用戶的左右眼中的另一隻眼所處的視點位置資訊。
上述的授權的用戶的面部圖像特徵,眼部與臉部之間的關係特徵、眼部之間的關係特徵,可以在多視點3D顯示屏100這一端進行採集獲取,也可在用戶的手機端採集獲取,也可在影院的統一採集端進行獲取,遠端獲取的,可以上傳到服務器,由服務器統一儲存,待多視點3D顯示屏100請求時,進行統一發送,也可直接將採集的資訊實時傳輸給多視點3D顯示屏100進行儲存。
在本發明的一些實施例中,確定用戶的面部圖像特徵與已授權面部圖像特徵匹配的步驟包括,獲取當前播放3D視頻的視頻資訊,根據視頻資訊獲取已授權面部圖像特徵,將用戶的面部圖像特徵與已授權面部圖像特徵進行匹配。通過當前播放的3D視頻的視頻名稱,或者視頻ID號,從本地端進行資訊索引獲取到已授權面部圖像特徵,然後進行匹配。
在本發明的一些實施例中,已授權面部圖像特徵是從服務器端獲取的,本發明實施例中的控制方法還包括,發送含有待播放視頻的視頻播放請求,以使服務器發送與待播放視頻資訊關聯的已授權面部圖像特徵;接收與待播放視頻資訊關聯的已授權面部圖像特徵。
在本發明的一些實施例中,通過一端完成視頻的選擇、支付、授權臉部特徵採集,本發明實施例還包括,接收3D視頻選擇指令生成視頻訂單,接收到視頻訂單支付成功的指令後,開啟攝像頭採集待用戶的圖像資訊,生成已授權面部圖像特徵。用戶通過多視點3D顯示屏100進行視頻的選擇、支付然後進行臉部圖像特徵採集。
在本發明的一些實施例中,通過兩端配合實現視頻的選擇、支付、授權臉部特徵採集,接收到視頻訂單支付成功的指令後,開啟攝像頭採集待用戶的圖像資訊,生成與3D視頻對應的已授權面部圖像特徵,視頻與視頻訂單對應。用戶手持的手機端或者多視點3D口100的控制裝置開啟攝像頭採集待用戶的圖像資訊,生成與3D視頻對應的已授權面部圖像特徵,然後進行儲存,在後續接收到開始播放的指令後進行臉部驗證認證。或者,授權臉部特徵採集在支付端進行採集,已授權面部圖像特徵由用戶在支付端支付訂單後,支付端進行採集獲取。支付端採集之後將授權的臉部圖像特徵發送給服務器或者直接發送給多視點3D顯示屏100。
本發明實施例中的面部圖像特徵匹配的過程可以在本地端進行,也可在服務器端進行,例如,確定用戶的面部圖像特徵與已授權面部圖像特徵匹配的步驟包括,發送當前播放的3D視頻的視頻資訊和用戶的面部圖像特徵到服務器,以使服務器根據當前播放的3D視頻的視頻資訊獲取到已授權面部圖像特徵,將用戶的面部圖像特徵與已授權面部圖像特徵進行匹配,並將匹配結果返回;接收匹配結果。多視點3D顯示屏100根據匹配的結果確定是否滿足條件。
在本發明的一些實施例中的,的控制方法,還包括,發送3D顯示屏的設備號給服務器,以使當服務器驗證設備號通過後,接收服務器發送的待播放視頻圖像資訊。對播放設備進行驗證,防止非法設備實現未授權播放。
本發明的一些實施例中,實時視點資訊的採集通過眼部定位技術進行採集,確定用戶滿足條件時,對用戶進行眼部定位獲取用戶的眼部所在視點資訊。
本發明實施例中的多視點3D顯示控制方法,能夠快速靈活地對用戶進行驗證,並對授權後的用戶進行眼部視點資訊採集,根據眼部視點資訊採集進行左右眼的圖像的播放控制。實現了3D影視播放無需監管人員進行監管,省去了現有的電影院中多個管理步驟,節省了人力,提高了運行效率。
本發明另一方面,如圖3所示,還提供了一種多視點3D顯示器500,包括具有顯示面板110和光柵120的多視點3D顯示屏100、圖像採集裝置510和3D處理裝置520,多視點3D顯示屏100包括m×n個複合像素形成m×n的顯示解析度,複合像素包括多個複合子像素,每個複合子像素包括對應i個視點的i個同色子像素,i大於等於3,多視點3D顯示屏100用於根據視點資訊渲染與視點資訊對應的複合像素中的子像素,圖像採集裝置510被配置為採集用戶的面部圖像特徵,3D處理裝置520被配置為根據用戶的面部圖像特徵,確定用戶滿足條件時,根據用戶的眼部所在視點資訊,控制3D顯示屏顯示與眼部所在視點資訊對應的視點圖像。多視點3D顯示器500能夠針對用戶進行驗證,驗證滿足後,進行視點資訊獲取,根據視點資訊進行3D圖像顯示。
3D處理裝置,被配置為獲取用戶的身份特徵;在身份特徵滿足條件的情況下,控制多視點3D顯示屏向用戶進行3D顯示。
在本發明的一些實施例中,3D處理裝置520被配置為:獲取用戶的面部圖像特徵,確定用戶的面部圖像特徵與已授權面部圖像特徵匹配時,則確定用戶滿足條件;或者,
獲取用戶的面部圖像特徵和瞳距特徵,確定用戶的面部圖像特徵與已授權面部圖像特徵匹配,且用戶的瞳距特徵與已授權瞳距特徵匹配時,則確定用戶滿足條件;或者,
獲取用戶的面部圖像特徵,確定用戶的面部圖像特徵與已授權面部圖像特徵匹配時,且匹配的用戶數量滿足預設數值條件時,則確定用戶滿足條件;或者,
獲取用戶的面部圖像特徵和瞳距特徵,確定用戶的面部圖像特徵與已授權面部圖像特徵匹配,用戶的瞳距特徵與已授權瞳距特徵匹配時,且匹配的用戶數量滿足預設數值條件時,則確定用戶滿足條件。
通過多種條件,實現多重校驗驗證,滿足了使用需求。
在本發明的一些實施例中,3D處理裝置520還被配置為,確定用戶未滿足條件時,根據用戶的眼部所在視點資訊,控制3D顯示屏停止顯示與眼部所在視點資訊對應的視點圖像。
在本發明的一些實施例中,圖像採集裝置510還被配置為實時採集用戶面部圖像,3D處理裝置還被配置為從面部圖像中提取得到眼部所在視點資訊。
在本發明的一些實施例中,多視點3D顯示器500還包括,眼部定位設備530,眼部定位設備530用於獲取用戶的眼部所在視點資訊。
在本發明的一些實施例中,多視點3D顯示器500還包括,圖像採集裝置還被配置為採集授權用戶的面部圖像特徵。
上述3D處理裝置520的執行步驟在多視點3D顯示控制方法中對應的步驟中已進行詳細敘述,在此不做過多贅述。
在本發明的一些實施例中,提供了一種多視點3D顯示器1000,也可運用到上述的3D顯示驗證控制過程中,其包括:多視點3D顯示屏100,包括m×n個複合像素CP並因此限定出m×n的顯示解析度;用於接收3D視頻信號的視頻幀的視頻信號介面140,其中,3D視頻信號的視頻幀包含具有m×n解析度的兩幅圖像或者包含具有2m×n或m×2n解析度的複合圖像;和至少一個3D處理裝置130。
在一些實施例中,每個複合像素CP包括多個複合子像素CSP,各複合子像素由對應於i個視點的i個同色子像素構成,其中i≥3。
在一些實施例中,至少一個3D處理裝置130配置為基於兩幅圖像之一渲染各複合子像素中至少一個子像素並基於兩幅圖像中另一幅渲染各複合子像素中至少另一個子像素。
在另外的一些實施例中,至少一個3D處理裝置130配置為基於複合圖像渲染各複合子像素中至少兩個子像素。
圖1A示出了本發明一個實施例提供的多視點3D顯示器1000的結構示意圖。參考圖1A,在本發明一個實施例中提供了一種多視點3D顯示器1000,其可包括多視點3D顯示屏100、至少一個3D處理裝置130和用於接收3D視頻信號的視頻幀的視頻信號介面140。
在圖1A所示的實施例中,多視點3D顯示屏100可包括m×n個複合像素並因此限定出m×n的顯示解析度。如圖1A所示,多視點3D顯示屏100包括m列n行個複合像素CP並因此限定出m×n的顯示解析度。
在一些實施例中,每個複合像素CP包括多個複合子像素,各複合子像素由對應於i個視點的i個同色子像素構成,i≥3。在圖1A所示的實施例中,i=6,但可以想到i為其他數值。在所示的實施例中,多視點3D顯示器可相應地具有i(i=6)個視點(V1-V6),但可以想到可以相應地具有更多或更少個視點。
結合參考圖1A和圖4A,在所示的實施例中,每個複合像素包括三個複合子像素,並且每個複合子像素由對應於6視點(i=6)的6個同色子像素構成。三個複合子像素分別對應於三種顏色,即紅(R)、綠(G)和藍(B)。也就是說,每個複合像素的三個複合子像素分別具有6個紅色、6個綠色或6個藍色的子像素。
在圖1A和圖4A所示的實施例中,複合像素400中的複合子像素410、420、430平行佈置。各複合子像素410、420、430包括呈單行形式的子像素411、421、431。但可以想到,複合像素中的複合子像素不同排布方式或複合子像素中的子像素的不同排布形式。
如圖4B所示,各複合子像素440、450、460包括呈單列形式的子像素441、451、461。
如圖4C所示,複合像素400中的三個複合子像素470、480、490例如呈“品”字狀佈置。在圖4C所示的實施例中,各複合子像素470、480、490中的子像素471、481、491可呈陣列形式(3×2)。
在一些實施例中,例如圖1A-1C所示,多視點3D顯示器1000可設置有單個3D處理裝置130。該單個3D處理裝置130同時處理對大尺寸3D顯示屏100的各複合像素的各複合子像素的渲染。
在另一些實施例中,例如圖6所示,多視點3D顯示器1000可設置有至少兩個3D處理裝置130,它們並行、串行或串並行結合地處理對大尺寸3D顯示屏100的各複合像素的各複合子像素的渲染。
本領域技術人員將明白,上述至少兩個3D處理裝置可以有其他的方式分配且並行處理大尺寸3D顯示屏100的多行多列複合像素或複合子像素,這落入本發明的範圍內。
在一些實施例中,至少一個3D處理裝置130還可以選擇性地包括緩存器131,以便緩存所接收到的視頻幀。
在一些實施例中,至少一個3D處理裝置130為FPGA或ASIC晶片或FPGA或ASIC晶片組。
繼續參考圖1A,多視點3D顯示器1000還可包括通過視頻信號介面140通訊連接至至少一個3D處理裝置130的處理器101。在本文所示的一些實施例中,處理器101被包括在電腦或智能終端、如移動終端中或作為其處理器單元。但是可以想到,在一些實施例中,處理器101可以設置在多視點3D顯示器的外部,例如該多視點3D顯示器可以為帶有3D處理裝置的多視點3D顯示器,例如非智能的3D電視或者非智能的影院顯示螢幕。
為簡單起見,下文中的多視點3D顯示器的示例性實施例內部包括處理器。進而,視頻信號介面140構造為連接處理器101和3D處理裝置130的內部介面。在本發明的一些實施例中,作為多視點3D顯示器1000的內部介面的視頻信號介面140可以為MIPI、mini-MIPI介面、LVDS介面、min-LVDS介面或Display Port介面。在一些實施例中,如圖1A所示,多視點3D顯示器1000的處理器101還可包括暫存器122。暫存器122可用與暫存指令、資料和地址。
在一些實施例中,多視點3D顯示器1000還可包括用於獲取實時眼部定位資料的眼部定位裝置或眼部定位資料介面,從而3D處理裝置130可以基於眼部定位資料渲染複合像素(複合子像素)中的相應子像素。例如圖1B所示的實施例中,多視點3D顯示器1000還包括通訊連接至3D處理裝置130的眼部定位裝置150,由此3D處理裝置130可以直接接收眼部定位資料。在圖1C所示的實施例中,眼部定位裝置(未示出)例如可以直接連接處理器101,而3D處理裝置130經由眼部定位資料介面151從處理器101獲得眼部定位資料。在另一些實施例中,眼部定位裝置可同時連接處理器和3D處理裝置,這一方面3D處理裝置130可以直接從眼部定位裝置獲取眼部定位資料,另一方面可以使得眼部定位裝置獲取的其他資訊可以被處理器處理。
在一些實施例中,多視點3D顯示器1000還可包括圖像採集裝置,用於採集用戶的面部圖像,使得3D處理裝置130可以將採集的面部圖像特徵與已授權面部圖像特徵進行匹配,確定是否滿足條件。
結合參考圖1A-1C和圖5A-5E,描述本發明一些實施例的多視點3D顯示器內的3D視頻信號傳輸和顯示。在所示的實施例中,該3D多視點顯示屏100可以限定出6個視點V1-V6,用戶的眼部在各視點(空間位置)可看到多視點3D顯示屏100的顯示面板中各複合像素的複合子像素中相應的子像素的顯示。用戶的雙眼在不同的視點看到的兩個不同畫面形成視差,在大腦中合成3D的畫面。
在本發明的一些實施例中,3D處理裝置130通過例如作為內部介面的視頻信號介面140從處理器101接收例如為解壓縮的3D視頻信號的視頻幀。各視頻幀可包含具有m×n解析度的兩幅圖像或者包含具有2m×n或m×2n解析度的複合圖像,或者由其構成。
在一些實施例中,兩幅圖像或複合圖像可以包括不同類型的圖像以及可以呈各種排布形式。
如圖5A所示,3D視頻信號的視頻幀包含並列格式的具有m×n解析度的兩幅圖像501、502或由其構成。在一些實施例中,兩幅圖像可以分別為左眼視差圖像和右眼視差圖像。在一些實施例中,兩幅圖像可以分別為渲染色彩圖像和景深圖像。
如圖5B所示,3D視頻信號的視頻幀包含上下格式的具有m×n解析度的兩幅圖像503、504或由其構成。在一些實施例中,兩幅圖像可以分別為左眼視差圖像和右眼視差圖像。在一些實施例中,兩幅圖像可以分別為渲染色彩圖像和景深圖像。
如圖5C所示,3D視頻信號的視頻幀包含左右交織格式的具有2m×n解析度的複合圖像505。在一些實施例中,複合圖像可以為左右交織的左眼和右眼視差複合圖像、左右交織的渲染色彩和景深複合圖像。
如圖5D所示,3D視頻信號的視頻幀包含上下交織格式的具有m×2n解析度的複合圖像506。在一些實施例中,複合圖像可以為上下交織的左眼和右眼視差複合圖像。在一些實施例中,複合圖像可以為上下交織的渲染色彩和景深的複合圖像。
如圖5E所示,3D視頻信號的視頻幀包含棋盤格式的具有2m×n解析度的複合圖像507。在一些實施例中,複合圖像可以為棋盤格式的左眼和右眼視差複合圖像。在一些實施例中,複合圖像可以為棋盤格式的渲染色彩圖像和景深圖像。
本領域技術人員將明白,圖式所示的實施例僅是示意性的,3D視頻信號的視頻幀所包含的兩幅圖像或複合圖像可以包括其他類型的圖像以及可以呈其他排布形式,這落入本發明的範圍內。
在一些實施例中,m×n的解析度可以為全高清(FHD)以上的解析度,包括但不限於,1920×1080、1920×1200、2048×1280、2560×1440、3840×2160等。
在一些實施例中,至少一個3D處理裝置130在接收到包括兩幅圖像的視頻幀後,基於兩幅圖像之一渲染各複合子像素中至少一個子像素並基於兩幅圖像中另一幅渲染各複合子像素中至少另一個子像素。類似地,在一些實施例中,至少一個3D處理裝置在接收到包括複合圖像的視頻幀後,基於複合圖像渲染各複合子像素中至少兩個子像素。例如,根據複合圖像中的第一圖像(部分)渲染至少一個子像素,根據第二圖像(部分)渲染至少另一個子像素。
在一些實施例中,這例如是基於眼部定位資料來動態渲染。
作為解釋而非限制地,由於在本發明實施例中的3D處理裝置130通過例如構造為內部介面的視頻信號介面140接收到的視頻幀資料包含的兩幅圖像,各圖像的解析度(或複合圖像解析度的一半)與按照視點劃分的複合像素(其包括按照視點劃分的複合子像素)相對應。一方面,由於視點資訊與傳輸過程無關,這能夠實現處理計算量小且解析度不受損失的3D顯示;另一方面,由於複合像素(複合子像素)對應於視點設置,顯示屏的渲染能夠以“點對點”的方式實現,大大降低了計算量。相比之下,常規的3D顯示器的圖像或視頻的傳輸和顯示仍以2D顯示面板為基礎,不僅存在解析度下降和渲染計算量劇增的問題,還可能存在多次格式調整和圖像或視頻顯示適配的問題。
在一些實施例中,處理器101的暫存器122可用於接收有關多視點3D顯示屏100的顯示要求的資訊,該資訊典型地為與i個視點無關地且與多視點3D顯示屏100的m×n解析度相關的資訊,以便處理器101向多視點3D顯示屏100發送符合其顯示要求的3D視頻信號的視頻幀。該資訊例如可以為用於初始建立視頻傳輸發送的資料包。
因此,在傳輸3D視頻信號的視頻幀時,處理器101無需考慮與多視點3D顯示屏110的i個視點相關的資訊(i≥3)。而是,處理器101憑藉暫存器122接收到的與大尺寸多視點3D顯示屏100的m×n解析度相關的資訊就能夠向多視點3D顯示屏100發送符合其要求的3D視頻信號的視頻幀。
在一些實施例中,多視點3D顯示器1000還可以包括編解碼器,配置為對壓縮的3D視頻信號解壓縮和編解碼並將解壓縮的3D視頻信號經視頻信號介面140發送至少一個3D處理裝置130。
在一些實施例中,多視點3D顯示器1000的處理器101從記憶體讀取或從多視點3D顯示器1000以外、例如通過外部介面接收3D視頻信號的視頻幀,然後經由視頻信號介面140將讀取到的或接收到的3D視頻信號的視頻幀傳輸到至少一個3D處理裝置130。
在一些實施例中,多視點3D顯示器1000還包括格式調整器(未示出),其例如集成在處理器101中,構造為編解碼器或者作為GPU的一部分,用於預處理3D視頻信號的視頻幀,以使其包含的兩幅圖像具有m×n的解析度或者使其包含的複合圖像具有2m×n或m×2n的解析度。
在另一方案中,還提供了一種3D顯示系統,包括處理器單元和上述的多視點3D顯示器,處理器單元與多視點3D顯示器通訊連接。
在一些實施例中,3D顯示系統構造為具有處理器單元的智能電視或者影院的智能影螢幕。
多視點3D顯示屏100用於顯示3D(3D)圖像或視頻等。多視點3D顯示屏100包括顯示面板。顯示面板可以採用液晶顯示屏(LCD),有機發光二極體(OLED),有源矩陣有機發光二極體或主動矩陣有機發光二極體(AMOLED),柔性發光二極體(FLED),Mini-LED,Micro-LED,Micro-OLED,量子點發光二極體(QLED)等。
在一些實施例中,眼部定位裝置150通訊連接至3D處理單元130,從而3D處理單元130可以基於眼部定位資料渲染複合像素(複合子像素)中的相應子像素。在一些實施例中,眼部定位裝置150還可連接處理器201,例如旁路連接處理器201。
在本發明的一些實施例中,如圖9所示,還提供了一種多視點3D顯示系統,包括上述的多視點3D顯示器500,還包括支付端200、服務器300,支付端200用於採集已授權面部圖像特徵,並將已授權面部圖像特徵發送給服務器300。支付端200接收視頻選擇,生成視頻訂單,根據視頻訂單生成支付頁面,用戶根據支付頁面進行支付,例如跳轉到第三方支付平臺進行支付,或者生成二維碼,讓另外一個設備進行掃碼支付等,支付之後,進行臉部採集,然後將視頻資訊(視頻ID、視頻名稱)、授權的用戶的面部圖像或者圖像特徵發送給服務器進行儲存,服務器根據接收到臉部特徵,可以從中提取出眼部與臉部矩形之間的位置關係,或者眼部之間的關係、或者眼部與視點的之間的關係。當多視點3D顯示器500接收到播放指令時,根據待播放的視頻資訊生成授權臉部圖像特徵的請求,發送給服務器300,服務器300,將與視頻資訊對應的授權臉部圖像特徵等資訊發送給多視點3D顯示器500,多視點3D顯示器500進行用戶臉部圖像採集,然後進行匹配,確定是否滿足條件,滿足條件時,根據視點資訊進行顯示與視點資訊對應的圖像,不滿足條件時,根據視點資訊控制與視點資訊對應的子像素停止顯示,或者不顯示。
在本發明的一些實施例中,服務器300還用於根據已授權面部圖像特徵,生成眼部在臉部所處的位置資訊,或者左右眼與視點之間的關係資訊。
上述支付端、服務器的執行步驟在上述的實施例中已進行介紹,可以相互參照。
圖7示出了可以應用本發明實施例的多視點3D顯示控制方法或多視點3D顯示控制裝置的實施例的示例性系統架構600。
如圖7所示,系統架構600可以包括終端設備601、602、603,網絡604和服務器605。網絡604用以在終端設備601、602、603和服務器605之間提供通信鏈路的介質。網絡604可以包括各種連接類型,例如有線、無線通信鏈路或者光纖電纜等等。
用戶可以使用終端設備601、602、603通過網絡604與服務器605交互,以接收或發送資料(例如視頻)等。終端設備601、602、603上可以安裝有各種通訊客戶端應用,例如視頻播放軟件、視頻處理類應用、網頁瀏覽器應用、購物類應用、搜索類應用、即時通信工具、郵箱客戶端、社交平臺軟件等。
終端設備601、602、603可以是硬件,也可以是軟件。當終端設備601、602、603為硬件時,可以是具有顯示螢幕並且支持資料傳輸的各種多視點3D顯示器,包括但不限於智能手機、平板電腦、膝上型便攜電腦和臺式電腦等等。當終端設備601、602、603為軟件時,可以安裝在上述所列舉的多視點3D顯示器中。其可以實現成多個軟件或軟件模組(例如用來提供分布式服務的軟件或軟件模組),也可以實現成單個軟件或軟件模組。在此不做限定。
服務器605可以是提供各種服務的服務器,例如對終端設備601、602、603上顯示的視頻提供支持的後臺服務器。後臺服務器可以對接收到的圖像處理請求等資料進行分析等處理,並將處理結果(例如對視頻進行分割後得到的視頻片段或其他資料)反饋給與其通信連接的多視點3D顯示器(例如終端設備)。
需要說明的是,本發明實施例所提供的多視點3D顯示控制方法可以由服務器605執行,相應地,多視點3D顯示控制裝置可以設置於服務器605中。此外,本發明實施例所提供的多視點3D顯示控制方法也可以由終端設備601、602、603執行,相應地,多視點3D顯示控制裝置也可以設置於終端設備601、602、603中。
需要說明的是,服務器可以是硬件,也可以是軟件。當服務器為硬件時,可以實現成多個服務器組成的分布式服務器集群,也可以實現成單個服務器。當服務器為軟件時,可以實現成多個軟件或軟件模組(例如用來提供分布式服務的軟件或軟件模組),也可以實現成單個軟件或軟件模組。在此不做限定。
應該理解,圖7中的終端設備、網絡和服務器的數目僅僅是示意性的。根據實現需要,可以具有任意數目的終端設備、網絡和服務器。當多視點3D顯示控制方法運行於其上的多視點3D顯示器不需要與其他多視點3D顯示器進行資料傳輸時,該系統架構可以僅包括多視點3D顯示控制方法運行於其上的多視點3D顯示器(例如終端設備601、602、603或服務器605)。
下面參考圖8,其示出了適於用來實現本發明實施例的3D處理裝置的電腦系統800的結構示意圖。圖8示出的3D處理裝置僅僅是一個示例,不應對本發明實施例的功能和使用範圍帶來任何限制。
如圖8所示,電腦系統800包括中央處理器(CPU)801,其可以根據儲存在唯讀記憶體(ROM)802中的程式或者從儲存部分808加載到隨機訪問記憶體(RAM)803中的程式而執行各種適當的動作和處理。在RAM 803中,還儲存有系統800操作所需的各種程式和資料。CPU 801、ROM 802以及RAM 803通過匯流排804彼此相連。輸入/輸出(I/O)介面805也連接至匯流排804。
以下部件連接至I/O介面805:包括鍵盤、鼠標等的輸入部分806;包括諸如陰極射線管(CRT)、液晶顯示器(LCD)等以及揚聲器等的輸出部分807;包括硬盤等的儲存部分808;以及包括諸如LAN卡、調制解調器等的網絡介面卡的通信部分809。通信部分809經由諸如因特網的網絡執行通信處理。驅動器810也根據需要連接至I/O介面805。可拆卸介質811,諸如磁盤、光盤、磁光盤、半導體記憶體等等,根據需要安裝在驅動器810上,以便於從其上讀出的電腦程式根據需要被安裝入儲存部分808。
特別地,根據本發明的實施例,上文參考流程圖描述的過程可以被實現為電腦軟件程式。例如,本發明的實施例包括一種電腦程式產品,其包括承載在電腦可讀介質上的電腦程式,該電腦程式包含用於執行流程圖所示的方法的程式代碼。在這樣的實施例中,該電腦程式可以通過通信部分809從網絡上被下載和安裝,和/或從可拆卸介質811被安裝。在該電腦程式被中央處理器(CPU)801執行時,執行本發明的方法中限定的上述功能。
需要說明的是,本發明的電腦可讀介質可以是電腦可讀信號介質或者電腦可讀儲存介質或者是上述兩者的任意組合。電腦可讀儲存介質例如可以是——但不限於——電、磁、光、電磁、紅外線、或半導體的系統、裝置或器件,或者任意以上的組合。電腦可讀儲存介質的例子可以包括但不限於:具有一個或多個導線的電連接、便攜式電腦磁盤、硬盤、隨機訪問記憶體(RAM)、唯讀記憶體(ROM)、可擦式可編程唯讀記憶體(EPROM或閃存)、光纖、便攜式緊湊磁盤唯讀記憶體(CD-ROM)、光記憶體件、磁記憶體件、或者上述的任意合適的組合。在本發明中,電腦可讀儲存介質可以是任何包含或儲存程式的有形介質,該程式可以被指令執行系統、裝置或者器件使用或者與其結合使用。而在本發明中,電腦可讀的信號介質可以包括在基帶中或者作為載波一部分傳播的資料信號,其中承載了電腦可讀的程式代碼。這種傳播的資料信號可以採用多種形式,包括但不限於電磁信號、光信號或上述的任意合適的組合。電腦可讀的信號介質還可以是電腦可讀儲存介質以外的任何電腦可讀介質,該電腦可讀介質可以發送、傳播或者傳輸用於由指令執行系統、裝置或者器件使用或者與其結合使用的程式。電腦可讀介質上包含的程式代碼可以用任何適當的介質傳輸,包括但不限於:無線、電線、光纜、RF等等,或者上述的任意合適的組合。
可以以一種或多種程式設計語言或其組合來編寫用於執行本發明的操作的電腦程式代碼,程式設計語言包括面向目標的程式設計語言—諸如Python、Java、Smalltalk、C++,還包括常規的過程式程式設計語言—諸如“C”語言或類似的程式設計語言。程式代碼可以完全地在用戶電腦上執行、部分地在用戶電腦上執行、作為一個獨立的軟件包執行、部分在用戶電腦上部分在遠程電腦上執行、或者完全在遠程電腦或服務器上執行。在涉及遠程電腦的情形中,遠程電腦可以通過任意種類的網絡——包括局域網(LAN)或廣域網(WAN)—連接到用戶電腦,或者,可以連接到外部電腦(例如利用因特網服務提供商來通過因特網連接)。
圖式中的流程圖和框圖,圖示了按照本發明各種實施例的系統、方法和電腦程式產品的可能實現的體系架構、功能和操作。在這點上,流程圖或框圖中的每個方框可以代表一個模組、程式段、或代碼的一部分,該模組、程式段、或代碼的一部分包含一個或多個用於實現規定的邏輯功能的可執行指令。也應當注意,在有些作為替換的實現中,方框中所標注的功能也可以以不同於圖式中所標注的順序發生。例如,兩個接連地表示的方框實際上可以基本並行地執行,它們有時也可以按相反的順序執行,這依所涉及的功能而定。也要注意的是,框圖和/或流程圖中的每個方框、以及框圖和/或流程圖中的方框的組合,可以用執行規定的功能或操作的專用的基於硬件的系統來實現,或者可以用專用硬件與電腦指令的組合來實現。
描述於本發明實施例中所涉及到的單元可以通過軟件的方式實現,也可以通過硬件的方式來實現。所描述的單元也可以設置在處理器中,例如,可以描述為:一種處理器包括獲取單元、分割單元、確定單元和選擇單元。其中,這些單元的名稱在某種情況下並不構成對該單元本身的限定,例如,獲取單元還可以被描述為“獲取待處理用戶圖像的單元”。
作為另一方面,本發明還提供了一種電腦可讀儲存介質,儲存有電腦可執行指令,上述電腦可執行指令設置為執行上述的顯示控制方法。
本發明實施例提供的電腦程式產品,包括儲存在電腦可讀儲存介質上的電腦程式,上述電腦程式包括程式指令,當該程式指令被電腦執行時,使上述電腦執行上述的顯示控制方法。
上述電腦可讀介質可以是上述實施例中描述的多視點3D顯示器中所包含的;也可以是單獨存在,而未裝配入該多視點3D顯示器中。上述電腦可讀介質承載有一個或者多個程式,當上述一個或者多個程式被該多視點3D顯示器執行時,使得該多視點3D顯示器:根據用戶的面部圖像特徵,確定用戶滿足條件時,根據用戶的眼部所在視點資訊,控制3D顯示屏顯示與眼部所在視點資訊對應的視點圖像。
本發明實施例的技術方案可以以軟件產品的形式體現出來,該電腦軟件產品儲存在一個儲存介質中,包括一個或多個指令用以使得一台電腦設備(可以是個人電腦,服務器,或者網絡設備等)執行本發明實施例的方法的全部或部分步驟。而前述的儲存介質可以是非暫態儲存介質,包括:U盤、移動硬盤、唯讀記憶體、隨機存取記憶體、磁碟或者光盤等多種可以儲存程式代碼的介質,也可以是暫態儲存介質。
上述實施例闡明的設備、裝置、模組或單元,可以由各種可能的實體來實現。一種典型的實現實體為電腦或其處理器或其他部件。電腦例如可以為個人電腦、膝上型電腦、車載人機交互設備、蜂窩電話、相機電話、智能電話、個人數字助理、媒體播放器、導航設備、電子郵件設備、遊戲控制台、平板電腦、可穿戴設備、智能電視、物聯網系統、智能家居、工業電腦、單片機系統或者這些設備中的組合。在一個典型的配置中,電腦可包括一個或多個處理器(CPU)、輸入/輸出介面、網絡介面和內存。內存可能包括電腦可讀介質中的非永久性記憶體,隨機存取記憶體(RAM)和/或非易失性內存等形式,如唯讀記憶體(ROM)或閃存(flash RAM)。
在本發明的實施例的方法、程式、設備、裝置等,可以在單個或多個連網的電腦中執行或實現,也可以在分布式計算環境中實踐。在本說明書實施例中,在這些分布式計算環境中,由通過通信網絡而被連接的遠程處理設備來執行任務。
本領域技術人員應明白,本說明書的實施例可提供為方法、設備或電腦程式產品。因此,本說明書實施例可採用完全硬件實施例、完全軟件實施例或結合軟件和硬件方面的實施例的形式。
本領域技術人員可想到,上述實施例闡明的功能模組/單元或控制器以及相關方法步驟的實現,可以用軟件、硬件和軟/硬件結合的方式實現。例如,可以以純電腦可讀程式代碼方式實現,也可以部分或全部通過將方法步驟進行邏輯編程來使得控制器以硬件來實現相同功能,包括但不限於邏輯門、開關、專用集成電路、可編程邏輯控制器(如FPGA)和嵌入微控制器。
在本發明的一些實施例中,以功能模組/單元的形式來描述裝置的部件。可以想到,多個功能模組/單元一個或多個“組合”功能模組/單元和/或一個或多個軟件和/或硬件中實現。也可以想到,單個功能模組/單元由多個子功能模組或子單元的組合和/或多個軟件和/或硬件實現。功能模組/單元的劃分,可以僅為一種邏輯功能劃分,在一些實現方式中,多個模組/單元可以結合或者可以集成到另一個系統。此外,本文的模組、單元、裝置、系統及其部件的連接包括直接或間接的連接,涵蓋可行的電的、機械的、通信的連接,包括各種介面間的有線或無線連接,包括但不限於HDMI、雷電、USB、WiFi、蜂窩網絡。
在本發明的實施例中,方法、程式的技術特徵、流程圖和/或方框圖可以應用到相應的裝置、設備、系統及其模組、單元、部件中。反過來,裝置、設備、系統及其模組、單元、部件的各實施例和特徵可以應用至根據本發明實施例的方法、程式中。例如,電腦程式指令可裝載到通用電腦、專用電腦、嵌入式處理機或其他可編程資料處理設備的處理器以產生一個機器,其具有實現在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中相應的功能或特徵。
根據本發明實施例的方法、程式可以以電腦程式指令或程式的方式儲存在能引導電腦或其他可編程資料處理設備以特定方式工作的電腦可讀的記憶體或介質中。本發明實施例也涉及儲存有可實施本發明實施例的方法、程式、指令的可讀記憶體或介質。
儲存介質包括永久性和非永久性、可移動和非可移動的可以由任何方法或技術來實現資訊儲存的物品。資訊可以是電腦可讀指令、資料結構、程式的模組或其他資料。儲存介質的例子包括,但不限於相變內存(PRAM)、靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)、其他類型的隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電子抹除式可複寫唯讀記憶體(EEPROM)、快閃記憶體或其他內存技術、唯讀光盤唯讀記憶體(CD-ROM)、數字多功能光盤(DVD)或其他光學儲存、磁盒式磁帶,磁帶磁盤儲存或其他磁性儲存設備或任何其他非傳輸介質,可用於儲存可以被計算設備訪問的資訊。
除非明確指出,根據本發明實施例記載的方法、程式的動作或步驟並不必須按照特定的順序來執行並且仍然可以實現期望的結果。在某些實施方式中,多任務處理和並行處理也是可以的或者可能是有利的。
在本文中,針對本發明的多個實施例進行了描述,但為簡明起見,各實施例的描述並不是詳盡的,各個實施例之間相同相似的特徵或部分可能會被省略。在本文中,“一個實施例”、“一些實施例”、“示例”、或“一些示例”意指適用於根據本發明的至少一個實施例或示例中,而非所有實施例。且上述術語並不必然意味著指代相同的實施例或示例。而且,各實施例的特徵、結構、材料或者特點可以在任一個或多個實施例或示例中以合適的方式結合。此外,在不相互矛盾的情況下,本領域的技術人員可以將本說明書中描述的不同實施例或示例以及不同實施例或示例的特徵進行結合和組合。
已參考上述實施例示出並描述了本發明的示例性系統及方法,其僅為實施本系統及方法的最佳模式的示例。本領域的技術人員可以理解的是可以在實施本系統及/或方法時對這裡描述的系統及方法的實施例做各種改變而不脫離界定在所附申請專利範圍中的本發明的精神及範圍。所附申請專利範圍意在界定本系統及方法的範圍,故落入這些申請專利範圍中及與其等同的系統及方法可被涵蓋。對本系統及方法的以上描述應被理解為包括這裡描述的全部的新的及非顯而易見的元素的結合,而本發明或後續申請中可存在涉及任何新的及非顯而易見的元素的結合的申請專利範圍。此外,上述實施例是示例性的,對於在本發明或後續申請中可以要求保護的全部可能組合中,沒有一個單一特徵或元素是必不可少的。
100:多視點3D顯示屏
101:處理器
110:顯示面板
120:光柵
122:暫存器
131:緩存器
130:3D處理裝置
140:視頻信號介面
150:眼部定位裝置
151:眼部定位資料介面
200:支付端
300:服務器
400:複合像素
410,420,430:複合子像素
441,451,461:子像素
470,480,490:複合子像素
471,481,491:子像素
500:多視點3D顯示器
501,502:視頻幀包含的兩幅圖像
503,504:視頻幀包含的兩幅圖像
505:視頻幀包含的複合圖像
506:視頻幀包含的複合圖像
507:視頻幀包含的複合圖像
510:圖像採集裝置
520:3D處理裝置
530:眼部定位設備
600:示例性系統架構
601,602,603:終端設備
605:服務器
800:3D處理裝置的電腦系統
801:中央處理器
802:唯讀記憶體
803:隨機訪問記憶體
804:匯流排
805:I/O介面
806:輸入部分
807:輸出部分
808:儲存部分
809:通信部分
810:驅動器
811:可拆卸介質
1000:多視點3D顯示器
一個或多個實施例通過與之對應的圖式進行示例性說明,這些示例性說明和圖式並不構成對實施例的限定,圖式中具有相同參考數字標號的元件示為類似的元件,圖式不構成比例限制,並且其中:
圖1A至圖1C是根據本發明實施例的多視點3D顯示器的結構示意圖;
圖2A至圖2E是根據本發明實施例的多視點3D顯示控制方法的方法流程示意圖;
圖3是根據本發明實施例的多視點3D顯示器的結構示意圖;
圖4A至圖4C是根據本發明實施例的複合像素的示意圖;
圖5A至圖5E是根據本發明實施例的3D視頻信號的視頻幀所包含圖像的格式及內容的示意圖;
圖6是本發明實施例提供的設置至少兩個3D處理裝置的示意圖;
圖7是根據本發明實施例中的系統架構示意圖;
圖8是根據本發明實施例的電腦結構的結構示意圖;
圖9是根據本發明實施例的多視點3D顯示系統中的單元交互過程示意圖。
Claims (17)
- 一種多視點3D顯示屏的顯示控制方法,包括:獲取用戶的身份特徵;在所述身份特徵滿足條件的情況下,向所述用戶進行3D顯示;其中,所述多視點3D顯示屏包括多個複合像素,所述多個複合像素中的每個複合像素包括多個複合子像素,所述多個複合子像素中的每個複合子像素包括對應所述多視點3D顯示屏的多個視點的多個子像素;其中,向所述用戶進行3D顯示包括:根據所述用戶的眼部所在視點,基於3D信號渲染所述多視點3D顯示屏中的所述多個複合子像素中的與所述視點相對應的子像素。
- 如請求項1所述之多視點3D顯示屏的顯示控制方法,其中,所述身份特徵滿足條件的情況包括:獲取所述用戶的面部圖像特徵,在所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配時,確定所述身份特徵滿足條件;或者獲取所述用戶的面部圖像特徵和瞳距特徵,在所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且所述用戶的瞳距特徵與已授權瞳距特徵相匹配時,確定所述身份特徵滿足條件;或者獲取所述用戶的面部圖像特徵,在所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且面部圖像特徵與已授權面部圖像特徵相匹配的所述用戶的數量滿足預設數值條件時,確定所述身份特徵滿足條件;或者獲取所述用戶的面部圖像特徵和瞳距特徵,在所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且所述用戶的瞳距特徵與已授權瞳距特徵相匹配,且面部圖像特徵與已授權面部圖像特徵相匹配以及瞳距特徵與已授權瞳距特徵相匹配的所述用戶的數量滿足預設數值條件時,確定所述身份特徵滿足條件。
- 如請求項2所述之多視點3D顯示屏的顯示控制方法,其中,所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配包括: 獲取播放的3D圖像;根據所述3D圖像獲取所述已授權面部圖像特徵;將所述用戶的面部圖像特徵與所述已授權面部圖像特徵進行比較;在比較結果為所述用戶的面部圖像特徵與所述已授權面部圖像特徵一致時,確定所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配。
- 如請求項1至3中任一項所述之多視點3D顯示屏的顯示控制方法,還包括:在所述身份特徵未滿足條件的情況下,停止向所述用戶進行3D顯示。
- 如請求項1至3中任一項所述之多視點3D顯示屏的顯示控制方法,還包括:採集所述用戶的面部圖像;基於所述面部圖像獲取所述用戶眼部所在視點;基於所述視點進行3D顯示。
- 如請求項1至3中任一項所述之多視點3D顯示屏的顯示控制方法,還包括:在所述身份特徵滿足條件的情況下,獲取所述用戶的眼部在臉部中所處的位置,根據所述用戶的面部圖像位置和眼部在臉部中所處的位置,獲取所述用戶的眼部所在視點;或者在所述身份特徵滿足條件的情況下,獲取所述用戶的雙眼與視點對應關係,根據所述用戶的雙眼之一所處的視點和所述雙眼與視點對應關係,獲取所述用戶的雙眼中的另一眼所處的視點。
- 如請求項1至3中任一項所述之多視點3D顯示屏的顯示控制方法,還包括:在所述身份特徵滿足條件的情況下,獲取所述用戶的眼部定位資料;基於所述眼部定位資料獲取所述用戶的眼部所在視點。
- 一種多視點3D顯示器,包括:多視點3D顯示屏; 3D處理裝置,被配置為獲取用戶的身份特徵,並在所述身份特徵滿足條件的情況下,觸發所述多視點3D顯示屏向所述用戶進行3D顯示;其中,所述多視點3D顯示屏包括多個複合像素,所述多個複合像素中的每個複合像素包括多個複合子像素,所述多個複合子像素中的每個複合子像素包括對應所述多視點3D顯示屏的多個視點的多個子像素;其中,所述3D處理裝置被配置為根據所述用戶的眼部所在視點,基於3D信號渲染所述多視點3D顯示屏中的所述多個複合子像素中的與所述視點相對應的子像素。
- 如請求項8所述之多視點3D顯示器,其中,所述3D處理裝置被配置為:獲取所述用戶的面部圖像特徵,在所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配時,確定所述身份特徵滿足條件;或者獲取所述用戶的面部圖像特徵和瞳距特徵,在所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且所述用戶的瞳距特徵與已授權瞳距特徵相匹配時,確定所述身份特徵滿足條件;或者獲取所述用戶的面部圖像特徵,在所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且面部圖像特徵與已授權面部圖像特徵相匹配的所述用戶的數量滿足預設數值條件時,確定所述身份特徵滿足條件;或者獲取所述用戶的面部圖像特徵和瞳距特徵,在所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配,且所述用戶的瞳距特徵與已授權瞳距特徵相匹配,且面部圖像特徵與已授權面部圖像特徵相匹配以及瞳距特徵與已授權瞳距特徵相匹配的所述用戶的數量滿足預設數值條件時,確定所述身份特徵滿足條件。
- 如請求項9所述之多視點3D顯示器,其中,所述3D處理裝置被配置為獲取播放的3D圖像,根據所述3D圖像獲取所述已授權面部圖像特徵,將所述用戶的面部圖像特徵與所述已授權面部圖像特徵進行比較,在比較 結果為所述用戶的面部圖像特徵與所述已授權面部圖像特徵一致時確定所述用戶的面部圖像特徵與已授權面部圖像特徵相匹配。
- 如請求項8至10中任一項所述之多視點3D顯示器,其中,所述3D處理裝置被配置為在所述身份特徵未滿足條件的情況下,根據所述用戶的眼部所在視點,控制所述多視點3D顯示屏停止顯示與所述眼部所在視點對應的視點圖像。
- 如請求項8至10中任一項所述之多視點3D顯示器,還包括:圖像採集裝置,被配置為採集所述用戶的面部圖像;所述3D處理裝置被配置為基於所述面部圖像獲取所述用戶眼部所在視點,並基於所述視點觸發所述多視點3D顯示屏向所述用戶進行3D顯示。
- 如請求項8至10中任一項所述之多視點3D顯示器,其中,所述3D處理裝置被配置為:在所述身份特徵滿足條件的情況下,獲取所述用戶的眼部在臉部中所處的位置,根據所述用戶的面部圖像位置和眼部在臉部中所處的位置,獲取所述用戶的眼部所在視點;或者在所述身份特徵滿足條件的情況下,獲取所述用戶的雙眼與視點對應關係,根據所述用戶的雙眼之一所處的視點和所述雙眼與視點對應關係,獲取所述用戶的雙眼中的另一眼所處的視點。
- 如請求項8至10中任一項所述之多視點3D顯示器,還包括:一眼部定位裝置,被配置為在所述身份特徵滿足條件的情況下,獲取所述用戶的眼部定位資料;所述3D處理裝置被配置為基於所述眼部定位資料獲取所述用戶的眼部所在視點。
- 一種多視點3D顯示器,包括:一處理器;和一儲存有程式指令的記憶體; 所述處理器被配置為在執行所述程式指令時,執行如請求項1至7中任一項所述之多視點3D顯示屏的顯示控制方法。
- 一種電腦可讀儲存介質,儲存有電腦可執行指令,所述電腦可執行指令設置為執行如請求項1至7中任一項所述之多視點3D顯示屏的顯示控制方法。
- 一種電腦程式產品,包括儲存在電腦可讀儲存介質上的電腦程式,所述電腦程式包括程式指令,當該程式指令被電腦執行時,使所述電腦執行如請求項1至7中任一項所述之多視點3D顯示屏的顯示控制方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911231147.0 | 2019-12-05 | ||
CN201911231147.0A CN112929635A (zh) | 2019-12-05 | 2019-12-05 | 裸眼3d显示屏的显示控制方法、多视点裸眼3d显示器 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202123039A TW202123039A (zh) | 2021-06-16 |
TWI785430B true TWI785430B (zh) | 2022-12-01 |
Family
ID=76160803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109142888A TWI785430B (zh) | 2019-12-05 | 2020-12-04 | 3d顯示屏的顯示控制方法及多視點3d顯示器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230042297A1 (zh) |
EP (1) | EP4068051A4 (zh) |
CN (1) | CN112929635A (zh) |
TW (1) | TWI785430B (zh) |
WO (1) | WO2021110039A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114356088B (zh) * | 2021-12-30 | 2024-03-01 | 纵深视觉科技(南京)有限责任公司 | 一种观看者跟踪方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102378024A (zh) * | 2010-08-11 | 2012-03-14 | 索尼公司 | 图像处理器、立体显示器和显示系统、检测和制造方法 |
US20130154907A1 (en) * | 2011-12-19 | 2013-06-20 | Grapac Japan Co., Inc. | Image display device and image display method |
CN104536578A (zh) * | 2015-01-13 | 2015-04-22 | 京东方科技集团股份有限公司 | 裸眼3d显示装置的控制方法及装置、裸眼3d显示装置 |
US20150319427A1 (en) * | 2013-02-20 | 2015-11-05 | Bow Technology Group Co., Ltd. | Three-dimensional display control method and 3d display control device |
CN108388339A (zh) * | 2018-01-31 | 2018-08-10 | 维沃移动通信有限公司 | 显示方法、装置及移动终端 |
CN108845426A (zh) * | 2018-06-11 | 2018-11-20 | 深圳奇屏科技有限公司 | 一种裸眼3d-led大屏幕的技术实现方案 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012010085A (ja) * | 2010-06-24 | 2012-01-12 | Sony Corp | 立体表示装置及び立体表示装置の制御方法 |
US9268994B2 (en) * | 2013-03-15 | 2016-02-23 | Sri International | 3D visual proxemics: recognizing human interactions in 3D from a single image |
CN103414912B (zh) * | 2013-07-31 | 2016-03-02 | 京东方科技集团股份有限公司 | 一种评价裸眼立体显示串扰的方法及装置 |
CN104597610B (zh) * | 2015-02-10 | 2016-12-07 | 京东方科技集团股份有限公司 | 一种裸眼3d的显示处理方法、装置及显示设备 |
CN106709303B (zh) * | 2016-11-18 | 2020-02-07 | 深圳超多维科技有限公司 | 一种显示方法、装置及智能终端 |
CN106599656A (zh) * | 2016-11-28 | 2017-04-26 | 深圳超多维科技有限公司 | 显示方法、装置及电子设备 |
CN107396087B (zh) * | 2017-07-31 | 2019-03-12 | 京东方科技集团股份有限公司 | 裸眼三维显示装置及其控制方法 |
CN110095871B (zh) * | 2018-01-30 | 2020-12-08 | 京东方科技集团股份有限公司 | 光栅驱动电路、驱动方法以及裸眼3d显示器 |
CN110072099A (zh) * | 2019-03-21 | 2019-07-30 | 朱晨乐 | 一种裸眼3d视频像素排列结构及排列方法 |
CN110287776B (zh) * | 2019-05-15 | 2020-06-26 | 北京邮电大学 | 一种人脸识别的方法、装置以及计算机可读存储介质 |
-
2019
- 2019-12-05 CN CN201911231147.0A patent/CN112929635A/zh active Pending
-
2020
- 2020-12-02 EP EP20897144.0A patent/EP4068051A4/en active Pending
- 2020-12-02 US US17/781,385 patent/US20230042297A1/en not_active Abandoned
- 2020-12-02 WO PCT/CN2020/133333 patent/WO2021110039A1/zh unknown
- 2020-12-04 TW TW109142888A patent/TWI785430B/zh active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102378024A (zh) * | 2010-08-11 | 2012-03-14 | 索尼公司 | 图像处理器、立体显示器和显示系统、检测和制造方法 |
US20130154907A1 (en) * | 2011-12-19 | 2013-06-20 | Grapac Japan Co., Inc. | Image display device and image display method |
US20150319427A1 (en) * | 2013-02-20 | 2015-11-05 | Bow Technology Group Co., Ltd. | Three-dimensional display control method and 3d display control device |
CN104536578A (zh) * | 2015-01-13 | 2015-04-22 | 京东方科技集团股份有限公司 | 裸眼3d显示装置的控制方法及装置、裸眼3d显示装置 |
CN108388339A (zh) * | 2018-01-31 | 2018-08-10 | 维沃移动通信有限公司 | 显示方法、装置及移动终端 |
CN108845426A (zh) * | 2018-06-11 | 2018-11-20 | 深圳奇屏科技有限公司 | 一种裸眼3d-led大屏幕的技术实现方案 |
Also Published As
Publication number | Publication date |
---|---|
WO2021110039A1 (zh) | 2021-06-10 |
US20230042297A1 (en) | 2023-02-09 |
EP4068051A4 (en) | 2023-12-27 |
CN112929635A (zh) | 2021-06-08 |
EP4068051A1 (en) | 2022-10-05 |
TW202123039A (zh) | 2021-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10726876B2 (en) | Systems and methods for video replaying | |
US8911291B2 (en) | Display system and display method for video wall | |
US8988513B2 (en) | Method and system for time-multiplexed shared display | |
US8723920B1 (en) | Encoding process for multidimensional display | |
CN109640180B (zh) | 视频3d显示的方法、装置、设备、终端、服务器及存储介质 | |
KR102204212B1 (ko) | 실감형 콘텐츠 제공 장치 및 방법 | |
US11589027B2 (en) | Methods, systems, and media for generating and rendering immersive video content | |
US11482256B2 (en) | Systems and methods for video replaying | |
WO2019128138A1 (en) | Three-dimensional live streaming systems and methods | |
US9830739B2 (en) | Automultiscopic display with viewpoint tracking and scalability for multiple views | |
TWI785430B (zh) | 3d顯示屏的顯示控制方法及多視點3d顯示器 | |
CN112752085A (zh) | 基于人眼跟踪的裸眼3d视频播放系统及方法 | |
WO2016033925A1 (zh) | 显示方法及显示装置 | |
US20220172440A1 (en) | Extended field of view generation for split-rendering for virtual reality streaming | |
US20180270467A1 (en) | Display System and Method for Display Control of a Video Based on Different View Positions | |
US20130021324A1 (en) | Method for improving three-dimensional display quality | |
US20190052868A1 (en) | Wide viewing angle video processing system, wide viewing angle video transmitting and reproducing method, and computer program therefor | |
WO2024093893A1 (zh) | 空间现实显示方法、空间现实显示系统以及非易失性计算机可读存储介质 | |
US11863902B2 (en) | Techniques for enabling high fidelity magnification of video | |
US20240071280A1 (en) | Display Method of Display Panel and Display Control Apparatus Thereof, and Display Apparatus | |
US20200396439A1 (en) | Asymmetric arrangement of left and right displays to improve image quality for a stereoscopic head-mounted display (hmd) | |
WO2022246791A1 (zh) | 多视点图像处理系统及其方法 | |
US20220159230A1 (en) | Image Processing Method, Image Display Method and Image Display System | |
CN114500975A (zh) | 3d视频处理方法、装置、3d眼镜和3d视频显示系统 | |
CN117692622A (zh) | 具有内置电子钱包的非同质化代币立体显示装置及方法 |