TW202312107A - 對弈模型的構建方法和裝置 - Google Patents
對弈模型的構建方法和裝置 Download PDFInfo
- Publication number
- TW202312107A TW202312107A TW110143289A TW110143289A TW202312107A TW 202312107 A TW202312107 A TW 202312107A TW 110143289 A TW110143289 A TW 110143289A TW 110143289 A TW110143289 A TW 110143289A TW 202312107 A TW202312107 A TW 202312107A
- Authority
- TW
- Taiwan
- Prior art keywords
- facial
- information
- chess
- player
- model
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
- A63F13/655—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公開提供了一種對弈模型的構建方法和裝置。本公開通過每個棋手的視頻圖像獲得棋手面部區域的表情表徵點和面部結構表徵點,基於面部結構表徵點生成旋轉資訊,然後通過表情表徵點和旋轉資訊生成棋手的目標面部模型,進而生成目標棋手模型和目標棋局模型,再生成對弈模型。提高了資料處理的通用性和效率,實現了模擬對弈的立體效果,也提高了觀棋者身臨其境的用戶體驗。
Description
本公開涉及電腦視覺領域,具體而言,涉及一種對弈模型的構建方法和裝置。
隨著移動互聯網技術的發展,使素不相識的風格多樣的棋手能夠根據需要在廣闊的互聯網上迅速成局。解決了生活中,各種因素的羈絆,提高了棋局的成局效率。同時,也為觀棋者提供了豐富多彩的觀棋體驗。
但是,當前線上棋局往往是將棋手和棋局割裂開來,僅僅向棋手和觀棋者提供棋盤盤面的平面效果,偶爾提供棋手的表情和神態畫面,容易使人陷入枯燥乏味的境地,缺乏現場觀戰的真實感受。
因此,本公開提供一種對弈模型的構建方法,以解決上述技術問題之一。
本公開的目的在於提供一種對弈模型的構建方法、裝置、電腦可讀取記錄媒體和電子設備,能夠解決上述提到的至少一個技術問題。具體方案如下:
根據本公開的具體實施方式,第一方面,本公開提供一種對弈模型的構建方法,包括:
獲取同一時間點每個棋手的視頻圖像以及在所述時間點棋局中棋子與棋盤的分佈關係資訊;
確定所述視頻圖像中第一表情表徵點的二維位置資訊和所述第一表情表徵點中面部結構表徵點的標記資訊,所述第一表情表徵點標記在所述視頻圖像中棋手的面部區域;
基於每個棋手的所有面部結構表徵點的二維位置資訊和標記資訊確定對應棋手在指定方向上的旋轉資訊;
根據每個棋手的第一表情表徵點的二維位置資訊以及旋轉資訊重構對應棋手的三維的基準面部模型,生成對應棋手的三維的目標面部模型;
基於每個棋手的目標面部模型和三維的基準身體姿態模型重構對應棋手的三維的目標棋手模型;
根據所述分佈關係資訊和三維的基準棋具模型重構三維的目標棋局模型;
根據所有目標棋手模型、所述目標棋局模型和模擬現實對弈場景的基準位置關係重構三維的目標對弈模型。
根據本公開的具體實施方式,第二方面,本公開提供一種對弈模型的構建裝置,包括:
資訊獲取單元,用於獲取同一時間點每個棋手的視頻圖像以及在所述時間點棋局中棋子與棋盤的分佈關係資訊;
資訊確定單元,用於確定所述視頻圖像中第一表情表徵點的二維位置資訊和所述第一表情表徵點中面部結構表徵點的標記資訊,所述第一表情表徵點標記在所述視頻圖像中棋手的面部區域;
旋轉確定單元,用於基於每個棋手的所有面部結構表徵點的二維位置資訊和標記資訊確定對應棋手在指定方向上的旋轉資訊;
面部重構單元,用於根據每個棋手的第一表情表徵點的二維位置資訊以及旋轉資訊重構對應棋手的三維的基準面部模型,生成對應棋手的三維的目標面部模型;
棋手重構單元,用於基於每個棋手的目標面部模型和三維的基準身體姿態模型重構對應棋手的三維的目標棋手模型;
棋局重構單元,用於根據所述分佈關係資訊和三維的基準棋具模型重構三維的目標棋局模型;
對弈重構單元,用於根據所有目標棋手模型、所述目標棋局模型和模擬現實對弈場景的基準位置關係重構三維的目標對弈模型。
根據本公開的具體實施方式,協力廠商面,本公開提供一種電腦可讀取記錄媒體,其上儲存有電腦程式,所述程式被處理器執行時實現如上任一項所述對弈模型的構建方法。
根據本公開的具體實施方式,第四方面,本公開提供一種電子設備,包括:一個或多個處理器;儲存裝置,用於儲存一個或多個程式,當所述一個或多個程式被所述一個或多個處理器執行時,使得所述一個或多個處理器實現如上任一項所述對弈模型的構建方法。
本公開實施例的上述方案與現有技術相比,至少具有以下有益效果:
本公開提供了一種對弈模型的構建方法和裝置。本公開通過每個棋手的視頻圖像獲得棋手面部區域的表情表徵點和面部結構表徵點,基於面部結構表徵點生成旋轉資訊,然後通過表情表徵點和旋轉資訊生成棋手的目標面部模型,進而生成目標棋手模型和目標對弈模型,再生成對弈模型。提高了資料處理的通用性和效率,實現了模擬對弈的立體效果,也提高了觀棋者身臨其境的用戶體驗。
為了使本公開的目的、技術方案和優點更加清楚,下面將結合圖式對本公開作進一步地詳細描述,顯然,所描述的實施例僅僅是本公開一部分實施例,而不是全部的實施例。基於本公開中的實施例,本領域普通技術人員在沒有做出創造性勞動前提下所獲得的所有其它實施例,都屬於本公開保護的範圍。
在本公開實施例中使用的術語是僅僅出於描述特定實施例的目的,而非旨在限制本公開。在本公開實施例和所附發明申請專利範圍中所使用的單數形式的“一種”、“所述”和“該”也旨在包括多數形式,除非上下文清楚地表示其他含義,“多種”一般包含至少兩種。
應當理解,本文中使用的術語“和/或”僅僅是一種描述關聯物件的關聯關係,表示能夠存在三種關係,例如,A和/或B,能夠表示:單獨存在A,同時存在A和B,單獨存在B這三種情況。另外,本文中字元“/”,一般表示前後關聯物件是一種“或”的關係。
應當理解,儘管在本公開實施例中可能採用術語第一、第二、第三等來描述,但這些描述不應限於這些術語。這些術語僅用來將描述區分開。例如,在不脫離本公開實施例範圍的情況下,第一也能夠被稱為第二,類似地,第二也能夠被稱為第一。
取決於語境,如在此所使用的詞語“如果”、“若”能夠被解釋成為“在……時”或“當……時”或“回應於確定”或“回應於檢測”。類似地,取決於語境,短語“如果確定”或“如果檢測(陳述的條件或事件)”能夠被解釋成為“當確定時”或“回應於確定”或“當檢測(陳述的條件或事件)時”或“回應於檢測(陳述的條件或事件)”。
還需要說明的是,術語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的商品或者裝置不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種商品或者裝置所固有的要素。在沒有更多限制的情況下,由語句“包括一個……”限定的要素,並不排除在包括所述要素的商品或者裝置中還存在另外的相同要素。
下面結合附圖詳細說明本公開的可選實施例。特別說明的是,下述實施例中“J51”、“52”、“J60”、“J61” 和“J62”均表示面部結構表徵點的標記資訊。
實施例1
本公開實施例能夠應用於多種棋類的對弈場景,例如:中國象棋、國際象棋、軍棋和圍棋等棋類。所述對弈場景包括現場對弈場景和線上對弈場景。觀棋者能夠通過終端線上觀看由對弈模型生成的三維動畫即時展示對弈過程。
如圖1所示,採集終端12和展示終端14包含但不僅限於手機、平板電腦或者個人電腦等。
例如,對於現場對弈場景,棋手面對面進行對弈,每個棋手均有一台攝像設備11專門拍攝其面部視頻,同時有一台攝像設備11專門拍攝棋盤的視頻,這些視頻由採集終端12(比如電腦)收集並傳送給伺服器13;伺服器13對這些視頻進行初步處理,其中,伺服器13具有識別棋子與棋盤的分佈關係資訊的功能;展示終端14基於初步處理資訊構建對弈模型,並生成相應的三維動畫展示給觀看者。
例如,對於線上對弈場景,參賽的每個棋手均通過互聯網進行對弈,每個棋手均有一台攝像設備11(比如手機中的攝像頭或電腦外接或內置的攝像頭)專門拍攝其面部視頻,這些視頻由採集終端12收集並傳送給伺服器13;而棋局是一個伺服器13掌控的電子棋局,其能夠自動生成棋子與棋盤的分佈關係資訊;伺服器13對這些視頻和電子棋局進行初步處理,展示終端14基於初步處理資訊構建對弈模型,並生成相應的三維動畫展示給觀看者。
當然,上述兩個示例也可以由網路中的其它設備(比如伺服器13)基於初步處理資訊構建對弈模型,並將生成的三維動畫傳輸給展示終端14。
對本公開提供的實施例,即一種對弈模型的構建方法的實施例。
下面結合圖2對本公開實施例進行詳細說明。
步驟S101,獲取同一時間點每個棋手的視頻圖像以及在所述時間點棋局中棋子與棋盤的分佈關係資訊。
為了保證視頻同步,通常在製作視頻前,為採集終端12進行對時。線上設備最常用也是較準確的對時方法是與網路時間伺服器進行對時。對時後的每台採集終端12生成的同一時間點是絕對準確的。但是,對於對弈模型來說,相對準確的同一時間點也可滿足要求,也就是每台採集終端12與同一設備進行對時即可,該是設備可以是同一台伺服器或同一台終端,而該設備的時間並一定具有準確的時間。當製作視頻時,基於對時後的時間點為視頻添加時間戳記,從而在視頻處理時能夠基於時間戳記從多個來源的視頻中獲得同一時間點的視頻圖像。例如,線上對弈場景中,每個棋手分別在對時後的手機或電腦前參與對弈,手機或電腦將各自攝像頭採集的棋手的面部視頻添加時間戳記後分別傳輸給伺服器13,伺服器13對上述面部視頻和電子棋局進行初步處理,獲得初步處理資訊;也就是伺服器13基於每個面部視頻中的時間戳記獲得同一時間點每個棋手的視頻圖像,並從電子棋局中獲得該時間點棋子與棋盤的分佈關係資訊。
所述棋局中棋子與棋盤的分佈關係資訊包括:棋盤格式的位置資訊以及棋子的標識資訊和位置資訊。如果是現場對弈場景,則伺服器通過棋局視頻識別出該分佈關係資訊;如果是線上對弈場景,則伺服器通過其掌控的電子棋局能夠自動生成該分佈關係資訊。
本公開實施例是基於上述初步處理資訊構建對弈模型的。
步驟S102,確定所述視頻圖像中第一表情表徵點的二維位置資訊和所述第一表情表徵點中面部結構表徵點的標記資訊。
表情表徵點標記在圖像中棋手的面部區域。第一表情表徵點從屬於表情表徵點,第一表情表徵點為視頻圖像中的表情表徵點。如圖3A所示,圖中的線條的交叉點也就是表情表徵點A。設置表情表徵點的主要目的是為了通過表情表徵點能夠表現出棋手的表情。表情表徵點的數量可以根據需要增減。但是,任何角度獲得的棋手圖像,所有表情表徵點在棋手的面部位置上具有對應關係,也就是該對應關係並不是棋手圖像間每個表情表徵點的二維位置資訊相同,而是每個表情表徵點在棋手的面部位置相同。例如,棋手第一張圖像的表情表徵點與該棋手第二張圖像的表情表徵點均位於該棋手面部區域中的左內眼角位置,因此,該棋手第一張圖像的表情表徵點與該棋手第二張圖像的表情表徵點在棋手的面部位置上具有對應關係。
在表情表徵點中包括面部結構表徵點,所有面部結構表徵點是能夠體現棋手面部姿態。如圖3B所示,向左突出的稀疏網格的節點就是表情表徵點中的面部結構表徵點B。而且面部結構表徵點還包括標記資訊,用於指示該二維位置資訊對應棋手面部的位置特徵,該位置特徵是棋手面部固有的特徵。例如,在左內眼角處的面部結構表徵點標記為“J51”;在右內眼角處的面部結構表徵點標記為“J52”。當面部結構表徵點少於表情表徵點時,能夠提高資料處理的效率。可選的,所述面部結構表徵點包括五官特徵點和臉型特徵點。
步驟S103,基於每個棋手的所有面部結構表徵點的二維位置資訊和標記資訊確定對應棋手在指定方向上的旋轉資訊。
所述旋轉資訊用於表徵在實際場景中棋手頭部繞指定方向旋轉的旋轉資訊,可以理解為,在指定方向上的偏離角度。例如,在空間座標中,所述指定方向為X軸的正方向、Y軸的正方向和Z軸的正方向,則旋轉資訊包括分別繞X軸、Y軸和Z軸旋轉的角度。
在一個具體實施例中,如圖4所示,所述基於每個棋手的所有面部結構表徵點的二維位置資訊和標記資訊確定對應棋手在指定方向上的旋轉資訊,包括以下具體步驟:
步驟S103-1,在所述視頻圖像的面部區域中,依據所述標記資訊的連接關係規則,以每個二維位置資訊作為頂點位置資訊,獲得面部網格資訊。
所述連接關係規則規定了標記資訊間的連接關係,例如,連接關係規則規定:標記資訊“J52”與標記資訊“J60”、“J61”和“J62”連接;因而,在所述視頻圖像的面部區域中,標記資訊“J52”、“J60”、“J61”和“J62”對應的二維位置資訊作為網格的頂點位置資訊能夠連接,從而生成面部網格資訊。
面部網格資訊包括每個網格頂點的二維位置資訊和標記資訊以及與該網格頂點相連接的相鄰網格頂點的二維位置資訊和標記資訊。
步驟S103-2,將對應棋手的基準網格資訊和面部網格資訊輸入訓練後的神經網路模型,獲取對應棋手在所述指定方向上的旋轉資訊。
其中,所述基準網格資訊是基於對應棋手的基準圖像中面部結構表徵點的二維位置資訊和標記資訊獲得的。
在對弈前,採集終端12利用棋手在多個特定角度拍攝的特定面部圖像獲得的基準面部模型、基準圖像和基準網格資訊。主要作為對照資料用於分析棋手的面部表情和姿態,以便通過二維的視頻圖像能夠生成三維的對弈模型。
所述視頻圖像中的面部結構表徵點與所述基準圖像中的面部結構表徵點在對應棋手的面部位置上具有對應關係。例如,棋手第一張圖像的面部結構表徵點與該棋手第二張圖像的面部結構表徵點均位於該棋手面部區域中的左內眼角位置,因此,該棋手第一張圖像的面部結構表徵點與該棋手第二張圖像的面部結構表徵點在對應棋手的面部位置上具有對應關係。
本具體實施例利用該對應關係確定基準網格資訊的面部結構表徵點與面部網格資訊的面部結構表徵點的位置關係,然後通過訓練後的神經網路模型獲取對應棋手在所述指定方向上的旋轉資訊。減少了繁瑣的三維計算,提高了對弈模型的處理效率,以及觀棋者的用戶體驗。
步驟S104,根據每個棋手的第一表情表徵點的二維位置資訊以及旋轉資訊重構對應棋手的三維的基準面部模型,生成三維的目標面部模型。
在一個具體實施例中,如圖5所示,所述根據每個棋手的第一表情表徵點的二維位置資訊以及旋轉資訊重構對應棋手的基準面部模型,生成對應棋手的三維的目標面部模型,包括以下具體步驟:
步驟S104-1,基於每個棋手的旋轉資訊對對應棋手的基準面部模型進行旋轉,獲得對應棋手的第一面部模型。
由於基準面部模型在指定方向上,並沒有旋轉。為了使基準面部模型的姿態與棋手的實際面部姿態相匹配,本公開實施例將基準面部模型進行旋轉處理。
步驟S104-2,基於每個棋手的第一面部模型生成對應棋手的第一面部圖像。
所述第一面部圖像是一張基準面部模型在當前面部姿態下的二維圖像。第一面部圖像中棋手的面部姿態與視屏圖像中棋手的面部姿態相同,但面部表情不同。
步驟S104-3,確定所述第一面部圖像中第二表情表徵點的二維位置資訊。
第二表情表徵點從屬於表情表徵點,第二表情表徵點為第一面部圖像中的表情表徵點,所述第二表情表徵點標記在所述第一面部圖像中棋手的面部區域。
所述每個棋手的第一表情表徵點與第二表情表徵點在對應棋手的面部位置上具有對應關係。
步驟S104-4,依據每個棋手的第一表情表徵點與第二表情表徵點的對應關係,利用所述第一表情表徵點的二維位置資訊和所述第二表情表徵點的二維位置資訊獲得對應棋手的三維目標位置資訊。
例如,利用所述第一表情表徵點的二維位置資訊和所述第二表情表徵點的二維位置資訊,通過以下公式(1)和公式(2)能夠獲得對應棋手的三維目標位置資訊:
arg min||
X
3d-X
2d ||; (1)
X
3d =
p ( M
keypoint ); (2)
其中,
X
3d ,表示棋手的三維目標位置資訊;
M
keypoint ,表示所述第二表情表徵點的二維位置資訊;
p,表示投影函數,比如透視投影函數或正交投影函數;
X
2d ,表示所述第一表情表徵點的二維位置資訊。
步驟S104-5,基於每個棋手的三維目標位置資訊重構對應棋手的第一面部模型,生成目標面部模型。
例如,棋手的目標面部模型能夠通過以下公式(3)表示:
其中,
M,表示所述目標面部模型;
步驟S105,基於每個棋手的目標面部模型和三維的基準身體姿態模型重構對應棋手的三維的目標棋手模型。
在對弈前,每個棋手可以從基準身體姿態模型庫中選定自己喜歡的基準身體姿態模型,比如棋手選擇穿著漢服的基準身體姿態模型。基準身體姿態模型不包括面部模型,通過與棋手的目標面部模型融合能夠生成具有當前棋手面部神態的目標棋手模型。從而使觀棋者能夠觀看到一個虛擬的棋手。
步驟S106,根據所述分佈關係資訊和三維的基準棋具模型重構三維的目標棋局模型。
由於棋子和棋盤的外形始終是固定的,因此,三維的棋子模型和棋盤模型均從基準棋具模型庫中的基準棋具模型獲得。通過棋局中棋子與棋盤的分佈關係資訊重構目標棋局模型。例如,圍棋的棋子與棋盤的分佈關係資訊包括:棋盤格式的位置資訊以及棋子的標識資訊和位置資訊;棋盤格式的位置資訊用數位表示每個落子位置,比如落子位置包括“30”,而白棋落在棋盤的“30”位置上,則白棋的位置資訊為“30”,白棋的標識資訊為表徵白棋的數位1。
其中,所述步驟S106也可以在步驟S101後至步驟S105前的任一步驟執行,本公開實施例不做限制。
步驟S107,根據所有目標棋手模型、所述目標棋局模型和模擬現實對弈場景的基準位置關係重構三維的目標對弈模型。
在現實場景中,每種棋局的棋手位置可能不同。比如,圍棋中棋盤位於棋手之間,棋手是面對面對弈;而四國軍棋則是棋手處於棋盤四周。基準位置關係根據對局的不同,預先設定了棋盤的位置,以及棋手的位置以及棋手身體的朝向。從而能夠重構出於現實場景相近的三維的虛擬對弈場景。
本公開實施例還提供了對弈前構建每個棋手的基準資訊(比如基準面部模型、基準圖像和基準網格資訊)的方法。
在一個具體實施例中,如圖6所示,所述方法包括以下步驟:
步驟S100-1,在對弈前,獲取每個棋手在多個特定角度拍攝的特定面部圖像。
對弈前,對於線上對弈場景,可以是在棋手進入電子棋局室前,也可以是在註冊電子棋手時;對於現場對弈場景,可以是在報到時。本公開實施例不作具體限制。
可選的,所述特定面部圖像包括正面面部圖像和兩側的側部面部圖像。這三張圖像既能夠將棋手的面部特點囊括在內,也減少了資料處理量,從而提高了對弈效率。
步驟S100-2,確定每張特定面部圖像中的面部結構表徵點的二維位置資訊和標記資訊。
所述面部結構表徵點標記在所述特定面部圖像中棋手的面部區域。
所述面部結構表徵點與前述棋手圖像中的面部結構表徵點在棋手的面部位置上具有對應關係。
步驟S100-3,在所述特定面部圖像的面部區域中,依據所述標記資訊的所述連接關係規則,以每個二維位置資訊作為頂點位置資訊,獲得特定網格資訊。
步驟S100-4,基於每個棋手的特定網格資訊中的網格資訊從基準面部模型庫中獲取面部結構匹配的基準面部模型、基準圖像和基準網格資訊。
基準面部模型庫中包括了各式各樣人的基準資訊以及該人的面部網格資訊。該人的面部網格資訊由多個特定角度拍攝的該人的面部圖像生成。
本具體實施例通過棋手的多張特定面部圖像中的特定網格資訊檢索基準面部模型庫中的面部網格資訊,當特定網格資訊與庫中的面部網格資訊匹配時,則庫中的面部網格資訊對應的基準資訊就作為與棋手面部結構匹配的基準資訊。通過多張二維的特定面部圖像獲得了基準資訊,簡化了資料獲取步驟,提高了資料處理的通用性和效率。
本公開實施例通過每個棋手的視頻圖像獲得棋手面部區域的表情表徵點和面部結構表徵點,基於面部結構表徵點生成旋轉資訊,然後通過表情表徵點和旋轉資訊生成棋手的目標面部模型,進而生成目標棋手模型和目標對弈模型,再生成對弈模型。提高了資料處理的通用性和效率,實現了模擬對弈的立體效果,也提高了觀棋者身臨其境的用戶體驗。
實施例2
本公開還提供了與上述實施例承接的裝置實施例,用於實現如上實施例所述的方法步驟,基於相同的名稱含義的解釋與如上實施例相同,具有與如上實施例相同的技術效果,此處不再贅述。
如圖7所示,本公開提供一種對弈模型的構建裝置700,包括:
資訊獲取單元701,用於獲取同一時間點每個棋手的視頻圖像以及在所述時間點棋局中棋子與棋盤的分佈關係資訊;
資訊確定單元702,用於確定所述視頻圖像中第一表情表徵點的二維位置資訊和所述第一表情表徵點中面部結構表徵點的標記資訊,所述第一表情表徵點標記在所述視頻圖像中棋手的面部區域;
旋轉確定單元703,用於基於每個棋手的所有面部結構表徵點的二維位置資訊和標記資訊確定對應棋手在指定方向上的旋轉資訊;
面部重構單元704,用於根據每個棋手的第一表情表徵點的二維位置資訊以及旋轉資訊重構對應棋手的三維的基準面部模型,生成對應棋手的三維的目標面部模型;
棋手重構單元705,用於基於每個棋手的目標面部模型和三維的基準身體姿態模型重構對應棋手的三維的目標棋手模型;
棋局重構單元706,用於根據所述分佈關係資訊和三維的基準棋具模型重構三維的目標棋局模型;
對弈重構單元707,用於根據所有目標棋手模型、所述目標棋局模型和模擬現實對弈場景的基準位置關係重構三維的目標對弈模型。
可選的,所述旋轉確定單元703,包括:
面部網格獲得子單元,用於在所述視頻圖像的面部區域中,依據所述標記資訊的連接關係規則,以每個二維位置資訊作為頂點位置資訊,獲得面部網格資訊;
旋轉確定子單元,用於將對應棋手的基準網格資訊和面部網格資訊輸入訓練後的神經網路模型,獲取對應棋手在所述指定方向上的旋轉資訊,其中,所述基準網格資訊是基於對應棋手的基準圖像中面部結構表徵點的二維位置資訊和標記資訊獲得的,所述視頻圖像中的面部結構表徵點與所述基準圖像中的面部結構表徵點在對應棋手的面部位置上具有對應關係。
可選的,所述面部重構單元704,包括:
旋轉子單元,用於基於每個棋手的旋轉資訊對對應棋手的基準面部模型進行旋轉,獲得對應棋手的第一面部模型;
圖像生成子單元,用於基於每個棋手的第一面部模型生成對應棋手的第一面部圖像;
座標確定子單元,用於確定所述第一面部圖像中第二表情表徵點的二維位置資訊,所述第二表情表徵點標記在所述第一面部圖像中棋手的面部區域,所述每個棋手的第一表情表徵點與第二表情表徵點在對應棋手的面部位置上具有對應關係;
座標獲得子單元,用於依據每個棋手的第一表情表徵點與第二表情表徵點的對應關係,利用所述第一表情表徵點的二維位置資訊和所述第二表情表徵點的二維位置資訊獲得對應棋手的三維目標位置資訊;
面部生成子單元,用於基於每個棋手的三維目標位置資訊重構對應棋手的第一面部模型,生成目標面部模型。
可選的,所述裝置700還包括基準獲取單元;
所述基準獲取單元包括:
圖像獲得子單元,用於在對弈前,獲取每個棋手在多個特定角度拍攝的特定面部圖像;
資訊確定子單元,用於確定每張特定面部圖像中的面部結構表徵點的二維位置資訊和標記資訊,所述面部結構表徵點標記在所述特定面部圖像中棋手的面部區域;
特定網格獲得子單元,用於在所述特定面部圖像的面部區域中,依據所述標記資訊的所述連接關係規則,以每個二維位置資訊作為頂點位置資訊,獲得特定網格資訊;
基準獲取子單元,用於基於每個棋手的特定網格資訊從基準面部模型庫中獲取面部結構匹配的基準面部模型、基準圖像和基準網格資訊。
可選的,所述特定面部圖像包括正面面部圖像和兩側的側部面部圖像。
本公開實施例通過每個棋手的視頻圖像獲得棋手面部區域的表情表徵點和面部結構表徵點,基於面部結構表徵點生成旋轉資訊,然後通過表情表徵點和旋轉資訊生成棋手的目標面部模型,進而生成目標棋手模型和目標對弈模型,再生成對弈模型。提高了資料處理的通用性和效率,實現了模擬對弈的立體效果,也提高了觀棋者身臨其境的用戶體驗。
實施例3
如圖8所示,本實施例提供一種電子設備,所述電子設備,包括:至少一個處理器;以及,與所述至少一個處理器通信連接的記憶體;其中,所述記憶體儲存有可被所述一個處理器執行的指令,所述指令被所述至少一個處理器執行,以使所述至少一個處理器能夠執行如上實施例所述的方法步驟。
實施例4
本公開實施例提供了一種非易失性電腦可讀取記錄媒體,所述電腦可讀取記錄媒體儲存有電腦可執行指令,該電腦可執行指令可執行如上實施例所述的方法步驟。
實施例5
下面參考圖8,其示出了適於用來實現本公開實施例的電子設備的結構示意圖。本公開實施例中的終端設備能夠包括但不限於諸如行動電話、筆記型電腦、數位廣播接收器、PDA(個人數位助理)、PAD(平板電腦)、PMP(可擕式多媒體播放機)、車載終端(例如車載導航終端)等等的移動終端以及諸如數位TV、臺式電腦等等的固定終端。圖8示出的電子設備僅僅是一個示例,不應對本公開實施例的功能和使用範圍帶來任何限制。
如圖8所示,電子設備能夠包括處理裝置(例如中央處理器、圖形處理器等)801,其能夠根據儲存在唯讀記憶體(ROM)802中的程式或者從儲存裝置808載入到隨機訪問記憶體(RAM)803中的程式而執行各種適當的動作和處理。在RAM 803中,還儲存有電子設備操作所需的各種程式和資料。處理裝置801、ROM 802以及RAM 803通過匯流排804彼此相連。輸入/輸出(I/O)介面805也連接至匯流排804。
通常,以下裝置能夠連接至I/O介面805:包括例如觸控式螢幕、觸控板、鍵盤、滑鼠、攝像頭、麥克風、加速度計、陀螺儀等的輸入裝置806;包括例如液晶顯示器(LCD)、揚聲器、振動器等的輸出裝置807;包括例如磁帶、硬碟等的儲存裝置808;以及通信裝置809。通信裝置809能夠允許電子設備與其他設備進行無線或有線通信以交換資料。雖然圖8示出了具有各種裝置的電子設備,但是應理解的是,並不要求實施或具備所有示出的裝置。能夠替代地實施或具備更多或更少的裝置。
特別地,根據本公開的實施例,上文參考流程圖描述的過程能夠被實現為電腦軟體程式。例如,本公開的實施例包括一種電腦程式產品,其包括承載在電腦可讀取記錄媒體上的電腦程式,該電腦程式包含用於執行流程圖所示的方法的程式碼。在這樣的實施例中,該電腦程式能夠通過通信裝置809從網路上被下載和安裝,或者從儲存裝置808被安裝,或者從ROM 802被安裝。在該電腦程式被處理裝置801執行時,執行本公開實施例的方法中限定的上述功能。
需要說明的是,本公開上述的電腦可讀取記錄媒體能夠是電腦可讀信號介質或者電腦可讀取記錄媒體或者是上述兩者的任意組合。電腦可讀取記錄媒體例如能夠是——但不限於——電、磁、光、電磁、紅外線、或半導體的系統、裝置或器件,或者任意以上的組合。電腦可讀取記錄媒體的更具體的例子能夠包括但不限於:具有一個或多個導線的電連接、可擕式電腦磁片、硬碟、隨機訪問記憶體(RAM)、唯讀記憶體(ROM)、可擦式可程式設計唯讀記憶體(EPROM或快閃記憶體)、光纖、可擕式緊湊磁片唯讀記憶體(CD-ROM)、光記憶體件、磁記憶體件、或者上述的任意合適的組合。在本公開中,電腦可讀取記錄媒體能夠是任何包含或儲存程式的有形介質,該程式能夠被指令執行系統、裝置或者器件使用或者與其結合使用。而在本公開中,電腦可讀信號介質能夠包括在基帶中或者作為載波一部分傳播的資料信號,其中承載了電腦可讀的程式碼。這種傳播的資料信號能夠採用多種形式,包括但不限於電磁信號、光信號或上述的任意合適的組合。電腦可讀信號介質還能夠是電腦可讀取記錄媒體以外的任何電腦可讀介質,該電腦可讀信號介質能夠發送、傳播或者傳輸用於由指令執行系統、裝置或者器件使用或者與其結合使用的程式。電腦可讀介質上包含的程式碼能夠用任何適當的介質傳輸,包括但不限於:電線、光纜、RF(射頻)等等,或者上述的任意合適的組合。
上述電腦可讀介質能夠是上述電子設備中所包含的;也能夠是單獨存在,而未裝配入該電子設備中。
能夠以一種或多種程式設計語言或其組合來編寫用於執行本公開的操作的電腦程式代碼,上述程式設計語言包括物件導向的程式設計語言—諸如Java、Smalltalk、C++,還包括常規的過程式程式設計語言—諸如“C”語言或類似的程式設計語言。程式碼能夠完全地在使用者電腦上執行、部分地在使用者電腦上執行、作為一個獨立的套裝軟體執行、部分在使用者電腦上部分在遠端電腦上執行、或者完全在遠端電腦或伺服器上執行。在涉及遠端電腦的情形中,遠端電腦能夠通過任意種類的網路——包括局域網(LAN)或廣域網路(WAN)—連接到使用者電腦,或者,能夠連接到外部電腦(例如利用網際網路服務提供者來通過網際網路連接)。
圖式中的流程圖和方塊圖,圖示了按照本公開各種實施例的系統、方法和電腦程式產品的可能實現的體系架構、功能和操作。在這點上,流程圖或方塊圖中的每個方框能夠代表一個模組、程式段、或代碼的一部分,該模組、程式段、或代碼的一部分包含一個或多個用於實現規定的邏輯功能的可執行指令。也應當注意,在有些作為替換的實現中,方框中所標注的功能也能夠以不同於圖式中所標註的順序發生。例如,兩個接連地表示的方框實際上能夠基本並行地執行,它們有時也能夠按相反的循序執行,這依所涉及的功能而定。也要注意的是,方塊圖和/或流程圖中的每個方框、以及方塊圖和/或流程圖中的方框的組合,能夠用執行規定的功能或操作的專用的基於硬體的系統來實現,或者能夠用專用硬體與電腦指令的組合來實現。
描述於本公開實施例中所涉及到的單元能夠通過軟體的方式實現,也能夠通過硬體的方式來實現。其中,單元的名稱在某種情況下並不構成對該單元本身的限定。
11:攝像設備
12:採集終端
13:伺服器
14:展示終端
700:裝置
701:資訊獲取單元
702:資訊確定單元
703:旋轉確定單元
704:面部重構單元
705:棋手重構單元
706:棋局重構單元
707:對弈重構單元
801:處理裝置
802:ROM
803:RAM
804:匯流排
805:I/O介面
806:輸入裝置
807:輸出裝置
808:儲存裝置
809:通信裝置
A:表情表徵點
B:面部結構表徵點
S101~S107,S100-1~S100-4,S103-1~S103-2,S104-1~S104-5:步驟
圖1示出了根據本公開實施例的對弈模型的構建方法的系統示意圖。
圖2示出了根據本公開實施例的另一對弈模型的構建方法的流程圖。
圖3A示出了根據本公開實施例的圖像中的表情表徵點的示意圖。
圖3B示出了根據本公開實施例的圖像中的面部結構表徵點的示意圖。
圖4示出了根據本公開實施例提供的確定旋轉資訊方法的流程圖。
圖5示出了根據本公開實施例提供的生成目標面部模型方法的流程圖。
圖6示出了根據本公開實施例提供的構建基準資訊方法的流程圖。
圖7示出了根據本公開實施例的對弈模型的構建裝置的方塊圖。
圖8示出了根據本公開實施例提供的一種電子設備連接結構示意圖。
S101~S107:步驟
Claims (10)
- 一種對弈模型的構建方法,其特徵在於:該方法包括: 獲取同一時間點每個棋手的一視頻圖像以及在該時間點棋局中棋子與棋盤的一分佈關係資訊; 確定該視頻圖像中一第一表情表徵點的二維位置資訊和該第一表情表徵點中一面部結構表徵點的一標記資訊,該第一表情表徵點標記在該視頻圖像中棋手的面部區域; 基於每個棋手的所有該面部結構表徵點的二維位置資訊和該標記資訊確定對應棋手在一指定方向上的旋轉資訊; 根據每個棋手的第一表情表徵點的二維位置資訊以及旋轉資訊重構對應棋手的三維的基準面部模型,生成對應棋手的三維的目標面部模型; 基於每個棋手的目標面部模型和三維的基準身體姿態模型重構對應棋手的三維的目標棋手模型; 根據該分佈關係資訊和三維的基準棋具模型重構三維的一目標棋局模型;以及 根據所有目標棋手模型、該目標棋局模型和模擬現實對弈場景的基準位置關係重構三維的目標對弈模型。
- 如請求項1所述的方法,其特徵在於:基於每個棋手的所有該面部結構表徵點的二維位置資訊和該標記資訊確定對應棋手在該指定方向上的旋轉資訊之該步驟包括: 在該視頻圖像的面部區域中,依據該標記資訊的一連接關係規則,以每個二維位置資訊作為頂點位置資訊,獲得面部網格資訊;以及 將對應棋手的一基準網格資訊和面部網格資訊輸入訓練後的神經網路模型,獲取對應棋手在該指定方向上的旋轉資訊,其中,該基準網格資訊是基於對應棋手的一基準圖像中面部結構表徵點的二維位置資訊和標記資訊獲得的,該視頻圖像中的面部結構表徵點與該基準圖像中的面部結構表徵點在對應棋手的面部位置上具有對應關係。
- 如請求項1所述的方法,其特徵在於:根據每個棋手的第一表情表徵點的二維位置資訊以及旋轉資訊重構對應棋手的基準面部模型,生成對應棋手的三維的目標面部模型之該步驟包括: 基於每個棋手的旋轉資訊對對應棋手的基準面部模型進行旋轉,獲得對應棋手的第一面部模型; 基於每個棋手的第一面部模型生成對應棋手的一第一面部圖像; 確定該第一面部圖像中一第二表情表徵點的二維位置資訊,該第二表情表徵點標記在該第一面部圖像中棋手的面部區域,每個棋手的該第一表情表徵點與第二表情表徵點在對應棋手的面部位置上具有對應關係; 依據每個棋手的第一表情表徵點與第二表情表徵點的對應關係,利用該第一表情表徵點的二維位置資訊和該第二表情表徵點的二維位置資訊獲得對應棋手的三維目標位置資訊;以及 基於每個棋手的三維目標位置資訊重構對應棋手的第一面部模型,生成目標面部模型。
- 如請求項2所述的方法,其特徵在於:該方法還包括: 在對弈前,獲取每個棋手在多個特定角度拍攝的一特定面部圖像; 確定每一該特定面部圖像中的面部結構表徵點的二維位置資訊和標記資訊,該面部結構表徵點標記在該特定面部圖像中棋手的面部區域; 在該特定面部圖像的面部區域中,依據該標記資訊的該連接關係規則,以每個二維位置資訊作為頂點位置資訊,獲得特定網格資訊;以及 基於每個棋手的特定網格資訊從基準面部模型庫中獲取面部結構匹配的基準面部模型、基準圖像和基準網格資訊。
- 如請求項4所述的方法,其特徵在於:該特定面部圖像包括正面面部圖像和兩側的側部面部圖像。
- 一種對弈模型的構建裝置,其特徵在於:該裝置包括: 一資訊獲取單元,用於獲取同一時間點每個棋手的一視頻圖像以及在該時間點棋局中棋子與棋盤的一分佈關係資訊; 一資訊確定單元,用於確定該視頻圖像中一第一表情表徵點的二維位置資訊和該第一表情表徵點中面部結構表徵點的一標記資訊,該第一表情表徵點標記在該視頻圖像中棋手的面部區域; 一旋轉確定單元,用於基於每個棋手的所有面部結構表徵點的二維位置資訊和標記資訊確定對應棋手在一指定方向上的旋轉資訊; 一面部重構單元,用於根據每個棋手的第一表情表徵點的二維位置資訊以及旋轉資訊重構對應棋手的三維的基準面部模型,生成對應棋手的三維的目標面部模型; 一棋手重構單元,用於基於每個棋手的目標面部模型和三維的基準身體姿態模型重構對應棋手的三維的目標棋手模型; 一棋局重構單元,用於根據該分佈關係資訊和三維的基準棋具模型重構三維的一目標棋局模型;以及 一對弈重構單元,用於根據所有目標棋手模型、該目標棋局模型和模擬現實對弈場景的基準位置關係重構三維的目標對弈模型。
- 如請求項6所述的裝置,其特徵在於:該旋轉確定單元包括: 一面部網格獲得子單元,用於在該視頻圖像的面部區域中,依據該標記資訊的一連接關係規則,以每個二維位置資訊作為頂點位置資訊,獲得面部網格資訊;以及 一旋轉確定子單元,用於將對應棋手的一基準網格資訊和面部網格資訊輸入訓練後的神經網路模型,獲取對應棋手在該指定方向上的旋轉資訊,其中,該基準網格資訊是基於對應棋手的一基準圖像中面部結構表徵點的二維位置資訊和標記資訊獲得的,該視頻圖像中的面部結構表徵點與該基準圖像中的面部結構表徵點在對應棋手的面部位置上具有對應關係。
- 如請求項6所述的裝置,其特徵在於:該面部重構單元包括: 一旋轉子單元,用於基於每個棋手的旋轉資訊對對應棋手的基準面部模型進行旋轉,獲得對應棋手的第一面部模型; 一圖像生成子單元,用於基於每個棋手的第一面部模型生成對應棋手的一第一面部圖像; 一座標確定子單元,用於確定該第一面部圖像中一第二表情表徵點的二維位置資訊,該第二表情表徵點標記在該第一面部圖像中棋手的面部區域,所述每個棋手的第一表情表徵點與第二表情表徵點在對應棋手的面部位置上具有對應關係; 一座標獲得子單元,用於依據每個棋手的第一表情表徵點與第二表情表徵點的對應關係,利用該第一表情表徵點的二維位置資訊和該第二表情表徵點的二維位置資訊獲得對應棋手的三維目標位置資訊;以及 一面部生成子單元,用於基於每個棋手的三維目標位置資訊重構對應棋手的第一面部模型,生成目標面部模型。
- 如請求項7所述的裝置,其特徵在於:該裝置還包括一基準獲取單元,該基準獲取單元包括: 一圖像獲得子單元,用於在對弈前,獲取每個棋手在多個特定角度拍攝的一特定面部圖像; 一資訊確定子單元,用於確定該特定面部圖像中的面部結構表徵點的二維位置資訊和標記資訊,面部結構表徵點標記在該特定面部圖像中棋手的面部區域; 一特定網格獲得子單元,用於在該特定面部圖像的面部區域中,依據該標記資訊的該連接關係規則,以每個二維位置資訊作為頂點位置資訊,獲得特定網格資訊;以及 一基準獲取子單元,用於基於每個棋手的特定網格資訊從基準面部模型庫中獲取面部結構匹配的基準面部模型、基準圖像和基準網格資訊。
- 如請求項9所述的裝置,其特徵在於:該特定面部圖像包括正面面部圖像和兩側的側部面部圖像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111017044.1A CN113780141A (zh) | 2021-08-31 | 2021-08-31 | 一种对弈模型的构建方法和装置 |
CN202111017044.1 | 2021-08-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
TW202312107A true TW202312107A (zh) | 2023-03-16 |
Family
ID=78840540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW110143289A TW202312107A (zh) | 2021-08-31 | 2021-11-19 | 對弈模型的構建方法和裝置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11915371B2 (zh) |
CN (1) | CN113780141A (zh) |
TW (1) | TW202312107A (zh) |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8730156B2 (en) * | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
GB2465792A (en) * | 2008-11-28 | 2010-06-02 | Sony Corp | Illumination Direction Estimation using Reference Object |
US10796480B2 (en) * | 2015-08-14 | 2020-10-06 | Metail Limited | Methods of generating personalized 3D head models or 3D body models |
CN109325589B (zh) | 2017-07-31 | 2021-06-15 | 华为技术有限公司 | 卷积计算方法及装置 |
CN107493387A (zh) | 2017-08-24 | 2017-12-19 | 维沃移动通信有限公司 | 一种游戏控制方法及移动终端 |
CN110135226B (zh) * | 2018-02-09 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 表情动画数据处理方法、装置、计算机设备和存储介质 |
CN110796719A (zh) * | 2018-07-16 | 2020-02-14 | 北京奇幻科技有限公司 | 一种实时人脸表情重建方法 |
CN110308787A (zh) * | 2019-01-16 | 2019-10-08 | 上海触派科技有限公司 | 一种多维交互识别与棋牌游戏结合的ar互动系统及方法 |
CN110348344B (zh) * | 2019-06-28 | 2021-07-27 | 浙江大学 | 一种基于二维和三维融合的特殊人脸表情识别的方法 |
US11176757B2 (en) * | 2019-10-02 | 2021-11-16 | Magic Leap, Inc. | Mission driven virtual character for user interaction |
CN111659124B (zh) * | 2020-05-27 | 2023-05-02 | 太原理工大学 | 一种用于对弈的智能鉴别系统 |
-
2021
- 2021-08-31 CN CN202111017044.1A patent/CN113780141A/zh active Pending
- 2021-11-10 US US17/522,951 patent/US11915371B2/en active Active
- 2021-11-19 TW TW110143289A patent/TW202312107A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
CN113780141A (zh) | 2021-12-10 |
US11915371B2 (en) | 2024-02-27 |
US20230069733A1 (en) | 2023-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11948260B1 (en) | Streaming mixed-reality environments between multiple devices | |
CN104010706B (zh) | 视频游戏的方向输入 | |
TWI567659B (zh) | 照片表示視圖的基於主題的增強 | |
CN111862348B (zh) | 视频显示方法、视频生成方法、装置、设备及存储介质 | |
CN108668108B (zh) | 一种视频监控的方法、装置及电子设备 | |
CN104486586B (zh) | 一种基于视频地图的灾难救生模拟训练方法及系统 | |
JP6656382B2 (ja) | マルチメディア情報を処理する方法及び装置 | |
US20220044704A1 (en) | Systems and methods for generating and presenting virtual experiences | |
JP2023504608A (ja) | 拡張現実場面における表示方法、装置、機器、媒体及びプログラム | |
JP7150894B2 (ja) | Arシーン画像処理方法及び装置、電子機器並びに記憶媒体 | |
JP2022507502A (ja) | 拡張現実(ar)のインプリント方法とシステム | |
CN105893452B (zh) | 一种呈现多媒体信息的方法及装置 | |
US9843642B2 (en) | Geo-referencing media content | |
TW202312107A (zh) | 對弈模型的構建方法和裝置 | |
CN115562480A (zh) | 用于增强现实的方法及装置 | |
CN105894581B (zh) | 一种呈现多媒体信息的方法及装置 | |
Harish et al. | Augmented Reality Applications in Gaming | |
TWI802093B (zh) | 圓桌視訊會議的生成方法、裝置、電腦可讀取記錄媒體和電子設備 | |
WO2024131204A1 (zh) | 虚拟场景设备交互方法及相关产品 | |
CN111530089B (zh) | 一种多媒体vr互动方法及系统 | |
WO2017124871A1 (zh) | 一种呈现多媒体信息的方法及装置 | |
KR102492985B1 (ko) | 디지털 트윈 기반의 메타버스를 제공하는 디지털 테마파크 구현 시스템 | |
TWM563614U (zh) | 混合實境社區生活圈找房裝置 | |
CN116233513A (zh) | 虚拟现实直播间虚拟礼物特效播放处理方法、装置和设备 | |
TWM592332U (zh) | 一種擴增實境多螢幕陣列整合系統 |